A TSAC, Automated Traffic Surveillance and Control, è il sistema che governa il traffico di Los Angeles. La sua pelle sono 18 mila rilevatori sparsi per la città, e 400 gli occhi, le telecamere che sorvegliano gli incroci problematici. Proprio adesso da quell’incrocio arriva il segnale di un bus in ritardo e di un’immissione congestionata: gli algoritmi di ATSAC reagiscono, coordinano i semafori per sbloccare il traffico e dare pure la precedenza alla corsia preferenziale del bus. Il sistema sensoriale è però fatto anche dai conducenti stessi, che segnalano le situazioni complicate per strada. Tutte queste informazioni restano in memoria una settimana, così da individuare modelli del traffico e permettere agli algoritmi di aggiornarsi e agli operatori di prendere decisioni informate. Anche loro intervengono: con un comando possono cambiare un’intera rete di semafori.
In questo intreccio le intelligenze umane e tecniche interagiscono. È quello che N. Katherine Hayles chiama assemblaggio cognitivo nel suo ultimo testo, L’impensato, uscito in Italia per effequ e tradotto da Silvia Dal Dosso e Gregorio Magini. N. Katherine Hayles è teorica e critica letteraria, si è occupata di postumanesimo, ha scritto, tra le altre cose, How We Become Poshuman: Virtual Bodies in Cybernetics, Literature and Informatics, si è mossa dentro le relazioni tra letterature, scienze, tecnologie.
In quel groviglio di uomini e macchine, dove si concentra l’intelligenza? E possiamo davvero dire che si “concentra” da qualche parte, o dovremmo accettare il fatto che è sparsa? Benché continuamente immersi dentro assemblaggi cognitivi di questo tipo, abbiamo ancora l’impressione che l’intelligenza sia individuabile sempre e solo nella nostra coscienza. Conserviamo cioè l’idea che l’intelligenza sia la forma appuntita della nostra coscienza. E dunque, quando ci interroghiamo sulle abilità cognitive dei non umani, ci chiediamo, nel caso dei viventi, che forma di coscienza li abiti o, nel caso dei sistemi artificiali, che forma di coscienza potrà abitarli. L’impensato sovverte queste domande. Per esempio: è necessario che sistemi artificiali complessi si dotino di coscienza, che in loro emerga, oppure possono avere doti cognitive sofisticatissime anche restando non consci? Hayes cerca esempi, metafore e risposte nei saggi dei neuroscienziati e nei romanzi di fantascienza. Come Blindsight di Peter Watts, dove un equipaggio umano incontra i criptoidi, alieni dalla tecnologia mostruosa ma senza coscienza. Perché la coscienza, scrive, “spreca energia e potenza di calcolo, è ossessionata da se stessa fino alla psicosi”.
Nel suo L’impensato, N. Katherine Hayles segue le cognizioni nonconsce che si intrecciano negli assemblaggi tra umani, macchine e viventi, alla ricerca di una nuova teoria della cognizione.
La dominante narrazione della coscienza, secondo Hayles, impedisce di pensare a quei processi che le stanno al di sotto. Cita allora Antonio Damasio, che in Emozione e coscienza (Adelphi) scrive che è proprio questa narrazione che “costringe il mondo dell’immaginazione a vertere anzitutto sull’individuo”. Ma al di sotto dei monologhi verbali, consapevoli e autoriflessi della coscienza umana, c’è ciò che Hayles chiama cognizione nonconscia o nonconscio cognitivo e che Damasio chiama proto sé. Questa cognizione non conscia processa gli stimoli più rapidamente della coscienza e ha una sua narrazione, non verbale ma sensoriale. In un altro romanzo citato da Hayes, Déja Vu di Tom McCarthy (ultima edizione Isbn Edizioni), al protagonista ne manca un pezzo. Dopo un incidente ha perso parte delle abilità del suo nonconscio cognitivo ed è così costretto a pensare coscientemente a ogni cosa e a rimettere macchinosamente assieme i pezzi del mondo. Un po’ come la ragazza disincarnata, uno dei casi raccontati da Oliver Sacks (L’uomo che scambiò sua moglie per un cappello, Adelphi), che aveva perduto la propriocezione ed era in grado di muoversi solo con un sforzo cosciente e controllato sui propri movimenti. Come diventa possibile allora fare una rovesciata in una partita di calcio?
Seguendo le cognizioni nonconsce che si intrecciano negli assemblaggi tra umani, macchine e viventi, si dipana lo scopo di Hayles e della sua teoria della cognizione: superare il binomio umano e non umano per approdare a una nuova “ecologia cognitiva”, in cui si possa pensare a quelle forme di cognizione nonconscia tecnologica che partecipano della nostra vita, e alle forme di cognizione della vita stessa, di un albero, di un verme, di una volpe, che ci circondano e con le quali intessiamo relazioni complicate di coabitazione, di sfruttamento, di amore.
Katherine Hayles abita a Los Angeles e la raggiungo online. Per problemi di connessione, curiosamente riusciamo soltanto a vederci, senza sentirci dai microfoni; aggiungiamo allora l’audio via telefono: l’assemblaggio cognitivo è più complicato del previsto.
Che cos’è l’impensato che dà il titolo al suo libro?
In effetti dopo un lungo esercizio cosciente, un pianista che suona Chopin o un calciatore che fa una rovesciata deve nonpensare coscientemente. In che modo questi processi nonconsci diventano dunque cruciali?
Inoltre, è stato dimostrato che la cognizione nonconscia non solo può agire più velocemente della coscienza, ma può anche elaborare informazioni troppo dense per essere elaborate e comprese dalla coscienza. Un esempio: sono stati condotti esperimenti che presentavano schemi visivi complessi, pattern, che però erano mascherati da molto rumore e informazioni estranee. Facendo affidamento alla sola coscienza, le persone non riuscivano a capire che c’era uno schema sottostante. Tuttavia, esposti ad altri segnali visivi, con le loro risposte a questi nuovi stimoli dimostravano che avevano imparato qualcosa, non consciamente, da quello schema. Ma consciamente non sapevano dire che schema fosse o persino se ci fosse.
In più la cognizione nonconscia funge da mediatore tra tutte le funzioni sensoriali distribuite nel corpo – esterne e interne, come le sensazioni nell’intestino o nei muscoli – e ciò che la coscienza sa. Ma la coscienza conosce solo una piccola parte di ciò che passa attraverso il nonconscio. Il nonconscio è un interprete degli stimoli ben più capace della coscienza.
Tuttavia, d’altra parte, per un’azione volontaria è necessario il permesso della coscienza: la cognizione nonconscia non può avviare l’azione. Quindi, quando il calciatore risponde al pallone, correndo verso di lui, la coscienza dà il permesso al nonconscio di agire. Ovviamente, insomma, la coscienza ha un ruolo cruciale da svolgere, ed è così ovvio che quasi non c’è bisogno di dirlo. Che la coscienza sia importante lo sappiamo da secoli, quello che non sappiamo da secoli è come la coscienza si fondi sulla cognizione non conscia.
Nel libro dedica una parte agli affetti, al loro ruolo e a come sono implicati nella cognizione nonconscia. Per esempio, lei descrive una – al femminile – ideale esemplare di Homo sapiens in questo modo: “all’erta e reattiva, è capace di usare la ragione e l’astrazione ma non è interamente intrappolata al loro interno; incorporata nel suo ambiente, è consapevole del fatto che elabora informazioni provenienti dalle fonti più disparate, compresi i sistemi corporei interni e i processi nonconsci emotivi e affettivi”. Dunque che c’entrano questi affetti?
Damasio lo descrive molto chiaramente, quando racconta di persone che soffrono qualche tipo di disabilità nella loro cognizione e non sono in grado di provare emozioni. Possono comunque prendere decisioni, ma il modo in cui ci arrivano è seguendo un albero logico: un processo molto lento che spesso non arriva alla conclusione giusta. È più importante finire di scrivere una lettera o spegnere il fuoco in cucina? Le persone normalmente non devono pensare molto, lo sanno immediatamente. Il senso di priorità di come si agisce dunque è interamente legato agli affetti ed è per questo che considero gli affetti un punto cruciale, parte della cognizione sia per gli esseri umani che per i non umani. Questo fa emergere un modo in cui i sistemi tecnologici sono decisamente diversi dai sistemi viventi, e cioè che non hanno lo stesso tipo di embodiement – o, come diciamo, istanziazione. Quindi operano su una base completamente diversa da quella degli esseri umani e delle altre forme di vita ed è importante riconoscere questa differenza.
Nel suo libro a un certo punto scherza sull’imperialismo della coscienza. Pensa che il regno della coscienza sia un regno occidentale?
A proposito di contesti: lei introduce un concetto complesso, che fa anche riferimento alla “Actor Network Theory” di Bruno Latour. Il concetto che propone è quello di assemblaggio cognitivo. Che cosa c’entra con l’impensato?
Il tempo atmosferico, per esempio, è un agente, una roccia è un agente, un tornado è un agente, tutti agenti con la capacità di agire. Un tornado può agire con ferocia, ma ciò che non ha è la capacità di interpretare le informazioni e prendere decisioni: il suo percorso è determinato dalle forze che agiscono su di lui. Invece, qualsiasi cosa dotata di capacità cognitive può interpretare le informazioni e sulla base di questa interpretazione prendere decisioni. Il nostro computer prende decisioni, il nostro cellulare, il tuo cane, tu, i lombrichi nel tuo giardino. L’idea di interpretare le informazioni e di avere un repertorio di possibili comportamenti che consentono più di una risposta è quindi essenziale per l’idea di assemblaggio cognitivo.
Concentrandomi sulla cognizione, insomma, spero quindi di creare un quadro teorico in cui si possa parlare di esseri umani, forme di vita non umane e dispositivi meccanici tecnologici.
Tra gli attori di questi assemblaggi cognitivi ci sono anche i sistemi tecnologici dalle capacità cognitive spiccate, e vengo quindi alla seconda parte del suo libro. In queste loro cognizioni sofisticate, gli androidi sognano una coscienza elettrica?
In ogni caso dimostra che, senza coscienza, un programma che apprende da un enorme database di testi può iniziare a fare un’intera rete di inferenze, in grado non solo di prevedere la parola successiva in una sequenza, ma di svolgere compiti che normalmente sono associati solo agli esseri umani, non solo testuali, ma anche letterari. Ad esempio, è in grado di rilevare e riprodurre elementi stilistici di alto livello come il genere e lo stile di un particolare autore. Si può chiedergli di scrivere una battuta nello stile di Mark Twain o di pronunciare una profezia nello stile della Bibbia di Re Giacomo. Al Kenyon College, due professori hanno chiesto a GPT3 di scrivere dei saggi su una traccia data da altri due colleghi. Poi hanno consegnato i saggi a questi senza rivelare che erano stati scritti dalla macchina. I colleghi hanno pensato che gli autori fossero degli studenti e ne hanno valutato uno con una A e l’altro con una A-.
Dimostra che senza coscienza, se si conosce abbastanza il linguaggio umano, si possono fare molte inferenze corrette o quasi corrette sul mondo, sulle persone, su altri tipi di uso del linguaggio. Credo quindi che si possa definire questa IA un programma subumano: non ha la stessa robustezza e la stessa flessibilità della cognizione umana, ma ci è vicina, anche senza coscienza. Si ipotizza che la coscienza sia emersa spontaneamente, quando si hanno sufficienti inferenze, e si diceva che entro la fine del secolo avremmo creato un software cosciente o, più precisamente, pari all’intelligenza umana. Ora gli esperti dicono: entro la fine del decennio. Il fatto però che sia cosciente o meno potrebbe però diventare irrilevante, perché questi programmi sono così potenti che non è chiaro se abbiano bisogno della coscienza.
A proposito di testi, nel suo libro ci sono molti riferimenti letterari, romanzi recenti che sembrano avere a che fare con l’impensato. In che modo il linguaggio della letteratura – lei lo chiama “molteplicità di risposte incarnate” – in che modo questa molteplicità è coinvolta nel pensare l’impensato?
D’altra parte – e questo tocca un lavoro di cui mi sto occupando ora – che ruolo può svolgere la critica letteraria nella comprensione dei testi prodotti dall’IA? Come si fa a determinare se il sistema è cosciente, come si fa a determinare ciò che il sistema sa? La critica letteraria ha sviluppato un intero repertorio di strumenti per parlare di cose come l’intenzionalità in un testo letterario: come si fa a distinguere tra ciò che un lettore umano proietta su un testo e ciò che è effettivamente presente nel testo. Questo è un problema classico della critica e c’è tutta una serie di strategie che si possono usare per affrontare la questione. Ora abbiamo tutti questi testi, letterari e non, prodotti da macchine altamente cognitive: si apre un nuovo campo di gioco per la critica letteraria, al di là dei testi prodotti dall’uomo.
Esaminando gli assemblaggi cognitivi tra umani e sistemi tecnici cognitivi, si concentra in particolare su quello dei droni. Perché trova l’assemblaggio uomini-droni interessante?
Ciò illumina il fatto che, quando abbiamo a che fare con gli assemblaggi cognitivi, è sbagliato pensare che qualsiasi decisione in un assemblaggio cognitivo sia autonoma. Non lo è, è distribuita. E questo include anche le decisioni umane. Significa che nelle decisioni umane ora troviamo mescolate la percezione umana e quella non umana. Formano una gestalt e il loro funzionamento dipende proprio dal tipo di interfacce presenti, dal tipo di processi in atto, e molte di queste interfacce e processi non sono umani. L’implicazione più profonda di tutto ciò, quindi, è che gli esseri umani, come specie, devono prendere coscienza e sentirsi a proprio agio con l’idea che la loro autonomia, il loro libero arbitrio, la loro capacità di prendere decisioni e persino la loro capacità di interpretare informazioni è ora mescolata a ogni tipo di sistema tecnico. Non sono più agenti liberi in senso stretto.
Sono sicura che si possano trovare posti sulla terra dove si vive in società tribali o molto rurali, senza pc e cellulare, con sistemi tecnici che non sono cognitivi, o profondamente cognitivi come quelli che abbiamo nella società occidentale. Questo fa un’enorme differenza e fa un’enorme differenza nel modo in cui pensiamo a cosa significa essere umani e a cosa significa essere umani nella nostra ecologia presente.
In queste ecologie prendere decisioni è anche una questione di tempo. Per esempio i sistemi cognitivi sempre più rapidi sono impiegati nel trading, negli scambi finanziari. Lei racconta la storia del cavo costruito per collegare il mercato di New York con quello di Chicago: è costato 300 milioni ed è servito a guadagnare soltanto 3 millisecondi nel tempo di comunicazione.
Come molti hanno sottolineato, c’è stato uno spostamento dall’idea di feedback, in cui un sistema riceve un’informazione e poi restituisce un qualche tipo di segnale, a quello che Mark Anderson chiama feedforward, per cui a causa di questa enorme disparità temporale tra uomini e sistemi computazionali, sempre più spesso i sistemi tecnologici non rispondono alle azioni umane, ma le anticipano. Gli esseri umani, con il loro modo così lento, arrivano dopo, ma poiché i sistemi tecnologici sono già lì, per primi, possono trasmettere le informazioni prima ancora che noi possiamo vederle. È ciò che Antoniette Rouvroy ha definito governamentalità algoritmica, cioè l’idea che gli algoritmi stiano determinando il terreno su cui gli esseri umani possono agire tra loro, prendere decisioni e determinare politiche. E questo ha a che fare con l’intrinseco e inevitabile divario temporale tra il ritmo del pensiero umano, anche nonconscio, e la cognizione computazionale che va molto più veloce anche del nostro nonconscio cognitivo, con conseguenze davvero gravi.
Quindi, se pensiamo al trading, la nostra cognizione è diventata ostaggio del capitale?
Non si tratta solo di sfruttare ciò che la tecnologia può fare, ma di decidere cosa la tecnologia deve fare e di subordinare le possibilità tecnologiche a valori umani: cosa sarà bene per la società, cosa per le persone. Tecnicamente questo si chiama “allineamento”. Allineare il funzionamento del sistema tecnologico con i valori umani. Sta diventando un problema spinoso in quanto l’IA diventa sempre più capace. Come assicurarsi dunque che siano i valori umani a determinare la struttura del sistema e non i valori tecnologici in sé? Naturalmente quando si opera in un’economia capitalistica questo è enormemente complesso: le aziende che sviluppano questi programmi di fatti non hanno per forza interessi allineati con i valori umani, perché operano a scopo di lucro e il loro obiettivo principale è il profitto. Si tratta quindi di un enorme problema sociale che tutti noi dobbiamo affrontare.
Perciò, al contrario, pensare l’impensato può divenire politico?
Inoltre, al di là di ciò, la seconda implicazione politica è che offre un modo per pensare a un’ecologia complessa in cui sono coinvolti esseri umani e non umani e sistemi tecnologici. Ci dà un quadro comune con cui pensare ai problemi molto complessi di cui parlavo a proposito di allineamento, per esempio. Ci dà un punto di riferimento per pensare ai sistemi tecnici come non completamente estranei agli esseri umani, ma che condividono con gli esseri umani alcuni tipi di cognizione nonconscia. Dunque l’idea stessa di cognizione nonconscia è un elemento essenziale in questo quadro cognitivo complessivo che determina gli assemblaggi cognitivi. È politica nel senso profondo di fornire un modo per pensare ecologicamente alle macchine, agli esseri umani e alle forme di vita non umane.
In relazione a questo, nel libro parla proprio di un “potenziale utopico”. Immagina una esemplare di Homo sapiens che “desidera sopra ogni altra cosa usare le sue capacità, coscienti e non, per preservare, migliorare e far evolvere un’ecologia cognitiva planetaria che continua a trasformarsi, crescere e fiorire”. Pensare all’impensato può portarci dunque a un nuovo modo di abitare il mondo?
Un argomento collaterale è quello della teoria dei media. Dieci anni fa si diceva i media sono specie-specifici: è ovvio, naturalmente. Ma ci risveglia anche l’idea che anche altre specie hanno modi di comunicare specifici, quando si parla di media. Lo sapevamo, ma in qualche modo non era entrato nella teoria dei media. Abbiamo dato per scontato, senza pensarci, che tutti i media fossero umani. Naturalmente non è vero. Non si può parlare di media diversamente, bisogna dire in caso che si sta parlando di media umani, in un altro, per esempio, di media delle balene.