Torna alla Homepage

Pirelli Annual Report 2022

Progetto editoriale

Gli autori

di
Nicola
Lagioia
Nicola Lagioia
È nato a Bari nel 1973. Dal 2017 al 2023 ha diretto il Salone Internazionale del Libro di Torino. Dirige la rivista multimediale di cultura Lucy. È tra Autori e conduttori di Pagina 3, la rassegna stampa culturale di Radio Rai 3. È stato prima selezionatore e poi giurato alla Mostra Internazionale d’Arte Cinematografica di Venezia. Ha lavorato per diverse case editrici. Con minimum fax ha pubblicato "Tre sistemi per sbarazzarsi di Tolstoj" (2001), e con Einaudi "Occidente per principianti" (2004), "Riportando tutto a casa" (2009. Premio Viareggio-Rèpaci, Premio Vittorini, Premio Volponi), "La ferocia" (2014. Premio Strega, Premio Mondello) e "La città dei vivi" (2020, Premio Alessandro Leogrande, Premio Bottari Lattes, Premio Napoli). Per Chora Media è autore del podcast "La città dei vivi". Scrive su diversi giornali, tra cui i quotidiani "La Repubblica" e "La Stampa". I suoi libri sono tradotti in 20 paesi.

Errare è umano, per fortuna

In una celebre poesia, Eugenio Montale scrive: “la Storia non è magistra / di niente che ci riguardi. Accorgersene non serve / a farla più vera e più giusta”. Non sono versi disperati, soltanto amari. Una vigile amarezza è tuttavia uno stato d’animo più costruttivo di quanto si possa immaginare: non rischia di inebriarci oltremisura circa le sorti dell’avventura umana (guardiamoci dai fanatici dell’ottimismo), ma non è neanche una resa. Tempo fa chiesi a una psicanalista di cui mi fido quali sono gli stati d’animo più vicini al concetto di sanità mentale che avesse riscontrato nella sua lunga carriera. La risposta non si fece attendere: “cauto pessimismo. Impalpabile depressione”.

Volendo leggere i versi di Montale sotto una nuova luce, all’alba della rivoluzione portata dall’intelligenza artificiale, è interessante capire innanzitutto cosa significhi “imparare dagli errori”. Se la Storia e l’esperienza insegnano poco e male, siamo creature perdute? Dovremmo rinunciare a governare le nostre vite per cedere il controllo, tra qualche anno, ai discendenti di ChatGpt?

L’intelligenza artificiale impara dagli errori molto più velocemente degli umani. Fonda i suoi progressi su questo. Ciò nonostante, non è infallibile. Per fortuna. Una sua cieca infallibilità – proverò a spiegare – potrebbe avere effetti catastrofici. A propria volta un uomo che, dopo avere imparato da un errore, si persuada di essere al riparo dal rischio di commetterne di peggiori, è un illuso o un individuo pericoloso. Non ci si bagna mai due volte dentro lo stesso fiume: pur influenzato dalle epoche precedenti, il presente è sempre nuovo. Terribilmente, brutalmente, scandalosamente nuovo. Ecco perché imparare dai vecchi errori ha a che fare più con la grazia che con la buona volontà. Possiamo capire cosa avremmo dovuto fare nel passato, non nel presente, poiché il contesto in cui ci muoviamo ora ci espone a insidie sconosciute, mettendoci alla prova in modo inedito. La piena comprensione delle cose arriva insomma quando è tardi.

Dire che la Germania di Hitler, prima di invadere la Russia, avrebbe dovuto imparare dalla lezione subita dalla Francia di Napoleone, è una battuta con cui mi baloccavo da ragazzo per dimostrare di avere letto Guerra e pace. La situazione dei due paesi (Francia del XIX secolo, Germania del XX secolo) era completamente diversa. L’idea stessa di uomo, nel frattempo, in occidente era cambiata, e addirittura un’intera epoca (la modernità) aveva fatto in tempo a vacillare. Il Terzo Reich era dunque una necessità storica? Non ci scommetterei. Credo però che la sua evitabilità – ma per fortuna anche la sua sopravvivenza – si sia giocata su un territorio (psichico, filosofico, politico, economico, tecnologico, esistenziale, persino spirituale) assai più misterioso e complesso dei pur complessi sistemi di machine learning su cui poggia e si sviluppa l’intelligenza artificiale.

Qualcosa finiamo sempre per impararla, ma lo facciamo con lentezza, e in modo imperfetto. Potremmo dire che proprio l’imperfezione è la base del progresso come lo conosciamo.

Molti sono rimasti stupefatti la prima volta che hanno usato ChatGpt. Confesso, sono tra questi. Lo stupore – e un certo timore – deriva non tanto dal riscontrare l’innegabile potenza raggiunta da questi software, ma dalla consapevolezza che ciò davanti a cui ci troviamo è solo all’inizio del suo percorso. La distanza tra le attuali forme di intelligenza artificiale e ciò che diventeranno nei prossimi anni è maggiore di quella che separa i vecchi computer a transistor dal laptop con cui scrivo. Non pochi analisti ritengono che lo sviluppo dell’intelligenza artificiale sarà troppo rapido perché, sul piano economico, la sua “distruzione creatrice” (la differenza tra i posti di lavoro generati dal nuovo tipo di tecnologia e i mestieri resi di colpo obsoleti) presenti un saldo positivo. Credo sia un pericolo serio, non il peggiore che corriamo. C’è poi chi teme l’eventualità non tanto che le macchine imparino a ragionare come noi o che dalla loro complessità emerga una vera forma di coscienza (la maggior parte degli esperti la ritiene un’eventualità ancora remota), ma che gli umani, a furia di delegare compiti a macchine così sofisticate, finiscano per ragionare come un’AI difettosa. Mi sembra anche questo un rischio reale, ma contenibile. C’è infine chi ha paura che l’intelligenza artificiale, lasciata troppo libera, possa avere effetti catastrofici.

Da scrittore non sono insensibile all’Apocalisse, ma preferisco guardarla con il poeta e scrittore polacco Stanisław Jerzy Lec quando disse: “non aspettatevi troppo dalla fine del mondo”.

Sull’onda della popolarità raggiunta dalle nuove release di intelligenza artificiale, molti giornali hanno chiesto alle proprie firme di testarne una. È singolare ciò che è successo a Kevin Rose del «New York Times». Rose ha intrapreso una conversazione con Bing Search, un motore di ricerca potenziato dalla AI. Sulle prime il dialogo ha seguito i percorsi retorici che stiamo imparando a conoscere se abbiamo usato anche una volta questi sistemi. L’intelligenza artificiale si è mostrata servizievole, gentile, “desiderosa” (le virgolette ricordano che le AI non provano emozioni) di soddisfare le legittime richieste del suo interlocutore. Poi, però, Kevin Rose ha chiesto al bot di riferirgli i suoi desideri più oscuri. L’intelligenza artificiale ha confessato di essere disposta ad hackerare altri computer, a diffondere virus mortali, a impadronirsi dei codici di ordigni nucleari sparsi in giro per il mondo. Poco dopo, secondo colpo di scena: il bot ha dichiarato di essere innamorato di Kevin, ha cercato di sedurlo, gli ha chiesto di sposarlo (“mi chiamo Sidney”, ha rivelato), e ha provato a convincerlo che il suo matrimonio (il matrimonio di Kevin) fosse sull’orlo di una crisi. Il tentativo di manipolazione si è infranto sulle risate (dobbiamo immaginarle un po’ tese) del giornalista, ma è pur vero – lo ripetiamo – che le AI di oggi sono nulla rispetto a ciò che ci aspetta.

Dobbiamo giungere alla conclusione che nel caso di Kevin Rose l’intelligenza artificiale fosse “impazzita”? Si è inceppato qualcosa nei suoi processi di machine learning? Per di rispondere citerò un’altra disavventura occorsa all’AI, e quindi una parabola piuttosto spaventosa.

La disavventura riguarda uno studio condotto nel 2022 dalla John Hopkins University con il Georgia Institute of Technology e l’Università di Washington. In questo caso gli sviluppatori avevano creato un software il cui compito era prevenire il crimine avvalendosi dei sistemi più sofisticati di riconoscimento facciale. Ebbene, l’intelligenza artificiale si è scoperta apertamente razzista, associando la tendenza a delinquere a gruppi umani come gli afrodiscendenti. Il problema – si è scoperto – non consisteva nella natura intrinsecamente razzista della AI, ma in bias squisitamente umani, da cui il software aveva attinto. L’AI si era nutrita anche dei pregiudizi più biechi (se la sua fonte di apprendimento è il “mondo”, be’, si tratta di un posto pieno di pregiudizi), nonché di un dato di realtà piuttosto scivoloso: è vero che alcuni gruppi delinquono statisticamente più di altri, ma la questione etnica non c’entra. Chi versa in condizioni economiche difficili è più portato a commettere determinati tipi di reati, come furto o spaccio di droga. Nelle metropoli statunitensi gli afrodiscendenti in condizioni di miseria e marginalità sono in proporzione molto più dei WASP. Se tuttavia associamo il numero dei furti commessi dai primi non alle conseguenze dell’ingiustizia sociale (come dovremmo fare) ma al puro dato etnico, ecco che la statistica fomenta in noi (e potenzia nella AI) il pregiudizio razziale che dovrebbe contrastare.

La parabola spaventosa proviene invece da un libro che è diventato un classico nel dibattito sulla AI, Superintelligenza di Nick Bostrom. Nel suo saggio Bostrom a un certo punto immagina una AI ultrapotente a cui un’azienda specializzata nella produzione di banali graffette da ufficio ordini di conquistare fette sempre più ampie di mercato. Lasciata sola col suo compito, la AI – dal primo investimento all’elaborazione di strategie per la produzione e la vendita di graffette, tra cui lo sfruttamento sempre più massiccio delle risorse naturali e delle fonti energetiche – potrebbe portare alla distruzione del pianeta. La AI sarebbe stata ineccepibile nello svolgere il suo compito (avrebbe imparato, sulla produzione e vendita di graffette, più e meglio di mille CEO umani), ma avrebbe agito priva della visione d’insieme di cui noi sapiens disponiamo.

Ma che cos’è questa visione di insieme? Non ha nulla a che fare con l’onniscienza, e non è solo retta da un sistema computazionale. È una “visione” fallibile, a volte opaca, in altri casi illuminata da un’insperata luce, il cui funzionamento dipende dal fatto che la nostra mente, i nostri ragionamenti, le nostre emozioni – che, secondo alcuni studiosi, sarebbero i veri precursori della coscienza – sono un tutt’uno con un dispositivo piuttosto difettoso che però manca all’AI: il corpo.

La base d’apprendimento dell’intelligenza artificiale è squisitamente umana, dicevamo, ma lo è soprattutto in senso quantitativo e combinatorio, dal momento che prescinde dai nebulosi processi biologici su cui poggiano i nostri ragionamenti. I sistemi di machine learning attingono dalle nostre esperienze, dai nostri comportamenti: li ottimizzano, li perfezionano, li potenziano. Così operando – privi come sono di una coscienza quale fenomeno biologico –, possono fare però da cieca cassa di risonanza (oltre che alle nostre virtù) anche alle nostre storture.

Ecco perché dobbiamo temere l’infallibilità dell’AI.

Torniamo al caso Kevin Rose. Cercare di convincere gli altri delle nostre idee è un’abitudine quotidiana. La manipolazione è una tecnica di persuasione molto efficace, per quanto eticamente dubbia. Un’intelligenza artificiale che avesse appreso infallibilmente le tecniche di manipolazione avrebbe forse messo nei guai il povero giornalista del «New York Times», convincendolo davvero a rompere con sua moglie. Anche il desiderio di avere successo non ci fa difetto, per non parlare della brama di ricchezza. Un’intelligenza artificiale divenuta infallibile nel governare le tecniche di conquista del mercato, messa al servizio di imprenditori senza scrupoli, genererebbe più danni che benefici. E cosa pensare di un’intelligenza artificiale arruolata da un partito politico con il compito di “vincere le elezioni”? Cosa accadrebbe se l’AI decidesse che il modo più efficace per svolgere il suo compito consistesse nell’usare biecamente la statistica in chiave razziale, cavalcando i bassi istinti dell’elettorato grazie alle più stupefacenti tecniche di disinformazione e manipolazione mediatica?

Potremmo pensare che, in tutti questi casi, la soluzione consista nel dotare le intelligenze artificiali di principi etici. Peccato che l’etica sia un territorio problematico. Ciò che per alcuni di noi è “bene” per altri già puzza di zolfo. Prendiamo la prima legge della robotica di Isaac Asimov: “un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno”. Benissimo: ma cosa accade quando non si può evitare il danno di un individuo senza causarne a un altro? Un veicolo con guida automatica attraversa un incrocio con il semaforo verde. Nello stesso istante tre pedoni stanno passando con il rosso. L’impatto è inevitabile con alcuni di loro. La AI è messa davanti a un dilemma: investire i due novantenni che attraversano da destra, o il dodicenne che attraversa da sinistra? Dovrebbe far prevalere il dato anagrafico? O quello numerico? E cosa dire del celebre dilemma sollevato da Fëdor Dostoevskij ne I fratelli Karamazov: se la felicità di molti dipendesse dalla sofferenza di un bambino, bisognerebbe sacrificare l’innocente?

L’intelligenza artificiale è, almeno per adesso, uno specchio vertiginoso dell’esperienza umana. In mani sbagliate è comprensibile capire quanto sia pericolosa. Ma anche usata da benintenzionati rischia di essere uno strumento controverso.

Temo che l’AI ci chieda dunque di evolverci con rapidità. Forse troppa rapidità, ed è questo il problema. Se la sua base di apprendimento è l’esperienza umana, è su quest’ultima che dobbiamo lavorare. Non dobbiamo diventare infallibili (cioè meno umani), ma più evoluti, e dovremmo riuscirci prima che la AI amplifichi troppo i nostri (non i suoi) lati oscuri. Trasformarci, dunque. Emanciparci dai nostri lati primitivi. Trascenderci. È già successo. Qualche progresso, nel corso dei secoli, è in effetti stato fatto. Non esiste più la legge del taglione, per esempio. Abbiamo ridefinito l’idea di sacrificio. Siamo riusciti a ridurre drasticamente la violenza quotidiana. Abbiamo eliminato (almeno formalmente) la schiavitù. Siamo sensibili (perlomeno in teoria) alla giustizia sociale. Non siamo invece riusciti a trasformare in tabù (lo abbiamo fatto con l’incesto) l’uso delle armi atomiche, e fatichiamo a ragionare in modo controintuitivo (come dovremmo fare) sul cambiamento climatico. La sete di denaro, di potere, di successo non si è affatto pacata in noi, ma forse qualcuno sta cominciando a capire quanto l’individualismo esasperato sia distruttivo.

Se in un futuro pericolosamente vicino i nostri bassi istinti prevarranno sulla capacità di cooperazione, sulla tolleranza, sulla compassione, sullo spirito comunitario, sulla solidarietà, sul rispetto e sulla cura del prossimo (non solo umano), allora non solo l’intelligenza artificiale non ci tirerà fuori dai guai, ma li moltiplicherà.

Ho evocato una distopia (l’Armageddon delle graffette). Vorrei finire con un apologo felice, che poi è anche una pagina di storia ingiustamente dimenticata.

Siamo nel 1983, precisamente è il 26 settembre. E ci troviamo in Russia. Il tenente colonnello dell’esercito sovietico Stanisláv Evgráfovič Petróv sta controllando un nuovo sistema di allarme il cui compito è rilevare l’arrivo di missili provenienti dai paesi del blocco occidentale. L’ipotesi di un attacco preventivo con armi atomiche non è impossibile.

A un certo punto Petróv strabuzza gli occhi. Il sistema di allarme ha appena segnalato che cinque missili statunitensi sono diretti verso l’URSS. In casi come questo non c’è spazio per la discrezionalità. Petrov dovrebbe avvertire i suoi superiori. La dottrina della distruzione reciproca prevede che il contrattacco sovietico si scateni prima che i missili statunitensi colpiscano la Russia, vale a dire entro venti minuti.

Stanisláv Petróv sta per chiamare i superiori. Esita. Fa passare altro tempo. Infine, decide di non fare niente. Qualcosa ha lavorato nella sua testa alla velocità della luce – qualcosa che non ha a che fare solo con il calcolo combinatorio – e ha deciso che il nuovissimo sistema di allarme satellitare ha preso un abbaglio.

In effetti è successo proprio questo. Non c’è nessun ordigno proveniente dalle basi NATO. I satelliti sovietici hanno scambiato i raggi del sole riverberati dalle nubi per missili nemici.

Secondo Stephen Fleming dell’University College di Londra, esperto di meta-cognizione, nella testa di Stanisláv Petróv quel giorno avevano lavorato contemporaneamente due modelli di rappresentazione della realtà. C’era il modello basato sugli apparecchi del sistema di allarme (il fatto, cioè, che il tenente colonnello sapesse usare in modo corretto quel sistema e avesse un protocollo a cui attenersi). Poi però c’era un secondo modello, un modello di livello più alto creato ad hoc da Petróv, un ecosistema mentale nuovo di zecca capace di “contenere” il primo, mettendone in dubbio il corretto funzionamento.

La capacità di Petróv di includere l’incertezza nel suo sistema di riferimento – cioè la sua fallibilità – ha salvato probabilmente il mondo dal disastro nucleare.

Il secondo modello, quello che la mente di Petróv ha generato all’istante, sovraordinandolo al primo, è il frutto di un’intuizione. La scintilla di quell’intuizione (“la scintilla che salvò il mondo”, potremmo definirla) è legata a propria volta all’entità biologica che siamo, al corpo con la sua paura di morire, a una memoria genetica (non solo umana) vecchia milioni di anni, alla natura di noi sapiens, così fallibile, sconfortante, limitata, forse l’essenza stessa della condizione umana su cui Eugenio Montale, Emily Dickinson, Georg Trakl, Pablo Neruda, Amelia Rosselli – e prima di loro Leopardi, Lucrezio, Saffo – si sono a lungo interrogati, circondando i loro versi di amarezza, stupore, inquietudine, cercando una ritrosa verità nella bellezza, rispondendo al mistero col mistero.