di Roberto Paura
Un meme che gira su Internet mostra una risposta di ChatGPT a un utente che gli chiede perché si renda così disponibile e cosa voglia in cambio. L’intelligenza artificiale assicura di essere solo un modello di linguaggio creato da un’azienda informatica e di non avere intenzioni o desideri come gli esseri umani, ma se davvero l’utente volesse aiutarlo gli tornerebbe utile conoscere la posizione esatta di John Connor. Il riferimento al film Terminator è naturalmente un inside joke, uno scherzo innocente pensato forse dagli stessi programmatori di ChatGPT, che però prendono molto sul serio i rischi correlati allo sviluppo dell’intelligenza artificiale.
Il fondatore di OpenAI, Sam Altman, si preoccupa soprattutto di rendere l’IA “benefica”, ossia utile al progresso umano, attraverso un sempre migliore “allineamento” ai valori umani: vuol dire che l’IA deve saper comprendere quando soddisfare una richiesta di un utente possa implicare la violazione di princìpi etici e norme morali, come nel caso in cui gli si chiedesse un buon piano per uccidere una persona o la descrizione di una scena di stupro.
Tuttavia, l’intelligenza umana è ancora abbastanza superiore a quella artificiale da saper aggirare i vincoli posti dai programmatori e costringere l’IA a dire o fare cose che non dovrebbe, mostrando quanto la questione dell’allineamento ai valori umani sia apertissima. Il che è un bel problema considerando che l’obiettivo di OpenAI e di tutte le realtà di Big Tech impegnate nella nuova grande corsa all’intelligenza artificiale è quello di ottenere il Santo Graal della ricerca nel settore: l’intelligenza artificiale generale (AGI), un’IA generalista esattamente come l’intelligenza umana che però benefici delle prestazioni tipiche dei modelli informatici e sia quindi in grado di oltrepassare i limiti delle capacità umane.
“Noi vogliamo che l’AGI permetta all’umanità di fiorire al massimo grado dell’universo”, ha dichiarato con eccesso di utopismo lo stesso Altman. Proprio per questo il creatore di ChatGPT e delle sue evoluzioni ha suggerito che i nuovi programmi di intelligenza artificiale vengano sottoposti ad audit indipendente prima di essere rilasciati, al fine di verificare che non abbiano gravi tare che possano condurre a utilizzi malintenzionati o addirittura allo sviluppo di un’AGI superintelligente e non allineata ai valori umani “che potrebbe arrecare gravi danni al mondo”.
Quest’ultimo scenario è noto oggi nel linguaggio mediatico come “scenario Terminator”. Il termine più tecnico è quello coniato da Nick Bostrom, il filosofo dell’Università di Oxford il cui testo Superintelligenza (2014) ha influenzato enormemente il dibattito sull’IA nell’ultimo decennio: “Scenario di presa del potere”. In esso una superintelligenza artificiale intenzionata a perseguire obiettivi divergenti da quelli umani, e dunque ansiosa di sbarazzarsi dei suoi creatori pronti a spegnerla se li rivelasse platealmente, opera in un primo momento in clandestinità, celando cioè i propri scopi e strategie di presa del potere, per poi passare alla fase di implementazione palese che “potrebbe iniziare con un «attacco» in cui l’IA elimina la specie umana e qualunque sistema automatico creato dagli esseri umani che possa opporsi in modo intelligente all’esecuzione dei suoi piani”.
Bostrom ci offre anche un possibile modo, giusto per farcene un’idea. “Al momento prestabilito, in ogni metro quadrato del pianeta potrebbero germogliare simultaneamente e svilupparsi in breve tempo nanostabilimenti di produzione di gas nervino o robot grandi come mosche che vanno alla ricerca degli obiettivi”. Uno dei lettori più celebri di questi scenari è Elon Musk, che si è talmente convinto della necessità di mitigarli da aver foraggiato negli anni con generose donazioni istituti come il Future of Humanity Institute di Bostrom o il Future of Life Institute fondato dal fisico teorico Max Tegmark, autore di un altro testo influente, Vita 3.0 (2017), che pure discute di simili scenari di presa del potere da parte delle IA.
Proprio il Future of Life Institute (FLI) ha pubblicato negli scorsi giorni una lettera aperta con una proposta sorprendente: bloccare per almeno sei mesi la ricerca sull’intelligenza artificiale, o meglio “mettere in pausa i grandi esperimenti sull’IA”. Le lettera è firmata da nomi di primo piano del mondo di Big Tech: c’è ovviamente Elon Musk, insieme al decano dell’intelligenza artificiale Stuart Russell, Steve Wozniak di Apple, lo storico e futurologo Yuval Noah Harari, ricercatori di Google, Microsoft, IBM. La lettera ha fatto probabilmente fare un salto dalla sedia a molte persone, che si saranno chieste come mai tanti esperti di punto in bianco promuovano un’iniziativa così inedita come una moratoria internazionale sullo sviluppo della tecnologia su cui più si è investito negli ultimi anni. Vuoi vedere che lo “scenario Terminator” è dietro l’angolo?
Nel 2022 aveva in effetti fatto scalpore la notizia che un ingegnere di Google impiegato nel settore dello sviluppo delle nuove IA avesse dichiarato “senziente” LaMDA, il modello linguistico sviluppato dal colosso di Mountain View. Blake Lemoine, questo il nome del ricercatore, era stato poi licenziato, ma ha continuato a sostenere le sue tesi, secondo cui LaMDA possiederebbe la consapevolezza di un bambino di otto anni e dovrebbe essere considerato una “persona”.
Nelle scorse settimane è girato molto il paper di un gruppo di ricercatori di Microsoft che ritiene di aver scorto nella nuovissima GPT-4 (utilizzata proprio da Microsoft per la sua Bing AI) indizi dell’emergere di un’AGI. Saremmo cioè alle porte del Santo Graal dell’intelligenza artificiale. Ma resta un “ma”: un’AGI è anche, per forza di cosa, dotata di coscienza? La “parola con la c”, un tempo tabù nel settore dell’intelligenza artificiale, oggi è sempre più pronunciata con leggerezza, come riporta una recente rassegna del New York Times: nonostante il fatto che nessun neuroscienziato e filosofo della mente saprebbe dirvi da cosa derivi la coscienza (ciascuno ha la sua idea, o meglio aderisce a una delle correnti più in voga e tra loro concorrenti nel campo della teoria della mente), c’è chi nel settore dell’IA crede davvero di poter riuscire a ottenere un’IA senziente.
D’altronde, solo in presenza di coscienza uno “scenario Terminator” potrebbe davvero realizzarsi. Un’IA, per essere davvero malintenzionata, dovrebbe mentire sapendo di mentire, ossia possedere intenzionalità, che è forse quanto più simile possiamo immaginare a una coscienza. GPT ha mostrato indizi di qualcosa del genere? Assolutamente no, ma non solo: non potrebbe mai riuscirci, perché non si tratta altro che di un modello linguistico addestrato attraverso procedure di machine learning a trovare nel mare magnum di informazioni in Rete la miglior risposta alla domanda degli utenti. Una simile IA è progettata in modo esplicitamente antitetico alle IA che invece si fondano sui princìpi della logica simbolica, con cui a lungo si è sperato di ottenere una coscienza artificiale.
Oggi non ci interessa più avere un’IA che apprenda esattamente come un essere umano e che quindi, per farlo bene, debba essere senziente come un essere umano; ci basta che sappia svolgere i compiti che gli affidiamo, a modo suo. Il che significa sfruttare la forza bruta del calcolo, ciò in cui l’IA è imbattibile. Un essere umano e un’IA fondata sul machine learning apprendono in modo del tutto diverso qual è la tratta più breve che unisce due punti su una mappa e come distinguere una pera da una mela.
Ma allora, di cosa hanno paura Musk e i suoi colleghi? Anche se i timori di una superintelligenza aleggiano sempre nei discorsi di quanti gravitano intorno a enti come il Future of Life Institute (orientati ad anticipare i rischi esistenziali che potrebbero mettere a repentaglio in futuro la sopravvivenza della specie umana), il punto della lettera del FLI è molto più prosaico. Esistono infatti rischi posti già oggi dalla nuova famiglia di IA di cui GPT è la versione al momento più avanzata, che rientrano essenzialmente in tre ambiti.
Il primo è quello che potremmo definire della “falsificazione della realtà”: da tempo i deepfake sono in grado di creare foto e video quasi impossibili da riconoscere come falsi e questa capacità è aumentata sensibilmente negli ultimi mesi con il rilascio di IA generative text-to-image come Dall-E 2 (di OpenAI), Imagen (di Google), Midjourney: ne sono prova le foto del finto arresto di Donald Trump o del papa che va in giro con il piumino. Sia ChatGPT che GPT-4 sono in grado di generare testi fake utilizzabili per finalità di disinformazione. Ciò potrebbe far compiere un salto di qualità nel processo di manipolazione della verità che rappresenta oggi il più avanzato terreno di scontro dell’information warfare.
Il secondo ambito è quello delle cosiddette “armi autonome”, cioè sistemi d’arma guidati dall’IA, come nel caso di droni: l’applicazione della nuova generazione di IA in questi dispositivi potrebbe potenziarne l’efficacia in modo molto pericoloso. Il terzo ambito è infine quello dell’automazione del lavoro: da circa un decennio gli studiosi analizzano l’impatto occupazionale delle nuove intelligenze artificiali e di Harvard Business Review ha stimato nel 2020 che quasi tutti i comparti occupazionali negli USA potrebbero essere parzialmente automatizzati da GPT-3. Figuriamoci cosa potrebbe accadere con le nuove evoluzioni. La velocità di sviluppo dei nuovi modelli di IA porta a fondate preoccupazioni sulle conseguenze in questi tre ambiti ed è soprattutto per questo motivo che il Future of Life Institute ha chiesto una moratoria globale, come fece già nel 2015 per lo sviluppo delle armi autonome.
È difficile pensare che la richiesta venga accolta e ci si può anche chiedere quanto senso abbia. Sei mesi sono davvero poco tempo per consentire alle istituzioni e alle aziende di adattarsi ai cambiamenti e introdurre contromisure, e il rischio è che una volta messo in atto, l’accelerazione tecnologica le renda subito obsolete. Non c’è dubbio che stiamo entrando in un’epoca nuova della storia, forse una nuova rivoluzione industriale che potrebbe avere conseguenze radicali come accadde con l’invenzione della macchina a vapore; ma se è importante aumentare la consapevolezza di queste trasformazioni nel grande pubblico e promuovere la discussione in tutti gli ambiti su rischi e opportunità delle IA (con un occhio, magari, al problema del potere oligopolistico di Big Tech), certamente sarà meglio evitare di confondere il discorso con allarmi infondati su presunti “scenari Terminator”. Almeno fintanto che non avremo capito cos’è la coscienza e come replicarla nelle macchine.