È stato un mese a dir poco intenso per chi segue gli sviluppi dell’intelligenza artificiale. Ci riferiamo ovviamente al clamoroso caso di OpenAI, la società dietro ChatGPT. Il cui CEO, Sam Altman, è stato prima licenziato dal consiglio di amministrazione e, poi, dopo una settimana di convulse trattative, reintegrato insieme a diverse novità nel board. Un piccolo dramma shakespeariano che ci ricorda come, dietro l’AI, si agitino enormi interessi – tra politica, economia, finanza e innovazione. Aiutare i lettori (e anche noi) a districarsi da questo groviglio è una delle ragioni per cui abbiamo fondato ōmega.
Quando lo abbiamo lanciato, vi abbiamo raccontato che tra i motivi che ci hanno spinto a lanciare il progetto c’era anche il fatto che ci pareva che ogni notizia che riguardasse l’AI fosse raccontata con toni eccessivi, un hype che oscillava tra il messianico e l’apocalittico. Del resto “l’AI, oltre l’hype” è proprio lo slogan con cui abbiamo voluto lanciare il progetto, nonché il tema del nostro primo podcast.
Potrebbe quindi sorprendere, o sembra incoerente, il fatto che abbiamo deciso di dedicare il nostro terzo issue proprio all’…Apocalisse.
La realtà è che l’intento di questo numero è provocatorio. Chiamandolo Apocalisse, volevamo sottolineare quanto sia eccessivo – e forse persino funzionale a celare i veri problemi che comporta l’AI – raccontarsi e raccontarci che le AI possano portare l’umanità all’Apocalisse vera e propria (nell’accezione di estinzione della specie). Al contempo, volevamo puntare i riflettori su storie che mostrassero come in realtà esistano impatti dell’AI, molto più concreti e circostanziati, che hanno il potenziale di sconvolgere settori fondamentali (la politica, la scienza, la guerra, la cultura) della vita collettiva.
Questo tema è stato l’oggetto del primo articolo del mese, intitolato proprio Contro la distopia. Dove si legge:
Al momento non ci sono ricerche che provino il fatto che l’AI sia senziente e quindi in grado di decidere autonomamente di sottomettere o sterminare il genere umano. Se l’intelligenza artificiale rappresenta un pericolo per la nostra società, questo è legato alle dinamiche umane che la regolano.
Chiarita la posizione di ōmega in merito, abbiamo proseguito raccontando il fondamentale concetto di “singolarità”, ovvero quello da cui è partito un po’ tutto il filone del racconto apocalittico di questa tecnologia.
Il primo a ipotizzare l’idea della “singolarità tecnologica” fu il matematico ungherese-americano, John von Neumann, uno degli intelletti più complessi e brillanti del Novecento, capace di offrire contributi in campi diversi quanto l’informatica, la quantistica, la metereologia, la genetica.
A proposito di Apocalisse e AI: senza dubbio un momento di grande visibilità per il tema è stata la firma, a marzo, da parte di alcuni imprenditori e scienziati, di una lettera per fermarne lo sviluppo in nome di presunti “rischi esistenziali” per il genere umano. Che cosa è successo da allora? Che fine ha fatto la lettera? E che cosa ci racconta dei suoi firmatari? Ma soprattutto…👇
Per la risposta a questa domanda vi rimandiamo al pezzo. Mentre se vi state chiedendo cosa centrino AI e bombe atomiche, e in che modo il poco sopra citato von Neumann, abbia avuto a che fare con entrambe vi consigliamo di leggere il nostro articolo in merito, ispirato, peraltro, dal bellissimo libro Maniac di Benjam Labatut (in Italia pubblicato da Adelphi).
Per alleggerire un po’ la tensione vi abbiamo quindi proposto una gallery con alcuni tra i migliori (a nostro parere) lavori di finzione a sfondo “apocalisse AI”. Ovviamente partiamo da un grande classico come Terminator ma rispolveriamo anche qualche vecchia gemma cinematografica un po’ dimenticata. Se volete dirci quali sono i vostri preferiti, commentate il post a questo link.
Come preannunciato all’inizio, l’intento di questo numero non era solo quello di mettere in risalto l’assurdità di certi allarmismi ma anche di parlare di quelli che sono, a nostro parere, i risvolti davvero problematici dell’intelligenza artificiale. Per esempio il suo impatto sulla qualità del dibattito nelle democrazie. Tra deepfake sempre meno riconoscibili e manipolazione dell’elettorato, l’AI rischia di sancire…
Gli autentici rischi dell’AI – aldilà della fantasie apocalittiche – di cui abbiamo scritto in questo numero non si fermano qui. C’è anche l’impatto, sempre più profondo e moralmente problematico, che i sistemi sensoriali e di armamento autonomo, già ampiamente dispiegati sul fronte ucraino come a Gaza, stanno avendo sulla guerra moderna. Che cosa accade, ci domandiamo nel nostro articolo, quando affidiamo a una macchina “l’atto di uccidere”?
Altrettanto preoccupante è la questione della produzione di dataset totalmente inventati da usare per inquinare ricerche scientifiche, una forma particolarmente pericolosa di “finzione” che rischia di attaccare in profondità l’epistemologia con effetti catastrofici per la scienza. Come scriviamo nell’articolo.
Lo scenario non è poi dissimile da altri campi della cultura umana. Riuscire a distinguere tra il vero e il falso è una questione che ci accompagna da sempre, ma è stata certamente esacerbata dalla messa in commercio delle AI generative. L’accelerazione della capacità di creare informazioni ingannevoli non è stata finora accompagnata dallo sviluppo di sistemi in grado di neutralizzarla. La funzione di controllo degli umani sull’AI generativa, in questo periodo storico, è di fondamentale importanza.
Di queste e molte altre accezioni del termine Apocalisse – da quelle più concrete a quelle più improbabili – abbiamo scritto in questo mese su ōmega, speriamo di avervi informato, fatto riflette o anche solo fornito uno spunto per approfondire questa o quella questione.
Prima di salutarvi vi ricordiamo, ancora una volta, che ōmega è anche un podcast e che questo mese abbiamo chiacchierato con Luna Bianchi, giurista, Advocacy Officer di Privacy Network e co-fondatrice di Immanence e Claudio Agosti, hacker, ricercatore e fondatore di AI Forensics.
Con loro siamo tornati sul tema dell’impatto dell’AI sui sistemi politici e della necessità di definire regole chiare per il suo utilizzo da parte dei candidati alle elezioni (un tema fondamentale in un anno, il 2024, in cui andranno alle urne più di 2,5 miliardi di persone nel mondo e paesi come Stati Uniti e India).
Prima dei saluti vi annunciamo che l’argomento di dicembre sarà
…
🥁🥁🥁🥁
…
Progresso!
Dopo aver affrontato gli aspetti più ansiogeni degli immaginari apocalittici, veri o presunti, legati alle AI, ci sembrava giusto, anche considerando il periodo natalizio, cercare di guardare al bicchiere mezzo pieno e raccontare quali sono i contributi positivi che davvero possono fornire le AI in molti campi, dalla medicina all’agricoltura.
Non vi sorprenderà sapere che, in molti casi, si tratterà di storie che fanno poco notizia e che, di certo, non alimentano polpettoni giornalistici da dare in pasto a un pubblico affamato di drammi corporate (ogni riferimento a recenti avvenimenti è puramente voluto). Alla prossima!
Ō.