Il problema con l’apocalitticismo dell’IA
CasaCasa > Blog > Il problema con l’apocalitticismo dell’IA

Il problema con l’apocalitticismo dell’IA

Jul 13, 2023

La paura delle élite nei confronti dell’intelligenza artificiale tradisce una visione degradata dell’umanità.

Un tempo l’intelligenza artificiale (AI) era un argomento distinto e discusso seriamente tra un ristretto gruppo di scienziati informatici. Ma non più. Ora è oggetto di un dibattito pubblico quasi quotidiano e di un mucchio di catastrofi.

Proprio questa settimana, il Center for AI Safety, una ONG con sede a San Francisco, ha pubblicato una dichiarazione sulla sua pagina web affermando che: “Mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale come pandemie e guerra nucleare.' Questa affermazione apocalittica è stata supportata da alcuni dei più grandi nomi che lavorano nel campo dell’intelligenza artificiale, tra cui Sam Altman, amministratore delegato di OpenAI (l’azienda dietro ChatGPT), e Demis Hassabis, amministratore delegato di Google DeepMind.

Non c’è dubbio che l’intelligenza artificiale rappresenti un’importante svolta tecnologica che potrebbe davvero avere un impatto significativo sulle nostre vite. Ma la narrativa predominante che sta emergendo intorno all’intelligenza artificiale va ben oltre. Sopravvaluta enormemente il suo potenziale attuale e trae invariabilmente conclusioni assurdamente distopiche. Di conseguenza, gli assistenti IA non coscienti, da ChatGPT a Google Bard, sono ora considerati potenzialmente capaci di sensibilità e di sviluppare un’intelligenza di gran lunga superiore alla nostra. Si suppone che siano solo a un breve passo dallo sviluppo di un’agenzia indipendente e dall’esercizio del proprio giudizio e della propria volontà.

Alcuni appassionati di intelligenza artificiale si sono permessi di indulgere in voli di fantasia utopici. Affermano che l’intelligenza artificiale potrebbe curare il cancro o risolvere il cambiamento climatico. Ma molti altri, come attesta la dichiarazione del Center for AI Safety, hanno iniziato a speculare sul suo potenziale catastrofico. Affermano che l’intelligenza artificiale si rivolterà contro di noi, i suoi creatori, e diventerà una minaccia reale e mortale per il futuro della civiltà umana.

Credendo che l’intelligenza artificiale svilupperà un proprio senso di agenzia, questi esperti di intelligenza artificiale, insieme a esperti e politici assortiti, si stanno abbandonando a una forma estrema di determinismo tecnologico. Presumono cioè che solo lo sviluppo tecnologico determini lo sviluppo della società.

I deterministi tecnologici hanno capito le cose nel modo sbagliato. La loro narrazione ignora il modo in cui la società può mediare e determinare lo sviluppo tecnologico. Quelle tecnologie che sono fiorite e hanno cambiato la società lo hanno fatto solo perché gli esseri umani le hanno adottate e poi le hanno adattate ai loro bisogni. A loro volta, queste tecnologie, per quanto rudimentali, hanno consentito agli esseri umani non solo di soddisfare i nostri bisogni, ma anche di coltivarne di nuovi. Come scrisse Karl Marx a proposito del bisogno di mangiare: “La fame è fame; ma la fame che si soddisfa con la carne cotta mangiata con coltello e forchetta è diversa dalla fame che divora la carne cruda con l'aiuto delle mani, delle unghie e dei denti.'

La narrativa tecnologicamente deterministica che si è sviluppata attorno all’intelligenza artificiale non si limita a ignorare il modo in cui la società umana media lo sviluppo tecnologico. Si presuppone inoltre che gli esseri umani siano del tutto impotenti di fronte alla potenza delle tecnologie emergenti. Gli allarmisti dell’IA sembrano pensare che la soggettività umana non esista più.

La narrativa apocalittica dell'IA è emersa con incredibile velocità. Alla fine di marzo, 50 scienziati dell’intelligenza artificiale generativa, tra cui figure chiave come il CEO di Twitter Elon Musk, il co-fondatore di Apple Steve Wozniak e ricercatori della società di intelligenza artificiale DeepMind, hanno pubblicato una lettera pubblica attraverso il Future of Life Institute. Hanno chiesto una sospensione temporanea della formazione dei sistemi di intelligenza artificiale, avvertendo che rischiamo di sviluppare e dispiegare “menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – può comprendere, prevedere o controllare in modo affidabile”. Per quanto li riguarda, corriamo il pericolo di creare un’intelligenza artificiale superintelligente che potrebbe potenzialmente rappresentare una minaccia esistenziale per l’umanità.

La loro richiesta di fare qualcosa ha preso slancio all’inizio di maggio quando Altman, insieme agli amministratori delegati di Microsoft, Alphabet (la holding di Google) e Anthropic, si sono incontrati alla Casa Bianca per discutere delle minacce poste dall’intelligenza artificiale con alti funzionari statunitensi. Poi Altman si è presentato davanti al Senato degli Stati Uniti il ​​16 maggio, chiedendo che l’intelligenza artificiale fosse regolamentata. E così è stata impostata la narrazione del giorno del giudizio.