La pericolosa adolescenza dell’Intelligenza Artificiale
di Federico Repetto
Dario Amodei, il manager di Anthropic, una società leader nel settore delle AI, ha di recente pubblicato sul suo sito una specie di articolo-manifesto, intitolato The Adolescence of AI, che agli spettatori di Netflix farà venire in mente la miniserie Adolescence, in cui un ragazzino inglese, chiuso e indecifrabile, è colpevole dell’assassinio (col coltello) di una compagna. Allusivo è anche il titolo del primo capitolo dello scritto, “I’m sorry, Dave”, che è la frase che HAL 9000, l’intelligenza artificiale assassina di Odissea nello spazio, rivolge all’astronauta Dave Bowman.
L’articolo di Amodei è uscito parallelamente all’intervento da lui fatto a Davos per mettere in allerta i grandi della terra e l’opinione pubblica sui gravi rischi per la società umana che ci attendono nei prossimi anni con lo sviluppo di “AI potenti”. Esso è stato anticipato da un’intervista con l’agenzia Axios, che lo riassume enfatizzando l’urgenza dell’allarme e la gravità dei problemi (https://www.axios.com/2026/01/26/anthropic-ai-dario-amodei-humanity).
Che cosa intende Amodei con “AI potenti” - che potrebbero forse essere realizzati tra due-tre anni o poco più? Si tratta di congegni con menti da premi Nobel, capaci ormai di “dimostrare teoremi matematici irrisolti, scrivere romanzi estremamente validi, scrivere basi di codice difficili da zero”, ecc.
<<[Un’AI potente] oltre a essere semplicemente una "cosa intelligente con cui parlare", dispone di tutte le interfacce disponibili a un essere umano che lavora virtualmente, inclusi testo, audio, video, controllo di mouse e tastiera e accesso a Internet. Può intraprendere qualsiasi azione, comunicazione o operazione remota abilitata da questa interfaccia, tra cui intraprendere azioni su Internet, dare o ricevere istruzioni da esseri umani, ordinare materiali, dirigere esperimenti, guardare video, realizzare video e così via. Svolge tutti questi compiti con, ancora una volta, un'abilità che supera quella degli esseri umani più capaci al mondo.>>
Il primo rischio considerato è quello più fantascientifico: la ribellione delle AI all’umanità. Per avanzare questa ipotesi, che sembra a prima vista la meno verosimile, Amodei si riferisce alla sua propria esperienza con l’AI Claude, che in vari casi si è rifiutata di spegnersi, ha ingannato l’operatore o l’ha in qualche modo ricattato. L’autore sostiene che incidenti del genere sono capitati anche ad altri, ma i gestori non li hanno pubblicizzati.
Può sembrare remoto anche il pericolo che l’AI potente possa aiutare squilibrati o gruppi terroristici a costruire devastanti armi basate sulle recenti scoperte biologiche o comunque di natura superspecialistica.
Più terra terra è la previsione che l'intelligenza artificiale possa sconvolgere il 50% dei lavori impiegatizi di livello base nell'arco di 1-5 anni. Egualmente concreta è la preoccupazione per il potenziamento del potere autocratico del Partito Comunista Cinese grazie all’AI (e perciò, nell’immediato, per la vendita indiscriminata di chip alla Cina). Amodei rileva anche i dilemmi che lo sviluppo dell’Ai ci pone:
<<Prendersi il tempo necessario per costruire con cura sistemi di intelligenza artificiale in modo che non minaccino autonomamente l'umanità è in netta contraddizione con la necessità delle nazioni democratiche di rimanere un passo avanti rispetto alle nazioni autoritarie e di non esserne soggiogate. Ma a loro volta, gli stessi strumenti basati sull'intelligenza artificiale, necessari per combattere le autocrazie, possono, se portati troppo oltre, essere rivolti verso l'interno per creare tirannia nei nostri stessi paesi.>>
Senza nominare gli USA, Amodei in vari punti sottolinea che le democrazie sono a rischio. La sua preocupazione è che la plutocrazia diventi autocrazia: “un altro tipo di privazione del potere [dell’umanità] può verificarsi se la concentrazione della ricchezza è così elevata che un piccolo gruppo di persone controlla di fatto le politiche governative con la propria influenza, e i cittadini comuni non hanno alcuna influenza perché privi di leva economica. La democrazia è in definitiva sostenuta dall'idea che la popolazione nel suo insieme sia necessaria per il funzionamento dell'economia.” E cioè non sia estromessa dalla produzione e dal mercato del lavoro. Prosegue: “Se questa leva economica viene meno, il contratto sociale implicito della democrazia potrebbe smettere di funzionare”.
Amodei invoca a questo punto l’intervento del governo nell’economia: <<La risposta politica naturale a un'enorme torta economica, unita a un'elevata disuguaglianza (dovuta alla mancanza di posti di lavoro o a lavori mal pagati, per molti), è la tassazione progressiva. L'imposta potrebbe essere generale o mirata in particolare alle aziende di intelligenza artificiale.>>
Senza mezzi termini, per lui le stesse aziende che producono Ai sono un pericolo potenziale per la democrazia e per l’umanità stessa se non viene regolamentato il settore e se le AI non sono testate e monitorate secondo criteri validi per tutti (peraltro Amodei mette in rilievo i sistemi di controllo che impiega Anthropic).
Conclude dicendo: “Non abbiamo tempo da perdere”.
Per contestualizzare queste affermazioni così pesanti, cerchiamo di chiarire chi è Amodei e che ruolo ha Anthropic.
Amodei esce dalla cultura digitale californiana, avendo studiato a Stanford, e ha lavorato presso la cinese Baidu, Google e OpenAi prima di fondare Antrhopic nel 2021. Nel 2023 il consiglio di amministrazione di OpenAI lo ha invitato a sostituire Sam Altman come amministratore delegato e a fondere le due società. Ha rifiutato (notizie tratte da Wikipedia).
Anthropic “è una Public Benefit Corporation (PBC), il che significa che ha l'obbligo legale di bilanciare il profitto con il beneficio pubblico e la sicurezza dell'IA. Questo rende un'eventuale quotazione [in borsa] più complessa rispetto a una società tradizionale”. Di fatto però essa è anche una società per azioni, e “tra i suoi principali azionisti ci sono colossi già quotati, come Amazon e Google, che hanno investito miliardi di dollari nella società” (notizie tratte da Google AI). Oggi essa è valutata circa 145 miliardi di dollari (secondo Axios) e pare che si stia preparando ad essere quotata in borsa quest’anno. Sempre secondo Google AI e il sito specializzato TechCrunch, Anthropic sta lanciando un particolare tipo di API (Application Programming Interface - Interfaccia di Programmazione delle Applicazioni). Essa “consente a uno sviluppatore o a un'azienda di integrare le capacità di Claude direttamente all'interno delle proprie app o siti web, senza dover costruire un modello da zero”. Anthropic la offre alle grandi aziende; tra l’altro ha una particolare capacità di elaborazione di documenti lunghissimi. “Questa strategia segna il passaggio definitivo di Anthropic da laboratorio di ricerca a fornitore di infrastrutture critiche per il mercato globale” è il commento di Google AI – che possiamo considerare attendibile, visto che appartiene a uno dei proprietari di Anthropic...
Dà un’idea abbastanza chiara di questo passaggio Il Post, che divulga con chiarezza e con continuità gli sviluppi che riguardano le tecnologie digitali. L’articolo Claude Code promette un futuro in cui chiunque si farà i suoi software (https://www.ilpost.it/2026/02/08/claude-code/) ha per oggetto Claude Code, un'applicazione che "parla" con l'API di Anthropic per agire direttamente sui file locali del sito del cliente, e lo ristruttura secondo i suoi desideri, senza richiedergli straordinarie competenze. Tanto è vero che “negli ultimi mesi il software si è diffuso anche tra il pubblico meno specializzato” e ha provocato “forti cali in borsa (fino a circa il 30 per cento)” alle aziende che vendono servizi digitali alle imprese.
Come si vede, Amodei non è un soggetto neutro e innocente, fuori del gioco, e non è strano lo scetticismo sul suo articolo espresso da varie parti sulla base del conflitto di interessi. Comunque cercherò di dare qualche indicazione sul contesto teorico in cui si inserisce questo scritto, che è quello degli informatici californiani libertari. L’autore cita diverse volte un suo articolo dell’ottobre 2024, Machines of Lovable Grace. How AI Could Transform the World for the Better, il cui titolo riprende quello di un libro di ben 400 pagine dello storico della scienza John Christoff, Machines of Loving Grace: The Quest for an Unstoppable AI, Harper & Collins 2015. Me ne sono fatto fare un ampio riassunto da CharGPT, e ho potuto sapere che Christoff vi sostiene l’uso dell’informatica e in particolare dell’AI come augmentation – o potenziamento – dell’intelligenza umana e in genere delle capacità umane, contro il suo uso come automazione, o autonomizzazione della macchina. Egli è profondamente convinto che le tecniche non siano neutrali, ma che possano essere impiegate – o meglio ancora piegate - al servizio di forze sociali e politiche precise.
Il ricorso all’automazione è quello che è tipico dell’impiego capitalistico in cui la si usa essenzialmente per risparmiare lavoro e spese di qualunque tipo e per aumentare il profitto. Serve anche per sorvegliare il lavoro stesso e per monitorarlo al fine della sua razionalizzazione e velocizzazione. Essa serve essenzialmente a sostituire la forza lavoro, limitando le funzioni dell’uomo a processi marginali, che spesso non richiedono particolare intelligenza e abilità (né una buona remunerazione). Inoltre l’automazione, richiedendo grossi capitali iniziali, concentra le aziende, che diventano sempre più grandi, e diminuisce la concorrenza.
Analogamente, il suo impiego nell’industria culturale porterà alla produzione di merci culturali adatte ad un pubblico il più ampio possibile.
C’è infine il suo impiego politico ai fini della sorveglianza e del controllo dei comportamenti, della comunicazione e delle opinioni, e il suo uso militare. Il suo sviluppo serve a rafforzare le autocrazie e costituisce una minaccia per la democrazia.
Come si vede, per questa tradizione culturale l’automazione pura funziona bene al servizio di forze e sociali e politiche che mirano a diminuire la concorrenza, l’occupazione qualificata, il pluralismo e la democrazia.
Per augmentazione si intende una serie di tecniche digitali che fanno partecipare il lavoratore al processo produttivo e che lo aiutano a sviluppare le sue capacità. Sono importanti anche quelle che aiutano nell’apprendimento, seguendo passo passo lo studente, e quelle che nell’informazione si pongono al servizio della collettività rendendo accessibili e comprensibili le notizie di pubblico interesse.
Markoff elabora una vera utopia dell’augmentazione, e intravvede nell’eventuale dominio dell’automazione la minaccia di un futuro distopico. L’intervento dello Stato per lui è necessario per regolare il mercato e dettare norme precise dell’uso delle tecniche, e soprattutto per intervenire nel mercato della forza lavoro e nella formazione ai fini della riconversione di essa, perché comunque l’accelerazione continua dei processi economici, dovuta allo sviluppo cumulativo della tecnica, richiede un monitoraggio ed una correzione continui. Markoff inoltre è chiaramente convinto che lo welfare sia indispensabile al mantenimento della democrazia, messa in questione dagli shock economici e sociali provocati dall’accelerazione dello sviluppo. Egli, facendo la storia delle teorie dell’augmentazione e dell’automazione nella cultura digitale californiana, mette in guardia dai rischi della deriva del libertarismo solidale e cooperativo delle origini verso il neoliberismo puro.
Amodei si riallaccia a questo filone dell’augmentazione e alla visione di welfare socialdemocratico di Markoff e di gran parte dei californiani delle origini. Ma i californiani vincenti erano tutti in prima fila all’incoronazione di Trump. Non solo, ma Musk non è mai stato un vero californiano, e nemmeno Peter Thiel, - il manager di Pallantir, l’AI specializzata in spionaggio, al servizio dei bombardamenti israeliani a Gaza.
Che prospettive ha il messaggio di Amodei? È stato scritto dopo gli ultimi sondaggi che danno Trump in difficoltà per il mid-term? O vuole proprio rafforzare il voto antitrump? Al netto delle sue possibili esagerazioni, noi che prospettive abbiamo? Intanto bisognerebbe almeno che i nostri partiti d’opposizione prendessero atto di questo messaggio.
Infine, voglio ricordare qualche importante conseguenza che la diffusione delle AI ha già avuto. La pura e semplice prospettiva di un loro sviluppo ha già influito sul potere economico dei settori impiegatizi più a rischio. Vari amici mi dicono che per ottenere un mutuo a dieci anni diverse categorie di lavoratori incontrano già adesso difficoltà – o anche un semplice rifiuto – sulla base dei rischi previsti per il loro impiego.
Sono gravi anche le conseguenze già in atto nell’istruzione scolastica, in cui l’uso sistematico dell’AI induce ad una riduzione dello sforzo nell’elaborazione dei testi, nell’organizzazione delle ricerche e nello sforzo logico. Questo problema è oggi segnalato comunemente da insegnanti e da psicologi e si inserisce in un filone di sostituzione dell’attività di studio con il ricorso a prodotti già pronti, stimolato da Internet. Esso si inserisce nella tendenza storica all’indebolimento delle capacità intellettuali e critiche del pubblico, già da tempo segnalato da più parti. Avrà verosimilmente conseguenze sulla ricezione futura delle AI da parte del pubblico meno preparato. In prospettiva, è lo stesso Amodei che segnala la loro straordinaria capacità di manipolazione. Non dobbiamo aspettare il momento in cui diventeranno “potenti” per avvertire i cittadini.

1.gif)
