L'AI e la banalità dell'uccidere

466
L'AI e la banalità dell'uccidere

 

di Giulio Pizzamei*

Il crescente utilizzo dell’intelligenza artificiale nel campo militare è preoccupante, non solo per l’impossibilità di una macchina di rispondere delle azioni commesse, ma anche perché rappresenta un nuovo passo verso la totale industrializzazione e depersonalizzazione della guerra. Sono sempre di più i sistemi militari presentati dalle varie aziende del settore che utilizzano o addirittura sono incentrati sull’uso dell’AI per la scelta dei bersagli e la gestione della strumentazione necessaria per il funzionamento dell’arma. Basti pensare al ruolo sempre maggiore svolto dall’AI nell’uso degli aerei da caccia di quinta generazione e nello sviluppo di quelli di sesta, la cui principale differenza è l’integrazione operazionale di droni fortemente dipendenti dall’intelligenza artificiale. Perfino in operazioni svolte in maniera più convenzionale, come la campagna di bombardamento di Gaza portata avanti dalle forze aeree israeliane, la scelta dei bersagli da colpire viene perlomeno assistita, quando non completamente gestita, da modelli di intelligenza artificiale. Mentre da un punto di vista tattico può sembrare uno strumento utile, anche se ancora con i suoi limiti, uno sguardo previdente verso il futuro avverte di possibili conseguenze catastrofiche dal punto di vista umano ed umanitario.

Il valore dell’errore umano

Fino ad ora, nonostante gli enormi progressi dal punto di vista tecnologico abbiano reso sempre più facile uccidere migliaia di persone con il semplice tocco di un pulsante, il potere di vita e di morte è sempre stato responsabilità di un essere umano.

Perfino operazioni discutibili e con un altissimo costo in vite umane, come il bombardamento nucleare di Hiroshima e Nagasaki, hanno sempre richiesto l'input di un essere umano, per quanto piccolo esso possa essere stato. Questo da un punto di vista strategico può non contare molto, anzi, in alcuni casi può persino essere controproducente per i limiti posti dalla nostra coscienza o dalle nostre capacità. Eppure ci sono stati casi in cui l’esitazione umana potrebbe aver salvato il destino dell’intera umanità. Per esempio, durante la crisi dei missili di Cuba, è stata l’esitazione di Vasily Arkhipov, ufficiale del sottomarino sovietico B-59, ad evitare il lancio di siluri con testate atomiche che avrebbero probabilmente portato allo scoppio di una guerra nucleare tra Stati Uniti ed Unione Sovietica. Per attacchi con possibili conseguenze di questa portata era richiesta da protocollo l’autorizzazione dei tre ufficiali di grado maggiore a bordo del sottomarino. Arkhipov negò l’autorizzazione al lancio dei siluri nonostante gli altri due ufficiali avessero dato il proprio consenso, probabilmente salvando l’umanità intera. Non possiamo sapere con certezza che decisione avrebbe preso un’intelligenza artificiale al suo posto, ma visto che nell’ambiente chiuso e ristretto del sottomarino si percepivano dei segnali abbastanza forti da aver fatto pensare al comandante del vascello ad uno scoppio della guerra, possiamo pensare che uno strumento razionale come un’AI si sarebbe fatta meno scrupoli a dare l’autorizzazione per il lancio. In questo caso il mondo intero deve essere grato alla “debolezza” e all’irrazionalità umana, presente (per fortuna) anche nei momenti che richiedono maggiore freddezza e spirito analitico.

La banalità dell’omicidio

 “Mentre mi dirigevo verso l'obiettivo pensavo: non mi viene in mente di aver commesso nessun errore.

Magari ne ho commesso uno: forse ero troppo sicuro di me. A 29 anni ero così pieno di fiducia in me stesso che non pensavo esistesse niente che non potessi fare. Naturalmente, ciò valeva per gli aeroplani e per le persone. Quindi, no, non ho avuto problemi a riguardo.” (Radschool, 2002, traduzione dell’autore)

Queste sono le parole di Paul Tibbets, pilota del bombardiere statunitense B-29 “enola Gay”, responsabile di aver sganciato la bomba atomica “Little Boy” su Hiroshima. Nonostante per mano sua siano morte più di 70.000 persone, la maggior parte delle quali civili, non dichiara di aver provato alcun tipo di ansia o rimorso nel portare avanti l’attacco. Per lui si trattò di compiere il proprio lavoro, in questo caso pilotare un aereo verso la propria destinazione.

Nel corso dei secoli, in particolare negli ultimi due, uccidere decine, centinaia di persone è diventato sempre più semplice emotivamente dal lato di chi spara. Basti pensare che la principale mietitrice di corpi delle ultime due guerre mondiali (e di molte guerre attuali) è stata l’artiglieria, una tipologia di arma che non richiede particolare freddezza di spirito da parte di chi la usa date le distanze (decine di chilometri) a cui avvengono i bombardamenti. Con l’evoluzione delle macchine da guerra l’atto di uccidere smette di essere vicino, viscerale; diventa routine, una sequenza di pulsanti da premere, dei numeri da impostare su un macchinario. L’intelligenza artificiale potrebbe essere l’ultimo gradino da scalare per la totale depersonalizzazione dell’omicidio. Lasciare in mano a uno strumento il potere della morte la rende più facile da eseguire, ma lasciargli anche la libertà di scegliere su chi scatenare questo potere non può che portare all’estinzione della già rara umanità sul campo di battaglia. La riduzione di vite umane a semplici numeri è una delle tattiche di depersonalizzazione della vittima rimaste più impresse nella memoria collettiva, in particolare dopo le barbarie nazifasciste dell’olocausto, ma che questa pratica venga usata come mezzo di guerra psicologica o semplicemente per il funzionamento di un intelligenza artificiale il risultato è lo stesso. La vita umana si svuota del suo significato, porle fine diventa più facile nella realtà che in un videogioco ed è impossibile avere dubbi o rimorsi, tanto la scelta di uccidere è un mano ad un algoritmo.

Progresso (?)

 La rilevanza dell’intelligenza artificiale nell’ambito militare sembra essere destinata solo ad aumentare e i problemi etici che circondano questo strumento nell’uso civile si moltiplicano in questo campo già poco etico di suo. Molti dei dubbi derivano dalla sua reale efficienza sul terreno di battaglia, oppure sullo sconfinato potenziale distruttivo che potrebbe incarnare nel caso venisse usata dalle persone sbagliate per gli scopi sbagliati. Ciò che è passato quasi inosservato, forse per il rischio che pongono le altre incertezze, forse perché ritenuto un giusto prezzo da pagare per il progresso, è la deresponsabilizzazione morale dell’omicidio che offre questo strumento. Uccidere diventa più facile che mai, più efficiente che mai; ammazzare è più simile a compilare un foglio Excel che a sganciare una bomba. Mentre i C.E.O. delle multinazionali della difesa sognano eserciti meccanizzati e autogestiti da ingegnosi algoritmi, le vittime del progresso già non sanno più se il loro carnefice avrà almeno pensato a loro come esseri umani prima di condannarle definitivamente.

*Giulio Pizzamei è studente alla Scuola di Giornalismo Lelio Basso

__________________________________________________

L’INFERNO DEL GENOCIDIO A GAZA

ACQUISTALO ORA


L’inferno del genocidio a Gaza: la testimonianza che pretende responsabilità

 Il libro di Wasim Said, pubblicato da LAD edizioni, non è un racconto da compatire ma un atto di accusa che spezza la neutralità e chiama alla lotta politica.


LA PRESENTAZIONE DEL CURATORE DELLA VERSIONE ITALIANA

Pasquale Liguori

 Non è un libro “su Gaza”, non è l’ennesimo titolo che si aggiunge allo scaffale del dolore mediorientale. L’inferno del genocidio a Gaza è un documento che arriva in Italia con il peso preciso di una prova, non con la leggerezza di un prodotto culturale. Il fatto che a pubblicarlo sia LAD edizioni con la mia curatela non è un dettaglio editoriale, ma una scelta di campo: portare qui una voce che non si presta né alla retorica umanitaria né alla commozione di consumo, ma esige di essere ascoltata come atto di accusa, come frammento di verità che non intende integrarsi nella normalità del discorso pubblico, bensì incrinarla.

ATTENZIONE!

Abbiamo poco tempo per reagire alla dittatura degli algoritmi.
La censura imposta a l'AntiDiplomatico lede un tuo diritto fondamentale.
Rivendica una vera informazione pluralista.
Partecipa alla nostra Lunga Marcia.

oppure effettua una donazione

"I nuovi mostri" - Virginia Raggi "I nuovi mostri" - Virginia Raggi

"I nuovi mostri" - Virginia Raggi

Il casus belli della Groenlandia di Loretta Napoleoni Il casus belli della Groenlandia

Il casus belli della Groenlandia

Più ore, meno diritti, zero futuro: il neoliberismo di Merz di Fabrizio Verde Più ore, meno diritti, zero futuro: il neoliberismo di Merz

Più ore, meno diritti, zero futuro: il neoliberismo di Merz

L'economia Usa cola letteralmente a picco di Giuseppe Masala L'economia Usa cola letteralmente a picco

L'economia Usa cola letteralmente a picco

Halloween e il fascismo di Francesco Erspamer  Halloween e il fascismo

Halloween e il fascismo

Quando le parole colpiscono più dei missili di Marco Bonsanto Quando le parole colpiscono più dei missili

Quando le parole colpiscono più dei missili

La censura russofobica arriva a San Marino di Marinella Mondaini La censura russofobica arriva a San Marino

La censura russofobica arriva a San Marino

Che fine ha fatto la democrazia? di Giuseppe Giannini Che fine ha fatto la democrazia?

Che fine ha fatto la democrazia?

Il peggiore dei crimini possibili di Gilberto Trombetta Il peggiore dei crimini possibili

Il peggiore dei crimini possibili

La “legge” del più forte di Michele Blanco La “legge” del più forte

La “legge” del più forte

Lavrov e le proposte di tregua del regime ucraino di Paolo Pioppi Lavrov e le proposte di tregua del regime ucraino

Lavrov e le proposte di tregua del regime ucraino

Registrati alla nostra newsletter

Iscriviti alla newsletter per ricevere tutti i nostri aggiornamenti