Guerra robotica e controllo digitale
Immagine generata con AI, La guerra moderna tra tecnologia e responsabilità umana

La guerra senza volto. Di chi è la responsabilità nell’era delle macchine?

Dai droni ucraini allo scontro fra il Governo americano e Anthropic, l’Intelligenza Artificiale entra negli arsenali militari. Ma se le decisioni passano agli algoritmi, chi risponderà delle conseguenze?
Leggi l'articolo

Nell’Iliade Achille trascina il corpo di Ettore attorno alle mura di Troia. È un gesto di furia e disumanità. Ma quando il vecchio Priamo entra nella sua tenda e gli chiede il corpo del figlio, l’eroe si ferma. Lo guarda, ascolta la sua supplica e restituisce il cadavere. Achille riconosce il dolore dell’avversario e si assume la responsabilità, morale e politica, del proprio gesto.

In questa scena si trova una delle radici più antiche del modo in cui la cultura occidentale ha pensato la guerra: un’esperienza brutale e tragica, ma profondamente umana, in cui chi uccide resta esposto allo sguardo di chi subisce la violenza. A questo nucleo originario si aggiungerà, secoli dopo, la riflessione cristiana inaugurata da Sant’Agostino sulla possibilità di una guerra “giusta”. La modernità ha progressivamente eroso questa dimensione personale e tragica del conflitto. La guerra si è trasformata in una macchina di distruzione sempre più impersonale, capace di colpire intere popolazioni senza che chi agisce debba più confrontarsi direttamente con le conseguenze del proprio gesto.

I conflitti degli ultimi anni hanno mostrato una crescente dipendenza da sistemi senza pilota. In Ucraina i droni vengono utilizzati quotidianamente per ricognizione, guida dell’artiglieria e attacchi diretti. Anche in Medio Oriente questa tecnologia ha assunto un ruolo centrale nelle operazioni militari, dalla sorveglianza ai bombardamenti mirati. Il combattimento contemporaneo si svolge sempre più spesso attraverso sensori, algoritmi e piattaforme remote. La corsa agli armamenti cui assistiamo è, di fatto, una corsa all’Intelligenza Artificiale.

L’IA, una tecnologia militare

Negli Stati Uniti si è aperto uno scontro politico e tecnologico sull’uso militare dell’IA che coinvolge il Governo federale e alcune delle principali aziende del settore. Al centro della disputa ci sono due società nate entrambe nello stesso ambiente della Silicon Valley: Anthropic e OpenAI.

Il conflitto è esploso quando il Dipartimento della Difesa ha chiesto ad Anthropic di consentire l’uso della propria tecnologia senza limitazioni per “tutti gli impieghi leciti” in ambito militare. L’azienda, fondata da ex ricercatori di OpenAI e sviluppatrice del modello linguistico Claude, ha rifiutato di rimuovere alcune restrizioni etiche integrate nei suoi sistemi. In particolare ha indicato due linee rosse: l’utilizzo dell’Intelligenza Artificiale per la sorveglianza di massa, anche all’interno degli Stati Uniti, e per sistemi d’arma autonomi capaci di colpire senza una decisione umana diretta.

Il rifiuto ha provocato una rottura con l’amministrazione federale. Il Pentagono ha minacciato la cancellazione di contratti per circa 200 milioni di dollari e ha poi classificato l’azienda come possibile “rischio”, una misura che può impedire ai fornitori della difesa di collaborare con essa. Il presidente Donald Trump ha attaccato pubblicamente Anthropic, accusando i dirigenti della società di mettere in pericolo la sicurezza nazionale e definendoli “estremisti di sinistra”.

Poche ore dopo il fallimento delle trattative con Anthropic, il Pentagono ha raggiunto un accordo con OpenAI per l’utilizzo delle sue tecnologie in sistemi militari e reti classificate. L’azienda guidata da Sam Altman ha dichiarato che il contratto prevede principi che escludono formalmente l’uso dell’Intelligenza Artificiale per armi autonome o per la sorveglianza di massa. Altman ha tuttavia ammesso che, una volta firmati i contratti, l’azienda non può controllare direttamente come il Governo utilizzi questi strumenti nelle operazioni militari.

Per la prima volta la questione non riguarda soltanto lo sviluppo dell’Intelligenza Artificiale, ma chi debba stabilire i limiti del suo impiego nella guerra e nella sorveglianza statale. Alcuni temono che la corsa alla militarizzazione dell’IA possa spingere le aziende ad abbassare le proprie garanzie etiche pur di ottenere contratti pubblici. Altri sostengono invece che le decisioni in materia di sicurezza nazionale debbano restare prerogativa dello Stato.

La disputa tra aziende private e Governo, nata da un contratto tecnologico, diventa così qualcosa di più di una controversia industriale. Apre scenari e interrogativi difficili sul futuro che ci attende. Fino a che punto una macchina può assistere, o addirittura sostituire, l’intervento umano nell’identificazione di un obiettivo militare e nella gestione di un attacco? Nell’immediato emergono questioni etiche evidenti. In caso di crimini di guerra, chi ne sarebbe responsabile? Ma si profilano anche problemi sociali e politici più profondi, che oggi possiamo soltanto intravedere.

La guerra ridotta a procedura

L’idea di una guerra combattuta dalle macchine non nasce oggi. Nel 1920 lo scrittore ceco Karel Čapek pubblicò R.U.R. (Rossum’s Universal Robots), il dramma che introduce per la prima volta la parola “robot”. Nel testo gli automi sono creati per sostituire gli uomini nel lavoro, ma finiscono per prenderne il posto in ogni ambito, fino a ribellarsi ai loro creatori. Non si tratta ancora di armi autonome, ma l’intuizione è già presente: la tecnologia tende a sottrarre all’uomo la responsabilità diretta delle proprie azioni.

La guerra del Novecento ha accelerato questo processo. Il bombardiere strategico, il missile balistico, la bomba atomica hanno trasformato la violenza in un atto sempre più distante da chi la compie. L’atto materiale della distruzione viene delegato a una macchina. Il soldato non vede la vittima. Spesso non la immagina nemmeno.

Il drone rappresenta l’ultima tappa di questa evoluzione. Il combattimento avviene attraverso schermi, sensori e algoritmi. L’operatore può trovarsi a migliaia di chilometri dal luogo dell’attacco. L’azione militare diventa un gesto tecnico: identificare un bersaglio, autorizzare l’operazione, premere un pulsante. La guerra non diventa più astratta. Diventa più impersonale. La guerra entra così nel regime del lavoro d’ufficio. Un turno davanti a uno schermo può produrre, a migliaia di chilometri di distanza, una scena di distruzione che chi l’ha autorizzata non vedrà mai.

La distanza non riduce la violenza, ne attenua soltanto la percezione immediata, rendendola più facile da esercitare. La distruzione resta reale, ma la catena delle responsabilità si disperde tra programmatori, operatori, analisti e comandanti. Quando la decisione passa attraverso una rete di sistemi automatici, stabilire chi abbia davvero agito diventa sempre più difficile.

È un fenomeno che il filosofo Günther Anders aveva già intravisto negli anni Cinquanta parlando dell’“obsolescenza dell’uomo”, diventato “più piccolo dei prodotti che fabbrica”. Le tecnologie moderne permettono di produrre effetti enormi senza che chi agisce sia costretto a confrontarsi direttamente con le conseguenze. La potenza tecnica cresce più rapidamente della nostra capacità morale di comprenderla.
Politicamente questo non fa che radicalizzare ciò che Hannah Arendt osservava nella Banalità del male: la violenza moderna, dai campi di concentramento in poi, tende a trasformarsi in un fatto amministrativo, non di sangue, ma di carta. Quando l’azione è mediata da apparati tecnici e burocratici, chi agisce perde il rapporto diretto tra il proprio gesto e le sue conseguenze.

Una questione politica

La questione va, quindi, ben oltre la guerra e il falso dilemma di combatterla in modo “etico” o persino “giusto”. Va oltre anche il piano puramente tecnico. La storia mostra che la guerra accelera l’innovazione e che l’innovazione, a sua volta, trasforma la società. La radio e il radar sviluppati durante la Seconda Guerra Mondiale hanno aperto la strada alla televisione e alle telecomunicazioni moderne. Internet nasce da un progetto militare americano. Anche la rete satellitare, i sistemi di navigazione e molte tecnologie digitali hanno origini simili.

L’Intelligenza Artificiale non farà eccezione. Le stesse tecnologie, che permettono di identificare un bersaglio sul campo di battaglia, possono essere utilizzate per analizzare enormi quantità di dati, riconoscere volti, tracciare movimenti, prevedere comportamenti. Ciò che nasce per scopi militari diventa immancabilmente uno strumento di gestione sociale.

Il Novecento ha costruito le proprie istituzioni democratiche in un mondo in cui il controllo dello Stato aveva limiti materiali evidenti. Sorvegliare milioni di persone era difficile, costoso, spesso impossibile. Le nuove tecnologie riducono drasticamente questi limiti. La possibilità di raccogliere, analizzare e incrociare dati su scala massiva apre scenari che i teorici della politica del secolo scorso non avevano previsto.

Michel Foucault descriveva la modernità come una società disciplinare, organizzata attorno a istituzioni che osservano e regolano i comportamenti. Con l’Intelligenza Artificiale questa logica potrebbe diventare ancora più capillare. Non solo controllo, ma gestione preventiva dei comportamenti. Per questo il dibattito sull’Intelligenza Artificiale militare non riguarda soltanto la sicurezza o l’innovazione tecnologica. Riguarda il tipo di società che si sta formando.

Ogni rivoluzione tecnica ha modificato il modo in cui gli uomini vivono, lavorano e si organizzano politicamente. La stampa ha trasformato l’Europa moderna. La radio e la televisione hanno plasmato la politica del Novecento. Internet ha ridisegnato l’economia e la comunicazione globale.

Se le macchine imparano a osservare, analizzare e decidere al posto nostro, la responsabilità umana diventa sempre più difficile da individuare. Nell’Iliade Priamo poteva entrare nella tenda di Achille e chiedergli conto della morte del figlio. A chi dovrebbe rivolgersi oggi? E, al di là della guerra in senso stretto, è possibile anche solo immaginare una società fondata sul valore della libertà politica in un mondo senza responsabili?

Leggi anche:

Lascia un commento

Your email address will not be published.

Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per inviare il tuo commento, accetta il trattamento dei dati personali mettendo una spunta nel apposito checkbox sotto:

Potrebbero interessarti

“Una vita come tante”, il libro che continua a vendere milioni di copie

Dieci anni fa usciva il romanzo che ha scosso il…

“Una maschera color del cielo”.
Il dilemma dell’essere

Secondo Barbara Teresi, traduttrice dell’ultimo libro del romanziere palestinese Bassem…