Gli appaltatori della difesa statunitense, tra cui Lockheed Martin, hanno iniziato a rimuovere dai loro ambienti operativi l’intelligenza artificiale sviluppata da Anthropic, dopo una revisione interna che ha evidenziato la necessità di utilizzare esclusivamente piattaforme certificate per l’elaborazione di dati sensibili.
La decisione, comunicata alle divisioni tecniche nelle ultime settimane, ha portato alla sospensione immediata dell’uso dei modelli Claude in attività come la simulazione di scenari, l’analisi dei rischi e il supporto alla progettazione di sistemi complessi. Secondo fonti industriali, la transizione è stata rapida e in alcuni casi ha richiesto la sostituzione di interi flussi di lavoro con strumenti proprietari o con software già approvati dal Dipartimento della Difesa.
Lockheed aveva integrato l’IA di Anthropic in diversi processi di ricerca e sviluppo, sfruttandone la capacità di sintetizzare grandi quantità di dati e di generare analisi preliminari in tempi ridotti. Tuttavia, la crescente attenzione alla sicurezza informatica e alla protezione delle informazioni classificate ha spinto l’azienda a riconsiderare l’uso di piattaforme commerciali non progettate per contesti militari.
Altre società del settore hanno seguito la stessa linea, temendo che l’impiego di strumenti non certificati potesse esporre i programmi a rischi contrattuali o a contestazioni da parte delle autorità federali.
La rimozione dell’IA di Anthropic ha aperto un dibattito più ampio sul ruolo delle tecnologie generative nell’industria della difesa. Alcuni dirigenti riconoscono che la transizione potrebbe rallentare temporaneamente lo sviluppo di nuovi sistemi, ma ritengono inevitabile un ritorno a soluzioni più controllate e pienamente conformi agli standard militari.





