Il mondo FQ

Pentagono contro Anthropic: il Ceo Amodei convocato da Hegseth dopo il caso Venezuela. Cosa rischia la startup che vuole una AI “etica”

Dove porta lo scontro tra Anthropic e il Pentagono sull'uso dell'IA Claude. Dall'operazione militare che ha portato alla cattura di Maduro al rischio di "messa al bando" della azienda
Pentagono contro Anthropic: il Ceo Amodei convocato da Hegseth dopo il caso Venezuela. Cosa rischia la startup che vuole una AI “etica”
Icona dei commenti Commenti

Da quando il 3 gennaio gli Stati Uniti hanno condotto l’operazione Absolute Resolve per catturare l’ormai ex presidente venezuelano Nicolás Maduro e sua moglie Cilia Flores, si è aperto un duro scontro fra il Dipartimento della Difesa Usa (o della Guerra, nella riformulazione trumpiana), e l’azienda di IA Anthropic, fondata nel 2021 dai fratelli Amodei, dopo la loro uscita da OpenAI. Al centro del dibattito c’è l’utilizzo dei modelli di intelligenza artificiale per operazioni militari e di sicurezza. Absolute Resolve è infatti un’operazione senza precedenti. Non solo per il suo peso politico o le ricadute sul diritto internazionale e l’ostentata precisione chirurgica con cui le forze speciali Usa hanno catturato Maduro, ma anche perché per la prima volta nella storia militare degli Stati Uniti un modello commerciale di IA, Claude di Anthropic, è stato utilizzato in un’operazione ufficiale del Pentagono.

Questo utilizzo è però avvenuto in violazione delle politiche interne dell’azienda, che a differenza di altre rivali come OpenAI, Google e xAI, collabora con la Difesa statunitense ma con espliciti limiti sanciti dai vertici dell’azienda di Dario e Dario e Daniela Amodei. Nonostante l’assoluta riservatezza, secondo gli esperti militari nell’attacco al Venezuela che ha causato la morte di 83 persone, l’IA di Anthropic è stata usata grazie alla partnership con la società di analisi dati Palantir Technologies per il supporto dell’analisi di immagini satellitari, per la pianificazione operativa e persino la gestione di dati in tempo reale delle operazioni.

Non stupisce quindi che lo scontro sia culminato ieri con la convocazione del Ceo di Anthropic, Dario Amodei, da parte del capo del Pentagono Pete Hegseth. Una convocazione urgente per discutere dell’utilizzo di intelligenza artificiale per fini militari e di sicurezza. L’incontro, preannunciato come decisivo e dai toni “poco amichevoli” non ha consegnato, al momento, conclusioni note e implicazioni materiali. È probabile che Hegseth e Amodei si siano confrontati in maniera privata e senza riferire nulla alla stampa per verificare il margine di trattativa reciproca.

I vertici di Anthropic, che promuovono un approccio all’AI incentrato sulla sicurezza e hanno anche sviluppato una costituzione etica su cui sviluppare il loro modello Claude, hanno più volte dichiarato di non voler mettere a disposizione le proprie tecnologie per la creazione di armi autonome o per favorire la sorveglianza di massa. Due linee rosse che per Amodei sono “fondamentali” sia per la tenuta dell’ordine democratico americano e internazionale sia per la cultura aziendale da lui promossa.

Il Pentagono, dal canto suo, vuole che le capacità di Claude siano disponibili in maniera illimitata per “tutti gli usi leciti” permessi dalla legge, e quindi anche per sviluppo di armi e operazioni belliche e di intelligence. “Non possiamo permettere che una singola azienda detti le regole d’uso di una tecnologia critica per la sicurezza nazionale”, ha dichiarato Emil Michael, sottosegretario alla ricerca del Pentagono, palesando pubblicamente le intenzioni di inglobare anche Anthropic all’interno di un ecosistema tecno-militare che è ormai un ambito estremamente sensibile per la sicurezza nazionale, soprattutto nell’ottica di un confronto aperto con il grande rivale degli Stati Uniti, la Cina.

L’opposizione di Anthropic ha causato delle forti pressioni da parte degli apparati della sicurezza nei confronti dell’azienda, mettendo a rischio un contratto da 200 milioni di dollari, a cui si aggiunge la minaccia di tagliare ogni rapporto commerciale fra il Pentagono e Anthropic e di classificare l’azienda come a “rischio” per la catena di approvvigionamento della Difesa statunitense. Il dibattito etico e strategico che ne è conseguito riflette l’esistenza di due orientamenti diversi fra una parte seppur minoritaria della Silicon Valley che vuole auto-imporsi limitazioni e sviluppare tecnologie in modo critico, e un conglomerato politico-militare affamato di tecnologia da tradurre in superiorità militare e in capacità di controllo per mantenere il dominio internazionale nel campo militare. La nuova dottrina militare statunitense, denominata “AI First”, rappresenta infatti una svolta storica nell’utilizzo di tecnologia a fini militari ed è molto chiara nei suoi intenti: l’IA deve diventare uno strumento quotidiano privo di particolari restrizioni con cui condurre pianificazione, operazioni e gestione delle forze armate perché nelle guerre di oggi la differenza è fatta dalle tecnologie d’avanguardia, e rimanere indietro in questo ambito potrebbe rivelarsi un errore fatale.

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione