Il mondo FQ

La Casa Bianca punisce il gigante dell’Ai Anthropic, ma poi lo usa per attaccare l’Iran: uno scollamento preoccupante

Quando il potere bellico di una nazione come gli Usa dipende da infrastrutture che non controlla, e che dichiara persino di voler bandire, la catena di comando degrada a sceneggiatura per una serie su Netflix
La Casa Bianca punisce il gigante dell’Ai Anthropic, ma poi lo usa per attaccare l’Iran: uno scollamento preoccupante
Icona dei commenti Commenti

Se l’America avrà mai i suoi nuovi Oppenheimer dell’intelligenza artificiale – l’atomica dei nostri tempi – sembra per ora aver trovato un analogo strumento, più economico e infinitamente più scalabile, nei chatbot della Silicon Valley che usiamo tutti i giorni. Negli ultimi giorni, con l’attacco congiunto Usa-Israele su Teheran che ha portato all’eliminazione di Ali Khamenei e alla decapitazione dell’intero vertice militare e dell’intelligence iraniana, il divario tra la postura politica di Washington e la realtà della nuova guerra del Golfo condotta dalla coppia guerrafondaia Trump-Netanyahu è diventato incolmabile.

In questo scenario emerge un caso emblematico che trascende la tecnologia. Mentre il Segretario alla Guerra (ed ex mezzobusto di Fox News) Pete Hegseth etichettava Anthropic – il gigante dell’IA fondato dall’italo-americano Dario Amodei – come un’azienda “woke”, di sinistra e troppo intrisa di principi morali per servire gli obiettivi del Pentagono, il Comando Centrale degli Stati Uniti (Centcom) utilizzava proprio il modello Claude di Anthropic per coordinare e finalizzare l’eliminazione di Ali Khamenei e di altri 47 alti dirigenti del regime iraniano.

L’operazione militare israelo-americana, supportata dagli apparati di Mossad e Cia, è costata finora 555 vite umane. Un bilancio tragico che include 165 vittime nell’attacco a una scuola elementare nel sud dell’Iran, dove decine di bambine sono state falciate dai missili. Sembra una di quelle riunioni aziendali in cui il capo mostra la “mission” con le slide: la prova dell’efficacia di quel sistema di tracciamento che Trump definisce “altamente sofisticato” (scontato però che non ne capisca nulla), ma che di fatto delega la selezione di bersagli umani e obiettivi fisici – il passaggio cruciale dalle simulazioni dei “war games” alla guerra reale – a un’intelligenza artificiale linguistica (Llm). Un chatbot, insomma, seppur alimentato da informazioni top secret e classificate.

Appena ventiquattr’ore prima, lo scontro tra la Casa Bianca e il Ceo di Anthropic, Dario Amodei, si era consumato su due linee rosse “etiche”: l’uso di Claude per la sorveglianza dei cittadini statunitensi e lo sviluppo di armamenti letali completamente autonomi, privi di supervisione umana. Il Pentagono aveva dato un ultimatum alla società, doveva rinunciare a questi paletti, giudicati “woke” e stupidamente morali, Amodei ha risposto mandando Hegseth al diavolo. Ha il lusso di poterselo permettere. Subito dopo che l’amministrazione Trump, per punire il ribelle, ha classificato Anthropic come “rischio per la sicurezza nazionale”, Claude è balzata in cima alle classifiche delle app più scaricate del web. E c’è da scommettere che, anche senza il Ministero della Guerra Usa, il prossimo round di finanziamenti farà lievitare la valutazione dagli attuali 380 miliardi di dollari a 500.

Ma qui viene il bello. L’apparente fermezza ideologica del duo Trump-Hegseth, detrattori di tutto ciò che profuma di progressismo, è evaporata all’istante davanti alle necessità tattiche. La verità emersa dal Wall Street Journal è che Claude – in partnership con Palantir di Peter Thiel – resta il perno dei sistemi militari americani classificati, e ci vorrà tempo per recidere il legame (mentre Thiel, essendo di destra, rimane saldamente a bordo). La pretesa superiorità di un’amministrazione che ostenta arroganza e non accetta “lezioni di etica” da aziende Ia “liberal”, si scontra con la dipendenza operativa da quegli stessi strumenti. Con i sondaggi che precipitano (popolarità di Trump al 37% e sconfitta data per certa alle Midterm di novembre dai mercati predittivi), quegli algoritmi tacciati di essere di sinistra per uso della incolta base Maga sono stati ritenuti non solo idonei, ma necessari per autorizzare ed eseguire il “decapitation strike” a Teheran, consegnando la Guida Suprema della Repubblica Islamica al suo destino.

Che dire dell’ipocrisia dell’amministrazione Trump? La democrazia americana è ormai ridotta a rumore di fondo, una facciata politico-mediatica in cui l’uomo di Mar-a-Lago – pur con un repertorio ormai logoro – resta il primo degli attori. Le guerre vengono decise per stornare l’attenzione dai temi dominanti – il caso Epstein, l’inflazione, il boomerang sull’immigrazione dopo gli scandali e gli assassinii dell’Ice – e, una volta avviate, vengono gestite da interfacce identiche ai chatbot che i cittadini comuni usano per scrivere e-mail, riassumere documenti o stilare contratti.

Il confine tra software di consumo e strategia militare è svanito. Quando il potere bellico di una nazione come gli Stati Uniti dipende da infrastrutture che non controlla, e che dichiara persino di voler bandire, la catena di comando degrada a sceneggiatura per una serie su Netflix. Dobbiamo preoccuparci? Evidentemente sì. E forse dovremmo tutti seguire l’esempio di Amodei, abbandonando gli altri, con in testa l’opportunista Sam Altman di OpenAI con la sua ChatGpt. Non è ammissibile che un chatbot linguistico abbia l’ultima parola sulla vita e sulla morte di “cattivi” designati in base agli umori instabili di un ottantenne nello Studio Ovale.

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione