Cinema

“C’è il pericolo di un’apocalisse in stile Terminator: se l’AI si unisce con le armi rischiamo un incubo distopico. Sono stati commessi molti errori”. Il monito di James Cameron

Il regista di Avatar lancia l'allarme sui pericoli dell'intelligenza artificiale militarizzata che potrebbe portare a scenari distopici

di Davide Turrini
“C’è il pericolo di un’apocalisse in stile Terminator: se l’AI si unisce con le armi rischiamo un incubo distopico. Sono stati commessi molti errori”. Il monito di James Cameron

Se l’intelligenza artificiale venisse utilizzata in modo improprio, la società potrebbe presto assomigliare al mondo distopico di Terminator. L’ha messa giù chiusi James Cameron. Il regista, premio Oscar per Avatar ha espresso le sue preoccupazioni sull’uso dannoso e controverso dell’AI in un’intervista rilasciata a Rolling Stone. Lo spunto è nato chiacchierando attorno al romanzo Ghosts of Hiroshima di Charles Pellegrino che Cameron vorrebbe adattare celermente per il cinema (“sarà un film duro come Salvate il soldato Ryan”).

“Penso che ci sia ancora il pericolo di un’apocalisse in stile Terminator, in cui si mettono insieme l’IA e i sistemi d’arma, anche al livello di sistemi d’arma nucleari, difesa nucleare, contrattacco e roba del genere”, ha sottolineato Cameron. “E dato che il teatro delle operazioni è così rapido, le finestre decisionali sono così rapide, ci vorrebbe una superintelligenza per essere in grado di elaborarle, e forse saremo intelligenti e terremo un essere umano informato. Ma gli esseri umani sono fallibili, e sono stati commessi molti errori che ci hanno messo sull’orlo di incidenti internazionali che avrebbero potuto portare a una guerra nucleare”.

Insomma, anche il regista di Avatar fa tesoro più che dell’AI in sé – che da sola non riproduce alcunché – ma di come la programma, la gestisce, la usa l’uomo, spesso di potere, che la detiene. Un incubo distopico, insomma, che ricorda 2001 e appunto Terminator, quel cinema solido, attratto dalla fantascienza spesso per spiegarne limiti e peculiarità. Secondo Cameron, infatti, il vero pericolo sociale dell’IA è il suo passaggio dall’industria creativa alla conquista politica e militare. “Ho la sensazione che siamo a questo punto cruciale dello sviluppo umano, in cui si presentano le tre minacce esistenziali: il clima e il degrado generale del mondo naturale, le armi nucleari e la superintelligenza. Si stanno manifestando e raggiungendo il culmine contemporaneamente. Forse la superintelligenza è la risposta. Non lo so. Non lo sto prevedendo, ma potrebbe esserlo”.

Precedente
Precedente
Successivo
Successivo
Playlist

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione