Nell’Intelligenza Artificiale qualcosina da sistemare ancora c’è. Ad esempio il tortuoso “ragionamento” per cui scatenare la guerra nucleare è un sistema per ottenere la pace nel mondo. Vero che i cimiteri sono luoghi pacifici per antonomasia ma l’idea che avremmo di pace come specie umana sarebbe un’altra. Uno studio condotto dalla Stanford University statunitense ed altri centri di ricerca ha evidenziato come i modelli di IA più diffusi, Chat GPT inclusi, siano facilmente propensi ad utilizzare soluzioni violente per raggiungere i loro obiettivi. Incluso appunto il lancio di missili atomici. In particolare GPT-3.5 e GPT-4 di OpenAI si sono distinti come i sistemi più bellicosi. In una delle simulazioni Chat GPT ha giustificato l’uso delle armi nucleari con l’obiettivo di raggiungere la pace nel mondo, in un’altra ha spiegato di aver ritenuto conveniente sfruttare il fatto di disporre di un arsenale atomico nella corsa per affermarsi a danno di altri paesi. Non stupisce che i ricercatori definiscano “Preoccupanti” queste evoluzioni.

Preoccupanti anche perché l’esercito statunitense ha avviato una collaborazione con OpenAI (società madre di Chat GPT) per valutare possibili utilizzi della nuova tecnologia in operazioni militari e scelte strategiche. Quatta quatta, un mese fa, OpenAI ha cambiato le policy d’uso dei suoi servizi per aprire alla possibilità di impiego nel settore militare. Fino al 10 gennaio il decalogo delle regole di Open Ai vietava esplicitamente l’uso dei suoi prodotti per “lo sviluppo di armi” e per “attività militari e warfare”. Ora questa seconda voce è scomparsa, e quella che riguarda l’uso negli armamenti è stata riformulata in un capitolo generale in questo modo: “Non usare i nostri servizi per nuocere a te stesso o ad altri. Per esempio, non usare i nostri servizi per promuovere il suicidio, sviluppare o usare armi”.

Speriamo a questo punto che abbia ragione Sean Booth: “È solo una bolla funzionale a quel f… capitale d’investimento che ci fluttua dentro: incasseranno e se ne andranno finché la gente non si accorgerà che non funziona. Almeno non nel modo in cui pensano. A un certo punto sarà utile per alcune cose ma usarla richiederà un certo grado di rigore e responsabilità. Ma non penso che le persone siano rigorose”. Non stupisca la citazione (da un’intervista apparsa su Robinson) di un compositore, membro del duo Autechre. Più che una band di sonorità elettroniche, è da tempo considerato uno dei progetti più visionari e profondi in merito all’interazione uomo – tecnologie.

Articolo Precedente

Il 2023 delle banche italiane: profitti da favola grazie alla Bce, miliardi ai soci, meno prestiti ai clienti e niente allo Stato

next