Il mondo FQ

ChatGPT aiutò lo stragista della Florida State University? Indagine penale del procuratore generale sul sistema di OpenAI

OpenAI nega ogni responsabilità, ma i magistrati vogliono capire se le risposte del chatbot possano aver agevolato l’attacco di Phoenix Ikner per cui è stata annunciata l'intenzione di chiedere la pena di morte
ChatGPT aiutò lo stragista della Florida State University? Indagine penale del procuratore generale sul sistema di OpenAI
Icona dei commenti Commenti

Negli Stati Uniti si apre un nuovo fronte giudiziario sul possibile ruolo dell’intelligenza artificiale nei crimini violenti. Il procuratore generale della Florida, James Uthmeier, ha avviato un’indagine penale su ChatGPT per verificare se il sistema sviluppato da OpenAI possa aver in qualche modo favorito la sparatoria avvenuta lo scorso anno alla Florida State University. L’autore dell’attacco, Phoenix Ikner, è accusato di due omicidi di primo grado e di diversi tentati omicidi dopo aver aperto il fuoco nel campus, uccidendo due persone e ferendone altre sei. Secondo gli investigatori, avrebbe utilizzato l’ex arma di servizio della matrigna, vice sceriffo locale.

Al centro dell’inchiesta ci sono i log delle conversazioni tra Ikner e ChatGPT. I pubblici ministeri stanno analizzando se le risposte fornite dall’intelligenza artificiale possano aver “favorito o agevolato il reato”. “Questa indagine penale determinerà se OpenAI abbia responsabilità penali per le azioni di ChatGPT nella sparatoria”, ha dichiarato Uthmeier. Per approfondire il caso, l’ufficio del procuratore generale ha citato in giudizio OpenAI chiedendo accesso ai registri interni: dalle politiche di gestione delle minacce alle linee guida sulla segnalazione di “possibili crimini passati, presenti o futuri”, fino ai materiali di addestramento del modello.

La portavoce Kate Waters ha definito la sparatoria “una tragedia”, ma ha escluso qualsiasi responsabilità diretta: “ChatGPT ha fornito risposte oggettive basate su informazioni pubblicamente disponibili e non ha incoraggiato né promosso attività illegali o dannose”. OpenAI ha inoltre dichiarato di aver collaborato fin da subito con le forze dell’ordine, condividendo le informazioni richieste. Intanto, i pubblici ministeri hanno già annunciato l’intenzione di chiedere la pena di morte per Ikner.

Il caso della Florida non è isolato. Un precedente simile riguarda il Canada, dove le autorità hanno esaminato il possibile ruolo dell’intelligenza artificiale in un’altra sparatoria, sollevando interrogativi analoghi sulla responsabilità delle piattaforme digitali. In entrambi i casi, il nodo centrale è capire se un sistema di IA possa essere considerato corresponsabile quando fornisce informazioni poi utilizzate per compiere un crimine.

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione