Sviluppo economico e sicurezza: in Cina – dove ChatGPT è bandito – i servizi di intelligenza artificiale (IA) generativa devono procedere lungo un doppio binario. È quanto prevedono le misure provvisorie annunciate giovedì dall‘Amministrazione per il Cyberspazio (CAC), la Commissione nazionale per lo sviluppo e la riforma, e cinque dicasteri, dal Ministero dell’Istruzione a quello della Pubblica Sicurezza. Le nuove regole – che entreranno in vigore il 15 agosto – disciplinano tutti i tipi di contenuti creati con l’IA (testi, immagini, audio e video) anche se per ora sono applicabili solo ai servizi disponibili al pubblico. Ergo, i prodotti privati e sperimentali (ovvero tutti i chatbot cinesi annunciati fino a oggi) non rientrano nel perimetro normativo.

Mentre molti paesi stanno studiando come regolamentare il settore, secondo gli esperti, quelle di Pechino sono le disposizioni sull’IA più complete a livello mondiale. Questo nonostante siano sparite alcune delle restrizioni previste nella prima bozza divulgata ad aprile. Nella versione attuale è stata rimossa la menzione di multe fino a 100mila yuan (14.027 dollari) in caso di violazioni. Risulta inoltre edulcorato il linguaggio sulla necessità, per le aziende, di “garantire l’autenticità, l’accuratezza, l’obiettività e la diversità dei dati [generati con l’IA].” Novità per nulla scontata: l’ultima versione delle norme prevede che per proteggere la privacy gli utenti dei servizi in questione non saranno più tenuti a registrarsi con il loro vero nome. Un compromesso che pare andare in controtendenza rispetto alle direttive predisposte negli ultimi anni da social network e compagnie telefoniche, tese a smascherare l’anonimato.

Resta il fatto che le aziende sono ancora responsabili per qualsiasi contenuto creato con i loro prodotti. Le misure aggiungono ulteriori oneri ai fornitori di servizi imponendo una supervisione stringente per prevenire discriminazioni su base di “etnia, opinioni personali, nazionalità, regione, sesso, età, occupazione, condizioni di salute”. Se infatti i regolamenti emendati sono meno stringenti di quanto temuto, va notato come nella fase applicativa siano comunque subordinati alle tre leggi varate da Pechino negli scorsi anni per rendere web e gestione dei dati “sicuri”: la China Cybersecurity Law, la China Data Security Law e la Personal Information Protection Law. Secondo la società di consulenza Trivium, in ultima istanza il rigido controllo del governo pone i fornitori cinesi in una posizione di svantaggio rispetto ai loro concorrenti statunitensi. Il fattore politico concorre a limitare il potenziale dell’innovazione “made in China”.

Come altrove, anche in Cina la premessa è che l’IA deve servire a creare nuovi modelli di business, aumentare la produttività, e migliorare le condizioni di lavoro. Ma, proprio perché siamo in Cina, tutto questo acquisisce “caratteristiche cinesi”. Stando ai nuovi regolamenti, i fornitori di servizi di IA generativa devono “aderire ai valori fondamentali del socialismo” e astenersi dal propagare contenuti che “incitino alla sovversione del potere statale e al rovesciamento del sistema socialista, che mettano in pericolo la sicurezza e gli interessi nazionali, danneggino l’immagine del paese, incitino alla secessione dal paese, minino l’unità nazionale e la stabilità sociale, e promuovano il terrorismo, l’estremismo, l‘odio nazionale e la discriminazione etnica, la violenza, l’oscenità e la pornografia”.

Più in generale, l’obiettivo è combattere le “informazioni false e dannose”. Missione imposta da tempo un po’ a tutte le piattaforme digitali cinesi. Nel 2022 è entrata in vigore una legge che impegna i provider a promuovere “algoritmi per il bene”, implicito ordine a non sfruttare queste tecnologie per aggirare i dettami del partito-stato. Anzi, Pechino sembra voler addomesticare i nuovi strumenti per il proprio tornaconto. Un istituto di Hefei, nella provincia cinese dello Anhui, ha affermato di aver creato un software in grado, grazie all’IA, di misurare la lealtà dei funzionari comunisti. A febbraio la società di ricerca americana Graphika ha individuato un programma di news cinese generato con il deepfake che metteva in cattiva luce gli Stati Uniti ed esaltava la narrazione di Pechino.

Va detto che i chatbot sviluppati oltre la Muraglia dispongono già di funzioni integrate per garantire un filtro delle informazioni indesiderate. Ad esempio, la società cinese di sicurezza informatica 360 Security Technology ha recentemente presentato un servizio di autocensura per chatbot che quando un utente inserisce una “parola sensibile” interrompe immediatamente la conversazione. Oppure su Taiwan, il Covid e la guerra in Ucraina, vengono date risposte in linea con la vulgata cinese.

C’è chi ritiene che l’ossessione per il controllo sia una lama a doppio taglio: inibisce la creatività e quindi la raccolta delle informazioni necessarie ad addestrare modelli e algoritmi alla base dell’IA. Se è davvero così, lo scopriremo presto: piantati i paletti, ci aspetta che presto le aziende cinese ufficializzeranno il lancio delle proprie chatbot, ancora disponibili solo in versione demo. Baidu, Alibaba, Meituan, SenseTime, iFlyTek…sono sempre di più le big tech ad annusare il settore. Solo pochi giorni fa, dopo due anni di multe e pressioni, le autorità di Pechino hanno lodato pubblicamente il ruolo dei colossi tecnologici nel progresso e nella crescita economica.

Articolo Successivo

Patrick Zaki condannato a tre anni in Egitto. Portato via dopo il verdetto, l’avvocato: “Dovrà scontare altri 14 mesi”

next