Ci sono voluti due giorni e 36 ore di trattative per approvare il Regolamento europeo sull’Intelligenza artificiale, ma il risultato non è del tutto all’altezza delle aspettative. Soprattutto di quelle delle associazioni che da anni si battono per la protezione dei diritti fondamentali, considerati uno dei capisaldi del regolamento ma messi in alcuni casi da parte per favorire gli interessi delle aziende tech. È in questo quadro che si inserisce la decisione di Consiglio, Parlamento e Commissione (il cosiddetto trilogo) di non imporre un divieto sull’esportazione di quelle tecnologie proibite all’interno dell’Unione europea e di lasciare maggiore possibilità di autoregolamentazione alle singole aziende.

Come spiega Mher Hakobyan, analista di Amnesty Tech, il regolamento ha un approccio neutrale nei confronti delle singole tecnologie, stabilendo quindi il grado di pericolosità sulla base del contesto di utilizzo anziché del singolo strumento. “L’Allegato III specifica quali sono i contesti da considerarsi ad alto rischio e sottoposti a stretta sorveglianza per evitare che le tecnologie basate su AI impattino negativamente sui diritti fondamentali. Si tratta di contesti come quello dell’educazione, del lavoro, della gestione delle infrastrutture critiche e dei servizi essenziali pubblici e privati”.

In questo modo si punta a offrire maggiori tutele ai cittadini, mettendo al primo posto la protezione dei diritti fondamentali e dei valori dell’Unione europea, ma nell’ultima fase negoziale è stata apportata una modifica potenzialmente dannosa. Le aziende che creano o usano una tecnologia basata sull’AI in un contesto considerato a priori ad alto rischio possono superare gli ostacoli posti dal nuovo regolamento affermando che l’impiego è limitato a compiti molto specifici e che privi di un impatto diretto sulle persone. Un’autoregolamentazione difficile da controllare e che mette in pericolo i diritti fondamentali. “È stato creato un vuoto di legge che riduce la portata del regolamento e dà più poteri alle compagnie”, afferma Hakobyan, che non dimentica di citare le forti pressioni delle lobby su Consiglio e Parlamento per un alleggerimento delle regole.

A giugno 150 compagnie hanno firmato una lettera aperta in cui chiedevano ai parlamentari di ammorbidire la propria posizione. Tra queste figurano anche i nomi di Airbus e Safran, aziende attive anche nel settore militare, e Mistral, start-up francese che vede tra i suoi primi finanziatori la holding Exor della famiglia Agnelli, proprietari a loro volta della Iveco Defence Veichles. Non sorprende quindi scoprire che nel testo finale non è stato inserito alcuno controllo sull’export, il che permetterà la vendita sui mercati di quelle stesse tecnologie basate su AI che sono bandite all’interno dell’Unione europea.

“Se una certa tecnologia non è accettata in Europa perché lesiva dei diritti fondamentali e contraria ai valori dell’Unione non dovrebbe essere venduta all’estero, ma il problema è il mondo in cui è stata ideato il regolamento”, spiega Hakobyan. “L’AI Act si basa sull’articolo 14 che regola il mercato interno europeo, quindi non ci sono le basi legali per imporre restrizioni all’estero. Questa quantomeno è la spiegazione data dalla Commissione, a cui ha aderito anche il Parlamento. Nella bozza presentata dai parlamentari era stato inserito un blocco all’export delle tecnologie bandite in Europa, ma alla fine la posizione del Consiglio ha prevalso”.

La giustificazione di questo doppio standard adottato dall’Europa però non regge. Bruxelles ha deciso di creare il primo regolamento al mondo sull’intelligenza artificiale anche per proteggere i diritti fondamentali e per stabilire delle linee guida che possano fungere da esempio anche per gli altri paesi. Il testo finale però non tiene conto di quest’ultimo obiettivo e anzi rischia di minare la credibilità dell’Europa. “Alcune tecnologie sono vietate di default in Europa, come quella per assegnare un punteggio sociale ai cittadini, ma nel momento in cui si decide di esportarle è possibile fare una nuova valutazione sul loro impatto. Quello che ci chiediamo è: se una certa tecnologia è già stata identificata come inaccettabile, che senso ha tutto questo?”, specifica Hakobyan.

La speranza delle associazioni è che il tema sia affrontato in altre sedi, per esempio nelle discussioni sulle tecnologie dual-use, quelle cioè che possono avere un impiego sia civile che militare. Maggiori restrizioni su questo tipo di esportazioni potrebbero in parte risolvere alcune questioni lasciate fuori dall’AI Act, ma la nuova legislazione non si applicherebbe a quelle tecnologie che hanno un impiego solo civile e che ugualmente possono essere gravemente lesive dei diritti fondamentali.

“Queste regole inoltre non sono efficienti, lo abbiamo visto con gli spyware”, ricorda l’analista, facendo riferimento all’uso estensivo di tecnologie basate su AI per monitorare giornalisti, attivisti e oppositori all’interno di regimi così come di alcuni Stati europei, in primis in Grecia. La mancanza di un divieto all’esportazione di tecnologie proibite in Europa non farà altro che aumentarne i flussi verso il mercato estero. Il Regolamento è arrivato in ritardo rispetto all’evoluzione del settore, per cui diverse aziende hanno già investito ingenti quantità di denaro in progetti che dovrebbero essere banditi nei prossimi mesi. L’unica soluzione potrebbe quindi essere quella di rivolgersi agli acquirenti extra-europei. Una prospettiva ben poco rassicurante se si guarda ai nomi dei compratori di questo tipo di tecnologie: i sistemi di sorveglianza digitale prodotti da aziende basate in Francia, Svizzera e Paesi Bassi sono stati per esempio utilizzati nei programmi di controllo di massa in Cina contro la minoranza musulmana degli uiguri e ad altri gruppi etnici. Senza contare il rischio che le tecnologie proibite in Europa vengano vendute a quei paesi che hanno siglato accordi con Bruxelles o con i singoli Stati membri per il controllo delle frontiere, esternalizzando ancora una volta le violazioni dei diritti umani all’estero.

Articolo Precedente

Orban blocca l’Ue sull’adesione dell’Ucraina: ora Bruxelles dovrà dialogare col ‘fratello cattivo’ che voleva isolare

next
Articolo Successivo

Origine del miele e delle marmellate in etichetta: la “Direttiva Colazione” garantisce la tracciabilità di succhi e companatici

next