Tecnologia

L’Europa dice sì all’Intelligenza Artificiale, ma nel rispetto di sette semplici regole

In un documento ufficiale la Commissione UE ha stabilito le regole entro le quali si dovrà evolvere l'Intelligenza Artificiale in Europa: supervisione umana, sicurezza, privacy sono solo alcuni dei pilastri etici su cui poggerà lo sviluppo. Ecco i dettagli.

L’Intelligenza Artificiale non si ferma, anche in Europa proseguirà la sua corsa, a patto che al centro ci sia l’uomo con il suo controllo, di modo da garantirne il funzionamento secondo certe regole. Regole stabilite dalla Commissione UE, che ieri ha presentato una tabella di marcia ben precisa da seguire. È l’evoluzione delle strategie stabilite lo scorso anno da Bruxelles, mirate a consentire un investimento di almeno 20 miliardi di euro l’anno per il prossimo decennio.

Le nuove linee guida sono focalizzate sul codice etico. Il punto di partenza è che i vantaggi e le prospettive che l’Intelligenza Artificiale può aprire sono immensi, ma ci sono anche effetti collaterali potenzialmente pericolosi.

Foto: Depositphotos

 

Ecco quindi le regole per sincerarsi che l’IA sia affidabile. Innanzi tutto dovrà rispettare tutte le leggi e i regolamenti stabiliti, in più dovrà attenersi alla seguente lista di requisiti. La consapevolezza e la supervisione umana: le soluzioni di Intelligenza Artificiale dovrebbero consentire una società equa sostenendo la consapevolezza umana e i diritti fondamentali e non diminuire, limitare o fuorviare l’autonomia umana. C’è poi un importante requisito di robustezza e sicurezza: una IA degna di fiducia richiede che gli algoritmi siano sicuri, affidabili e robusti per affrontare errori o incoerenze durante tutte le fasi del ciclo di vita dei sistemi di Intelligenza Artificiale.

Immancabile la tutela della privacy e della governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati, mentre i dati che li riguardano non devono essere utilizzati per danneggiarli o discriminarli. Un requisito che non può esistere senza quello di trasparenza, secondo cui la tracciabilità dei sistemi di IA dovrebbe essere garantita. Si passa poi al capitolo sociale. Non ci devono essere diversità o discriminazioni: i sistemi di IA dovrebbero considerare l’intera gamma di capacità, abilità e requisiti umani e garantire l’accessibilità. E i sistemi di IA dovrebbero essere utilizzati per garantire benessere sociale e ambientale, ossia migliorare i cambiamenti sociali positivi e migliorare la sostenibilità e la responsabilità ecologica. Non ultimo, qualcuno dev’essere responsabile delle Intelligenze Artificiali, pertanto dovrebbero essere messi in atto meccanismi per garantire responsabilità e “accountability” per i sistemi di IA e le loro azioni.

Foto: Depositphotos

 

A partire da questi pilastri, quest’estate prenderà il via una sperimentazione che coinvolgerà aziende, amministrazioni pubbliche e organizzazioni sia direttamente che tramite il programma Alleanza Europea AI.

Questo è l’approccio comunitario, ritenuto indispensabile dai legislatori in quanto “tecnologie, dati e algoritmi non conoscono frontiere”. Ecco perché “la Commissione rafforzerà la cooperazione con partner affini come il Giappone, il Canada o Singapore e continuerà a svolgere un ruolo attivo nelle discussioni e nelle iniziative internazionali, tra cui il G7 e il G20. La fase pilota coinvolgerà anche aziende di altri paesi e organizzazioni internazionali”.

Alla fase pilota su vasta scala, che servirà a raccogliere feedback, seguirà poi l’elaborazione di un consenso internazionale per l’Intelligenza Artificiale umano-centrica. Non resta che attendere i prossimi passi per vedere come si evolverà all’atto pratico il ruolo delle Intelligenze Artificiali all’interno del nostro tessuto economico e sociale.