Raccolta massiva di dati privati per addestrare le intelligenze artificiali? Il Garante per la protezione della privacy ha avviato un’indagine conoscitiva sui siti internet per verificare l’adozione di idonee misure di sicurezza. Il cosiddetto webscraping dall’inglese to scrape, grattare/raschiare serve a estrarre dati dalle pagine web per poi raccoglierli in database. Il Garante deve ora verificare se siti internet sfruttino i software dati finalizzati all’addestramento degli algoritmi di intelligenza artificiale, senza rispettare le norme di sicurezza. L’indagine conoscitiva riguarda tutti i soggetti pubblici e privati che mettono a disposizione on-line dati personali liberamente accessibili anche dagli “spider” (o “crawler”) dei produttori di algoritmi.

È già nota, ha affermato il Garante per la privacy, l’attività di diverse piattaforme di IA, le quali attraverso il webscraping raccolgono, per differenti usi, enormi quantità di dati anche personali pubblicati per specifiche finalità (cronaca, trasparenza amministrativa, indagini statistiche) all’interno di siti internet gestiti da soggetti pubblici e privati. Il web scraping non è infatti illegale, a patto che rispetti alcune norme.

Il Garante rivolge quindi un invito alle associazioni di categoria interessate, alle associazioni di consumatori, ad esperti e rappresentanti del mondo accademico affinché facciano pervenire i loro commenti e contributi sulle misure di sicurezza adottate e adottabili contro la raccolta massiva di dati personali a fini di addestramento degli algoritmi. A seguito dell’indagine conoscitiva l’Autorità si riserva di adottare i necessari provvedimenti.

Articolo Precedente

Sam Altman ritorna a OpenAI: raggiunto un accordo “di principio”. Più di 700 persone avevano minacciato di lasciare

next
Articolo Successivo

“Il progetto Q* è una minaccia per l’umanità”: la lettera dei ricercatori a OpenAI prima della rottura con Sam Altman

next