L’intelligenza artificiale non è solamente telefonare casa con Siri o intrattenere ore di conversazione con Chat Gpt. Nello sviluppo dell’IA ci sono gli interessi economici dei big della tecnologia, oligarchie che si contendono il controllo di tutte le informazioni. C’è il rischio che la formazione di nuove menti esperte non riesca a tenere il passo dell’evoluzione dei sistemi informatici. Ci sono le tutele del Parlamento europeo confronti dei dati dei 500 milioni di utenti che vivono nell’Ue. Il dibattito intorno alle possibilità e i rischi dell’IA è spesso si divide tra gli entusiasti al limite del fanatismo e i puristi che vorrebbero fare marcia indietro. Ma in mezzo a questi due poli “la cosa che dovremmo fare è usare il cervello e la cultura” dice Nello Cristianini, professore del corso di Intelligenza Artificiale all’Università di Bath nel Regno Unito e autore del libro La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano edito da Il Mulino. Intervistato da Ilfattoquotidiano.it, Cristianini ha spiegato perché se vogliamo convivere con l’IA è fondamentale che le nuove tecnologie vengano comprese da tutti, senza esaltarle o demonizzarle.

Nello Cristianini, partiamo dal sottotitolo del suo libro: “Come le macchine sono diventate intelligenti senza pensare in modo umano”. Quindi l’intelligenza artificiale non pensa come noi?

Non sappiamo nemmeno se pensa. L’intelligenza artificiale si comporta in modo “intelligente”: prende decisioni, pianifica e impara a perseguire i propri obiettivi. Ma non lo fa come lo facciamo noi, che invece ragioniamo per simboli e astrazioni. Quando io devo consigliare un libro, cerco di capire i gusti della persona a cui devo regalarlo o i libri che ha letto in passato. Ci ragiono. La macchina invece analizza la cronologia degli acquisti, o l’archivio delle vendite avvenute nella stessa zona geografica, e su queste basi produce una raccomandazione. E lo fa senza darsi una spiegazione.

Eppure se si conversa con ChatGpt, Siri o altri sistemi sembra di aver a che fare con un essere umano.

L’illusione è molto forte perché questo tipo di software processa il linguaggio umano. Ed è difficile non farsi suggestionare. Ma la macchina non può comprendere il significato di quello che sta dicendo. “Parla” bene, traduce, riassume testi. Ma fa tutto questo senza comprenderlo. Almeno al momento.

Il Garante per la privacy ha fatto bene a portare al blocco di ChatGPT in Italia?

Ho seguito la vicenda ma non spetta a me giudicare.

C’è molta concorrenza nello sviluppo della nuova tecnologia di intelligenza artificiale. Mi vengono in mente i soliti “big”: Google, Amazon, Microsoft, Elon Musk…

Al momento le risorse necessarie a creare questo tipo di tecnologia sono enormi. Le aziende hanno bisogno di tanti soldi, un alto numero di personale e molti macchinari. Di conseguenza al mondo ci sono pochi gruppi che possono fare questi investimenti.

Ma così non rischia di essere un gioco di potere tra oligarchie che si contendono il controllo totale delle nostre informazioni, dei nostri dati, per i loro fini commerciali?

È un problema che esiste ma che esisteva anche cinque, dieci anni fa, con i motori di ricerca e i social network. E anche questi sono rimasti in pochi perché è un business che ha bisogno di risorse enormi per stare in piedi.

E in mezzo a questa gara dove sta l’interesse pubblico? L’IA non rischia di essere un progresso calato dall’alto?

Infatti è qui che il Parlamento europeo può e deve fare qualcosa. Non deve lasciare che sia l’azienda a decidere per noi cittadini, ma fissare delle regole per l’accesso ai dati dei quasi 500 milioni di consumatori che abitano nell’Unione Europea. L’Ue è un bacino che fa molta gola alle grandi compagnie, che in quel caso per accedere a questo mercato sono obbligate a rispettare la legge. Il peso delle istituzioni va preso seriamente, i politici devono decidere quali sono le priorità e i valori che riguardano l’utilizzo dell’IA. Come scrivo anche nel mio libro, un sistema di licenze assegnate anche in base alla trasparenza degli strumenti informatici potrebbe essere inevitabile per garantire la sicurezza degli utenti.

Ne La scorciatoia dice che questi sistemi sono “sovrumani”. Ovvero che ottengono prestazioni migliori degli esseri umani con comportamenti che a volte non possiamo capire. Per esempio nei giochi da tavolo, quando le mosse dell’IA sembrano agli occhi degli esseri umani degli “errori”, salvo poi che è proprio grazie a una scelta a noi incomprensibile che riescono a battere l’avversario. Questo significa che la formazione di nuove menti umane per gestire l’IA non sta andando di pari passo con la velocità di apprendimento delle macchine?

Questo è un pericolo e bisogna cercare delle soluzioni. È fisiologico che la formazione di un essere umano sia più lenta: occorrono decenni prima che abbia raggiunto il livello adeguato. Una nuova generazione di GPT ci ha messo dieci mesi per nascere. È un gap che dobbiamo colmare con la cultura scientifica. Una formazione scientifica più diffusa sarebbe un’ottima idea. Però voglio aggiungere che il termine “sovrumano” significa che la macchina ha prestazioni migliori del miglior essere umano. Accade già in alcuni videogiochi, molto presto le macchine potrebbero ottenere risultati sovrumani nel guidare un’automobile o leggere una radiografia. E anche nel ricordare.

E infatti tendiamo sempre più ad affidare i nostri ricordi ai dispositivi tecnologici…

Mi riferivo ai dati, ma è così: la memoria è una capacità cognitiva, e in questo l’essere umano è inferiore alla macchina. E non solo a quella. Ci sono persino alcuni animali che ci battono: gli scoiattoli sono capaci di nascondere le noci in tanti posti di versi e ritrovarle dopo mesi. Noi siamo piuttosto mediocri in questo. Il bisogno di immagazzinare continuamente le informazioni dentro i dispositivi informatici è cresciuto insieme alla produttività economica delle società, tant’è che oggi teniamo un computer in ogni ufficio per conservare le informazioni sui clienti e fornitori. Travasare alcuni dati dentro le nostre macchine non è una cosa negativa perché è utile per noi.

Secondo lei dovremmo preoccuparci di più per l’impatto ambientale dell’IA? I data center sfruttano enormi quantità di energia elettrica e di acqua. Ogni conversazione con ChatGPT, per esempio, ne consuma un litro.

È una questione su cui si discute molto in campo accademico, molto meno fuori dalle università. La tecnologia deve diventare sostenibile. Ma si tratta sempre di fare una scelta: a parità di costi, se dobbiamo impiegare risorse naturali, forse sarebbe meglio farlo per creare un motore di ricerca che risponde alle domande di un medico invece che produrre bitcoin. I centri di calcolo dell’IA utilizzano Gpu e Tpu, due tipi di processori molto costosi. Come quelli che si trovano nell’Xbox e nella PlayStation. Sono circuiti che si scaldano, consumano energia e producono calore, e serve tanta acqua per raffreddarli. Immagini averne 8mila in una stanza. Si potrebbe convertire il calore prodotto dai data center in energia per il riscaldamento domestico. E si sta lavorando su questo.

Tra i fanatici e gli apocalittici da quale parte è meglio stare?

Per accettare ogni cosa o rifiutare ogni cosa non c’è bisogno di un cervello, basta scrivere due righe di codice che rifiuta o accetta tutti gli input. Gli esaltati che vogliono tutta la tecnologia e gli assolutisti che vogliono tornare al passato sono due estremi che non hanno bisogno di pensare. Il lavoro che invece dovremmo fare è usare cervello, cultura e conoscenza. Rimanere nel mezzo e riflettere caso per caso. E decidere quello che è meglio per tutti e quello che invece non lo è.

Articolo Successivo

QueenArrow: “l’Africa è pronta per gli Esports”. La pro-gamer kenyota, tra i Forbes Africa 30 under 30 del 2022, si racconta

next