Salute

Si chiede alle macchine di pensare per noi, cosa pericolosa anche sul piano delle relazioni umane

di Sara Gandini e Paolo Bartolini

Nella ricerca scientifica oramai da anni è entrata la cosiddetta intelligenza artificiale (AI). La potenza di calcolo dei computer ora permette di elaborare grandi quantità di dati che fino a poco tempo fa non era pensabile di analizzare. Ad esempio noi li usiamo per analizzare i dati del microbioma intestinale in relazione con la dieta e gli effetti collaterali delle terapie oncologiche o le immagini diagnostiche per aiutare i medici nelle diagnosi tumorali. Usiamo tecniche che si chiamano machine learning (letteralmente “macchine che imparano”), che rappresentano una branca dell’intelligenza artificiale che riguarda l’implementazione di algoritmi per fare previsioni in modo automatico.

Pensiamo all’algoritmo di Google che si basa su un auto-aggiornamento che permette di incrementare le proprie informazioni migliorando nel tempo la capacità di fare ricerche in modo sempre più mirato e preciso. È indubbio che siano strumenti utili, ma i rischi che intravediamo sono vari.

Se si parla così tanto dell’AI in questo momento è perché attira enormi capitali in ogni ambito. Dagli psicologi ai biologi, tutti si buttano su queste tecnologie, e la tentazione che possano sostituire attività umane di pensiero e relazionali è molto forte. Prima di tutto dobbiamo ricordarci che per usare questi strumenti la realtà deve essere stata trasformata, preventivamente, in una congerie di dati binari. Ogni informazione deve essere codificabile, e le persone, le malattie, le cure, tutto quello che accade nella relazione tra medico e paziente, tutto deve essere riducibile a un dato bidimensionale. Solo così potrà essere analizzato, riducendo alcuni imprevisti imputabili a quanto, nell’umano, eccede questa logica lineare (la soggettività, l’inconscio, l’eros, la magia delle relazioni, i desideri).

L’altro aspetto che troviamo preoccupante è la tentazione, presente in molti colleghi ricercatori, di ridurre ai minimi termini lo studio critico della letteratura scientifica, come se bastasse schiacciare un bottone per comprendere il significato nascosto in grandi quantità di dati (quest’ultimi, senza interpretazione, semplicemente non significano nulla).

Con l’AI ci si affida alle macchine per dare risultati che spesso sono banali correlazioni scambiate per legami causali, di causa ed effetto, perché non c’è tempo per ragionare sui disegni di studio, sulle fonti di bias e confondimento, e per capire cosa affettivamente quel singolo studio è in grado di dire e cosa no. Si chiede alle macchine di pensare al nostro posto, perché chi usa senso critico rallenta il processo e non è funzionale alla massimizzazione del risultato. Anche durante la pandemia abbiamo sentito dire frasi come “qui parlano i dati”, ma i dati non parlano da soli (filosoficamente: non “parlano” affatto e sono asemantici).

Il problema è quando assumiamo i risultati del singolo studio e le parole dell’esperto di turno come verità assolute. Ora sempre di più ci si affida all’“intelligenza” artificiale come un che salvifico: “Visto che non possiamo affidarci agli scienziati, perché si contraddicono tra di loro, ci affidiamo ai computer. Loro sì che sono neutri, imparziali, potenti e infallibili”. D’altronde c’è una accelerazione sia a livello scientifico che in ambito scolastico grazie alla valanga di fondi Pnrr (5,3 miliardi), previsti per implementare la digitalizzazione anche nei campi dell’umano più delicati e complessi.

C’è una sproporzione di investimenti che mostra l’idea che le macchine possano risolvere sia la mancanza di pensiero che di personale, come se la cura dei pazienti o l’educazione passassero prima da un computer, e dagli schermi, piuttosto che dalle relazioni umane. Eppure il femminismo aveva messo a tema da tempo la pratica del conflitto e della relazione duale in presenza come luogo di libertà, risignificando quest’ultima non in senso individualistico neoliberale, ma appunto come libertà-in-relazione. Per questo ci ha stupito l’adesione delle donne, e in particolare delle femministe, alla politica paternalista della gestione pandemica, tanto sciatta concettualmente quanto pericolosa nel suo colpevolizzare i soggetti e isolarli dalla rete dei principali contatti interpersonali.

Se a costringere la libertà delle donne, entro vincoli materiali e ideologici, era, fino a poco tempo fa, un pensiero patriarcale di stampo conservatore, rivolto al passato, oggi ci troviamo di fronte a uno scenario nuovo. Le spinte illiberali provengono dal futuro, e, in particolare, dagli sviluppi della tecnica, sostenuti da un’ideologia che la assume, acriticamente, come potenza di liberazione, ancor più se lasciata alla ‘mano invisibile’ del progresso.

Di questo vogliamo discutere sabato 17 giugno dalle 16 a Padova, presso Lìbrati. La Libreria delle donne di Padova. Interverranno Tristana Dini, Sara Gandini, Paola Tavella e Chiara Zamboni. Introduce Ilaria Durigon. L’incontro sarà anche in streaming.