Il mondo FQ

L’intelligenza artificiale rischia di diventare un anestetico mentale: i chatbot vanno usati consapevolmente

L'uso massiccio di ChatGPT tra gli studenti rischia di sostituire il pensiero critico con risposte preconfezionate
L’intelligenza artificiale rischia di diventare un anestetico mentale: i chatbot vanno usati consapevolmente
Icona dei commenti Commenti

di Francesco Branda*

Negli ultimi anni, l’Intelligenza Artificiale (IA) ha smesso di essere una curiosità tecnologica per diventare una presenza quotidiana nelle università. Chatbot come ChatGPT e strumenti simili sono ormai compagni abituali di studio per milioni di studenti, capaci di generare testi, sintetizzare concetti complessi e suggerire percorsi di approfondimento. Tuttavia, questa efficienza può diventare una trappola. Gli studenti confondono la rapidità con la comprensione e la sintesi algoritmica con il pensiero critico. La creatività, che nasce dall’errore, dal confronto con l’ignoto e dalla fatica mentale, viene sostituita da prodotti standardizzati e coerenti, ma privi di originalità. Inoltre, delegare la riflessione a una macchina rischia di indebolire la capacità di valutare criticamente le fonti e di sviluppare argomentazioni personali, riducendo curiosità e impegno, elementi fondamentali della formazione universitaria.

Come docente universitario, osservo con interesse e preoccupazione questo fenomeno: se da un lato l’IA offre opportunità straordinarie, dall’altro il suo uso massiccio rischia di alterare profondamente la natura dell’apprendimento e del pensiero critico. Studi recenti, come quelli riportati da Nature da Helen Pearson nel 2025 e dal MIT Media Lab, evidenziano che delegare compiti cognitivi a un algoritmo può ridurre l’attività cerebrale legata al ragionamento autonomo e alla creatività, fenomeno che possiamo definire “pigrizia cognitiva”. Gli studenti rischiano così di perdere l’allenamento necessario per sviluppare originalità, problem solving e giudizio autonomo.

Il problema non è vietare l’uso dei chatbot, ma insegnare a usarli consapevolmente. La mia esperienza in aula suggerisce alcune strategie efficaci: proporre agli studenti di confrontare le risposte generate da un chatbot con articoli scientifici o testi di riferimento, analizzando differenze concettuali, omissioni o semplificazioni eccessive. L’output algoritmico diventa così un terreno di indagine, stimolo alla riflessione critica e discussioni fertili. Allo stesso tempo, incoraggio l’uso dei chatbot come strumenti di ideazione preliminare: gli studenti possono partire da mappe concettuali o linee argomentative generate dall’IA, ma devono rielaborarle, integrarle con le proprie letture e sensibilità, e anche contraddirle. L’annotazione del processo di lavoro permette di sviluppare consapevolezza metacognitiva, essenziale in un mondo in cui le informazioni sono sempre più accessibili ma raramente criticate. Integrata in questo modo, l’IA non appiattisce il pensiero: lo stimola, lo affina e lo sfida.

La sfida educativa va oltre la tecnica. Riguarda la formazione di menti autonome e creative. L’IA può essere uno strumento straordinario, capace di ampliare le conoscenze e accelerare lo studio, ma rischia di diventare un anestetico mentale se non accompagnata da strategie pedagogiche consapevoli. I dati confermano l’urgenza di una pedagogia attiva. Oltre il 60% degli studenti universitari usa regolarmente chatbot per scrivere o fare ricerca. In Italia, l’uso quotidiano di IA generativa tra studenti delle superiori e universitari è raddoppiato nell’ultimo anno. Se da un lato la collaborazione uomo-IA può aumentare la produttività, dall’altro tende a ridurre la diversità delle idee e la capacità di innovare. La creatività, l’immaginazione e il giudizio critico non possono essere delegati a un algoritmo, sono il cuore dell’esperienza universitaria.

Oltre agli effetti immediati sulla creatività e sul pensiero critico, la diffusione massiccia dei chatbot pone una questione più profonda: cosa significa educare nell’era in cui la conoscenza può essere generata in pochi secondi da un algoritmo? L’università non è solo un luogo di apprendimento di contenuti, ma una comunità intellettuale in cui si apprendono metodi di ragionamento, senso critico e autonomia morale. Se delegare il pensiero diventa prassi, rischiamo di insegnare agli studenti a “consumare risposte” piuttosto che a costruire conoscenza. La tecnologia, in questo scenario, non è più solo uno strumento, diventa un arbitro della nostra capacità di pensare e di immaginare.

In questa prospettiva, il ruolo del docente non è limitato a trasmettere contenuti, ma diventa una forma di resistenza culturale. Stimolare dubbi, incoraggiare domande senza risposta immediata, creare spazi di discussione e confronto. Queste attività assumono oggi un valore strategico. L’educazione deve insegnare a tollerare l’incertezza, a convivere con l’incompletezza delle informazioni e a coltivare il gusto della scoperta, caratteristiche che un algoritmo non può replicare.

In ultima analisi, l’IA ci obbliga a ridefinire il concetto stesso di pensiero umano: non come accumulo di dati o sintesi di informazioni, ma come capacità di interrogare, sorprendersi e immaginare. Solo guidando gli studenti a usare l’IA come stimolo e non come sostituto, l’università potrà continuare a formare cittadini e professionisti capaci di innovare e pensare in autonomia. La tecnologia deve accompagnare il pensiero, mai sostituirlo. La sfida più grande dell’educazione digitale non sarà competere con l’IA, ma coltivare la capacità di pensare ciò che l’IA non può immaginare. L’algoritmo può fornire risposte, ma solo la mente umana può creare domande che cambiano il mondo.

*Professore Unità di Statistica Medica ed Epidemiologia Molecolare, Università Campus Bio-Medico di Roma

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione