La valutazione dell’università è un argomento di grande dibattito. Il mondo accademico è una realtà complessa e la tentazione di comprenderlo attraverso semplificazioni è forte. Frequentare l’università richiede uno sforzo intellettuale ed economico, ed è perfettamente lecito che studenti e famiglie si chiedano se le loro energie sono ben spese in un ateneo di presunta “eccellenza”. Una risposta errata a questa giusta esigenza sono le cosiddette “classifiche di università”, le quali vorrebbero valutare e comparare interi atenei tramite un singolo numero. I ranking di atenei prendono un concetto che appartiene allo sport agonistico e lo trasferiscono (male) in una realtà completamente diversa. Oltre a poter essere chiaramente considerate pseudoscienza, le classifiche sono anche inutili. Servono solo ai giornalisti per scrivere articoli sensazionalistici.

Il sito Roars è particolarmente attivo nel denunciare e discutere tutti gli aspetti critici delle pseudovalutazioni. La valutazione seria è importante. Per misurare qualcosa è prioritario chiedersi cosa si misuri e soprattutto quale sia il significato della misura. La sfida più grande è però valutare qualcosa di particolarmente complesso. Per la maggior parte degli studenti non è prioritario sapere che il proprio ateneo sarebbe “il primo” tra tanti altri nella ricerca, ma piuttosto se loro avranno dei bravi docenti (didattica). Per capire quanto le classifiche di università siano inadeguate per rispondere a questa esigenza, basti pensare che la “qualità della didattica” nella classifica Arwu (Shangai Ranking, una di quelle più popolari) è valutata come il numero di premi Nobel tra gli allievi di quell’università. Come studente, riterrei prioritario cosa si insegni oggi nella mia università, piuttosto che un mio ex-collega abbia ottenuto il Nobel 50 anni fa nella stessa istituzione.

Agli studenti universitari italiani è richiesto da qualche anno di compilare dei questionari anonimi sulla valutazione del corso (Opinioni degli Studenti, OpiS). Ci sono delle domande particolarmente informative come “il docente è puntuale e presente in aula?”, “è complessivamente soddisfatto/a del corso?” e così via. Le quattro risposte possibili variano da “decisamente si” a “decisamente no”. La compilazione delle schede è un requisito di legge, ma mancano direttive chiare su come elaborare i dati raccolti. La Facoltà di scienze Matematiche Fisiche e Naturali dell’università Sapienza di Roma ha valutato la propria didattica in un modo innovativo. Piuttosto che cercare “l’eccellenza”, in altre parole quei docenti davvero bravi, ha cercato invece di individuare la “pessimenza”, cioè i corsi che presentassero delle criticità. L’articolo che descrive questa valutazione è stato pubblicato da Gianluca Sbardella, Francesco Sebastianelli, Carlo Mariani, Vincenzo Nesi e Andrea Pelissetto sulla rivista scientifica Roars Transactions.

Lo scopo principale non è stato “puniamo i docenti cattivi”, ma piuttosto di capire perché i loro corsi fossero giudicati negativamente. Si potrebbe pensare che i docenti con i punteggi più bassi sono semplicemente quelli più severi con i voti. In realtà, gli studenti sono molto più obiettivi di quello che si possa credere, e sono interessati alla propria formazione. Rispettano molto di più un docente severo che svolga il proprio lavoro con passione piuttosto che uno di “manica larga” che non trasmetta nulla. Se la riposta alla domanda riguardante le presenze in aula del docente è “decisamente no”, questo evidenzia una criticità che deve essere affrontata con la persona, invece se gli studenti sono insoddisfatti dall’aula (es. troppo piccola) questa è una questione organizzativa. La permanenza da parte di un docente nella fascia problematica per più anni non può essere ignorata.

Quando si parla dell’università, molti sottolineano aspetti negativi specifici che sicuramente esistono, ma che in pratica riguardano sono una piccola parte dei docenti. Le condotte errate di alcuni ricadono però su tutta l’istituzione, se non altro perché l’università pubblica italiana ha pochi strumenti per affrontarle e ancora di meno per riconoscerli. Rendere pubblica una valutazione metodologicamente solida è un valido deterrente contro i “comportamenti sbagliati”. Affermano gli autori dello studio: “Senza attribuire valore sacrale a tali suggerimenti, bisogna affermare il dovere di rispondere con puntualità alle critiche, analizzandole con serietà”. Le schede OpiS sono diffuse in tutta Italia: perché non utilizzarle per una valutazione seria e basata su uno studio scientifico, piuttosto che lanciarsi in pseudovalutazioni tipo alcune della ricerca?

Articolo Precedente

Fondi alla ricerca, due sorprese: una vera e una finta

next
Articolo Successivo

Scuola, Lorenzin invia carabinieri dei Nas nelle mense: “Controlli a campione per verificare la qualità del cibo offerto”

next