Scuola

Concorsi universitari, non ci sono solo bravi o raccomandati. Io vedo problemi non scandali

Il recente servizio di Riccardo Iacona a Presa Diretta ha riaperto l’annosa questione dei concorsi “truccati” nelle università. Non è mia intenzione difendere gli abusi di potere, che certamente esistono e che di quando in quando vengono portati in luce da indagini della magistratura. Però bisogna diffidare delle ricostruzioni basate soltanto sulle indagini, perché queste fotografano necessariamente gli eventi peggiori possibili nel sistema e non danno informazione sulla sua complessità e sul suo funzionamento “medio”. Premetto che io insegno Biochimica e conosco soltanto l’ambito limitato della mia materia, che però è abbastanza simile a quello di tutte le scienze “dure”.

La percezione generata dalle inchieste come quella di Iacona, un giornalista del quale ho grande stima, è che ai concorsi universitari si presentino candidati molto nettamente divisi in due gruppi: bravi e somari raccomandati e che uno tra i secondi vinca scavalcando non solo gli altri somari raccomandati, ma anche e soprattutto i bravi. Questa visione, nel campo delle scienze dure è completamente falsa. In primo luogo i candidati non si dividono nettamente in gruppi ma si distribuiscono su una curva a campana, in genere piuttosto stretta e la commissione può al massimo stilare una graduatoria di merito nella quale ciascun candidato è molto prossimo per punteggio a quelli che lo precedono e lo seguono. Inoltre, la scelta dei parametri che la commissione decide di utilizzare cambia necessariamente le posizioni in graduatoria.

Il vantaggio delle scienze dure in questo tipo di analisi sta nel fatto che, al contrario delle discipline umanistiche, possono utilizzare per la valutazione dei candidati dei parametri bibliometrici oggettivi: numero di citazioni, impact factor (una stima del merito della rivista sulla quale appare la pubblicazione del candidato), h-index (una combinazione tra numero di pubblicazioni e numero di citazioni). Capita molto frequentemente che in un concorso nel quale tutti i candidati hanno la necessaria abilitazione scientifica nazionale e sono tutti validi o molto validi, uno di essi ha il più alto numero di citazioni totali, un altro il più alto h-index, e un terzo il più alto impact factor totale. Se la commissione decide di normalizzare i punteggi per l’età accademica, le cose vanno ancora peggio perché ci sarà chi ha il più alto h-index e chi ha il più alto h-index normalizzato e così via.

Qualunque indicatore o combinazione di indicatori la commissione decida di privilegiare ci sarà un vincitore e parecchi sconfitti, ingiustamente penalizzati perché tutti o quasi tutti avevano titoli più che sufficienti per meritare pienamente l’unico posto messo a bando. Ovviamente gli insoddisfatti sono perfettamente in grado di dimostrare, dati alla mano, che avevano titolo per vincere (con i parametri selezionati da loro), e lo raccontano a tutti i loro cugini, i quali poi sparano a zero sul concorso universitario (nella percezione del pubblico non è attendibile né chi è addentro al sistema, perché ha interessi da difendere, né chi non è addentro al sistema perché non ne sa nulla: l’unica voce attendibile è quella del proprio cugino).

La riprova? La ricerca italiana si classifica ottava nel mondo (dati Scimago) su oltre 200 paesi considerati. Ma naturalmente si potrebbe riclassificare variando il numero e il peso dei parametri considerati…