Sono passati neanche cinque anni, ma a pensarci ora sembra il Paleozoico: pensate che un tempo, per reclutare un ricercatore, una commissione di concorso leggeva le pubblicazioni presentate dai candidati ed esprimeva un giudizio motivato. Ma le polemiche intorno ai “concorsi truccati”, rilanciate con entusiasmo dalle grandi testate nazionali hanno creato il clima giusto per mandare in pensione questo sistema: la legge Gelmini lo ha spazzato via.

Con il dichiarato intento di rendere impossibili trucchi e magheggi è iniziata così una fioritura di criteri di valutazione “oggettivi”, tesi a misurare la qualità delle pubblicazioni scientifiche con dei semplici numeri. L’idea appare geniale: per fare la classifica dei candidati al ruolo basterebbe sommare i voti relativi alle loro pubblicazioni, magari su un bel foglio Excel, pastrugnando un po’ la formula per tenere conto dell’età e qualche altro dettaglio. Cosa può esserci di più oggettivo di così? La gallina di Colombo ha fatto un altro uovo!

Però. Come si fa a dare il voto agli articoli? In teoria si potrebbe affidare questo compito a degli esperti del campo che leggano e votino le pubblicazioni: però gli esperti potrebbero imbrogliare a favore del mio cuggino di turno, e siamo daccapo. No: qui bisogna trovare un modo perché la pubblicazione non venga valutata da un umano!

Scendendo nella scala evolutiva la prima scelta ricadrebbe sui bonobo, ma dar loro da leggere certe pubblicazioni scientifiche (pensiamo a quelle di alcuni economisti) è apparsa a tutti una tortura troppo mostruosa. I valutatori si sono quindi responsabilmente dedicati alla costruzione di formule matematiche basate su fattori oggettivi e misurabili.  

Ma quali sono questi fattori-x? Forse ispirati dal nome, la comunità internazionale dei valutatori ha pensato di adottare i criteri delle emittenti televisive. Il programma migliore è quello che fa gli indici di ascolto più alti? Allora misuriamo la popolarità delle pubblicazioni!

Il sistema si basa su un assunto: le citazioni ricevute da un articolo equivalgano ad attestati di qualità. Per misurare la “qualità” si contano quindi le citazioni che l’articolo ha ricevuto e/o il numero di citazioni medio della rivista su cui è apparso (l’impact factor). Le possibilità sono infinite: l’agenzia italiana di valutazione ANVUR, pasdaran di livello mondiale in questo campo, torturando a dovere i dati condensa la valutazione della qualità della ricerca di un intero ateneo, non importa quanto grande e differenziato, in un singolo numero!  La carriera di qualsivoglia ricercatore viene invece ridotta a tre numeretti, il cui fine ultimo è eugenetico: quelli che non sono sopra la media per almeno due dei tre parametri sono fuori! Essere figli, amanti o provetti lustrascarpe di un prestigioso ordinario non servirà più a nulla. Valutazione automatizzata batte baroni cento a zero?

La risposta è no. Il guastafeste di turno porta il nome di Legge di Campbell: più un indicatore sociale quantitativo viene utilizzato per fare delle scelte, più è soggetto alla “corruption pressure” e finisce per distorcere e corrompere le scelte effettuate. In Italia la legge di Campbell è nota sin dai tempi dei Latini: “fatta la legge, trovato l’inganno”. Nel nostro caso: più ci si affida al numero di citazioni per attribuire finanziamenti e per decidere la carriera del singolo, più le persone interessate troveranno il modo di farsi citare a prescindere dalla qualità delle loro pubblicazioni.

E così è stato: sotto la pressione dei tanti allettati dalla posta in palio il parametro magico si è ben presto rivelato un colabrodo. Sono spuntate cordate di ricercatori che si citano a vicenda; gli articoli, trasformati in macchine per citazioni (sia fatte che ricevute), si sono magicamente moltiplicati tramite spezzettamento dei contenuti. I baroni si sono tutelati: nei comitati editoriali delle riviste ci sono proprio loro, ed alcuni editors suggeriscono ai ricercatori di aggiungere alla bibliografia alcune citazioni di un particolare autore o rivista. Senza parlare poi della necessità di definire quali siano le riviste “scientifiche”: qui l’ANVUR ha dato il meglio di sé, includendo nell’Olimpo della scienza riviste del calibro di Suinicoltura, Yacht Capital, La Rivista del Clero Italiano e facendo sbellicare dalle risate l’intera comunità scientifica internazionale.

E’ notizia recente che anche il CUN ha deciso di cimentarsi sul tema. Forse in ossequio alla ventata di rinnovamento grillino ha deciso di rivolgersi alla rete e promuovere una consultazione pubblica online. Lo scopo è quello di definire nientemeno che cosa sia “scientifico” e cosa no, tramite un questionario epocale (più di 90 domande!) che fa impallidire le diatribe sul sesso degli angeli e si guadagna un posto di diritto nell’Empireo della tetrapiloctomia.

I guai non sono finiti: il software che conta le citazioni non ha modo di capire se queste siano positive o negative, quindi anche le stroncature di un lavoro contribuiscono ad aumentarne la qualità. Tutto fa brodo: nel bene o nel male, basta che se  ne parli.

Nonostante tutto ciò i valutatori rimangono convinti che la strada delle citazioni sia quella giusta e rilanciano. Il risultato è l’Article-Level metrics. Elaborato dalla SPARC, un’associazione internazionale di biblioteche universitarie, l’ARL conta tutto ciò che è relativo all’articolo: tweet, like su Facebook, citazioni su LinkedIn, su Wikipedia, su vari siti di sharing e di news e sui blogs, commenti inclusi. Gli autori propongono di utilizzarlo per dare una “nuance critica” al reclutamento dei ricercatori, decantandone l’”immediatezza” e la “granularità”.

Tra gli abissi della presentazione dell’ARL c’è solo un barlume di luce: quando si afferma che l’esitazione dell’Accademia a decidere il reclutamento di un professore in base a canali “meno consolidati” come Facebook e Twitter è “comprensibile”. Eppure, nel caso italiano, mi pare un’affermazione sin troppo ottimistica. Mentre in Francia l’agenzia di valutazione è stata chiusa in seguito ad ondate di proteste e in Germania centinaia di studiosi boicottano la frenesia valutativa, l’accademico italiano medio impegna lietamente ed acriticamente ore e ore del suo tempo a riempire moduli, calcolare indici e studiare strategie per incrementarli, dedicando una parte sempre crescente della sua attività a valutare e ad essere valutato, totalmente dimentico della funzione sociale del suo lavoro di didattica e ricerca, capace di infastidirsi se qualcuno gliela ricorda.

Quindi, se posso dare un consiglio agli aspiranti scienziati: cominciate a stringere amicizie su Facebook, iscrivetevi a Twitter e datevi da fare per raccogliere tanti followers. E per quanto riguarda l’argomento di ricerca, ispiratevi a Voyager e ricordate che le scie chimiche sono cliccatissime, quasi più dell’oroscopo di Brezsny.