L’introduzione di parametri quantitativi per “misurare” la qualità della ricerca e dei ricercatori è molto spesso visto come lo strumento per eliminare l’arbitrarietà nelle scelte dei candidati di un concorso, dei finanziamenti di progetti di ricerca, ecc., e dunque per far risalire alla ricerca e all’università italiana la china di una decadenza annunciata. L’idea alla base è che grazie all’analisi d’alcuni parametri bibliometrici (numero d’articoli, numero di citazioni, H-index, Impact factor, ecc.)  sarà possibile scegliere e premiare le persone ed i progetti migliori. Ma è davvero proprio così, oppure l’introduzione dei parametri bibliometrici rappresenta solo l’ennesimo schermo introdotto per nascondere scelte arbitrarie che hanno però ottenuto un superficiale “bollino di qualità”? Non sarà che l’effetto reale sia non solo la deresponsabilizzazione delle scelte, ma anche di immettere nel normale corso della ricerca scientifica dei meccanismi esterni che ne possono influenzare negativamente il suo naturale svolgimento?

I temi legati a questa discussione sono dunque tanti e molto profondi e vanno dall’analisi dello sviluppo stesso della ricerca scientifica, alla differenza della bibliometria nelle diverse discipline, a problemi più tecnici che riguardano il significato di alcuni indicatori bibliometrici, alla completezza delle banche dati usate come riferimento, senza dimenticare il tema centrale della trasparenza nei criteri di valutazione. Dunque, per capire come impostare la valutazione affinché sia efficace, non costringa i ricercatori a lavorare sugli stessi temi, o a produrre gran quantità d’articoli di bassa qualità, o a disincentivare le ricerche più originali, o a generare dinamiche opportunistiche, è necessario considerare gli insegnamenti che provengono da quei paesi in cui meccanismi di valutazione sono stati già introdotti da tempo nonché le acclarate distorsioni perpetrate in nome dell’aumento dei parametri bibliometrici.

Il problema centrale è la pratica comune tra i giovani ricercatori d’investire il proprio tempo nella ricerca “mainstream, ovvero su idee che sono state già ampiamente esplorate in letteratura. Questa tendenza è guidata dalla pressione di una revisione da parte di pari fatta in maniera troppo incalzante, superficialmente e su scala “industriale” e, quindi, in ultima analisi dalle prospettive del mercato del lavoro. Dunque il sistema di valutazione  dovrebbe essere costruito, non solo per premiare i “migliori” in base ai numeri bibliometrici, ma soprattutto per incentivare i giovani ricercatori a destinare una parte del loro “portafoglio accademico” a progetti innovativi con rendimenti rischiosi ma potenzialmente altamente redditizi.

L’Accademia delle Scienze Francese ha recentemente redatto un documento dal titoloSull’uso corretto dei parametri bibliometrici per la valutazione dei singoli ricercatoriin cui si mette in evidenza che il ricorso alla bibliometria non è necessario se non per una rapida panoramica e i valori degli indici non devono essere considerati un elemento decisivo nelle scelte. E’ necesserio però tener presente le notevoli differenze che esistono tra le diverse discipline e sotto-discipline, se si tratta di un ricercatore teorico o di uno sperimentale, se l’attività di  ricerca è legata, ad esempio,  alla costruzione di grandi apparati sperimentali, ecc. Per questi motivi ha poco senso fare riferimento ai parametri medi di una comunità relativamente eterogenea anche se ben definita come, ad esempio, quella che comprende i  fisici.

In Italia,  seguendo la filosofia di introdurre delle soglie minimali, la neonata agenzia nazionale per la valutazione (Anvur) ha introdotto un inedito criterio della mediana, secondo il quale per essere ammessi alla valutazione  è necessario possedere parametri bibliometrici, normalizzati per l’età accademica, superiori alla mediana dello specifico settore concorsuale e della fascia per cui si chiede l’abilitazione. Per fare un esempio concreto, i docenti di fisica hanno una mediana, per quanto riguarda l’indice H, intorno a 15, mentre quelli d’economia intorno a 2. Il criterio della mediana porterebbe dunque a un risultato paradossale: invece di introdurre un meccanismo che stimoli il miglioramento dei campi meno brillanti rispetto a quelli più brillanti, si avrà l’effetto contrario, ovvero una carriera più semplice nei settori scientificamente più deboli e una carriera molto più difficile nei settori di punta.

A mio parere la valanga di numeri che sta per investire l’università e la ricerca italiane non sarà la soluzione di nessun problema, e anzi può essere il nuovo schermo dietro il quale mascherare scelte arbitrarie e opportunistiche, bloccarando definitivamente il sistema universitario sotto una valanga di ricorsi e cavilli giuridici. L’aspetto chiave di un sistema sano di reclutamento e promozioni, più che nella valutazione, è nella responsabilità delle scelte. Questo criterio, comunemente usato nei vari paesi a cui ogni volta si fa riferimento per imitarne solo un aspetto particolare del sistema, è il grande assente che non può essere sostituito da nessun criterio o parametro bibliometrico.