I loro nomi sono tra i più citati nelle pubblicazioni scientifiche in campo biomedico. Compaiono nella speciale classifica dei 400 scienziati più influenti del mondo. Alberto Mantovani, direttore scientifico dell’Istituto slinico Humanitas e docente dell’Università degli Studi di Milano (a sinistra nella foto) e Vincenzo Di Marzo, direttore di Ricerca presso l’Istituto di chimica biomolecolare del Cnr di Pozzuoli (a destra) sono, insieme ad altri sei colleghi, i soli italiani menzionati all’interno di una vasta platea di più di 15 milioni di ricercatori in uno studio di un team di scienziati americani del Prevention Research Center della Stanford University School of Medicine. Ma su quali criteri di valutazione si basano queste classifiche? Quali i limiti e le eventuali distorsioni? Abbiamo chiesto ai due studiosi di spiegarci come la scienza si dà i voti e quanto il nostro Paese aiuta i ricercatori a scalare queste speciali classifiche. 

Nello studio americano sono solo otto gli scienziati italiani menzionati, di cui due lavorano all’estero. Perché così pochi? Quali le principali criticità del nostro Paese? 

Di Marzo – Si possono riassumere in due parole: burocrazia e scarso interesse politico per la ricerca scientifica. La prima rallenta tutte le nostre attività. Anche chi ha la fortuna/bravura di procurarsi fondi esterni può incontrare difficoltà a spenderli. Per ogni cosa bisogna riempire risme di carta e fare mille richieste. Lo scarso interesse dei Governi italiani per la ricerca è atavico. Risulta non solo in un ormai quasi inesistente finanziamento alle nostre attività di ricerca, con conseguente ridotta possibilità di sviluppare, brevettare e sfruttare commercialmente nuove idee. Ma anche in una mediocre conoscenza generale, a partire dalla scuola superiore, degli argomenti scientifici da parte dell’opinione pubblica. Alla quale poi è più facile far credere, come accade puntualmente, in cure miracolose e di scarso contenuto scientifico. O che si possa fare ricerca medica senza alcuna sperimentazione sugli animali.

Mantovani – Le criticità purtroppo non sono poche. Innanzitutto il nostro Paese investe poco e male in ricerca scientifica: meno della metà dei nostri competitors in rapporto al Pil (1% contro oltre il 2%). Inoltre, il nostro sistema di ricerca soffre di scarsa meritocrazia, poca flessibilità, insufficiente trasferimento tecnologico. La produzione scientifica italiana – se normalizzata per l’investimento in ricerca o per il numero dei ricercatori – è molto buona (pari al 3% del totale mondiale, secondo dati Ocse e dati inglesi recenti), ma è sostenuta da una parte dei ricercatori con una quota importante totalmente improduttiva. In una partita Italia-Germania, noi rappresentiamo il 75% come output di ricerca ma solo il 19% come brevetti. 

Mancano scienziati stranieri di alto livello che lavorano in Italia. Perché siamo bravi a esportare studiosi di qualità ma non riusciamo ad attrarne dagli altri Paesi?

D M – Le ragioni sono le stesse che ho già elencato. In più, e lo dico da ricercatore che è spesso all’estero per congressi ed altre attività di collaborazione, purtroppo il nostro Paese, spesso non a torto, non gode oggi di molta credibilità. Viene considerato bello ed unico da visitare (e speriamo che questa considerazione duri), ma molto faticoso allorché ci si voglia trasferire per lavoro. 

ML’oro del terzo millennio è grigio: sono i cervelli. E l’Italia, purtroppo, partecipa solo in modo marginale, come puro donatore, a questa moderna corsa all’oro, ovvero alla guerra per i cervelli. I motivi della scarsa competitività del nostro Paese sono l’investimento insufficiente in ricerca, i lacci burocratici (ad esempio le lunghe procedure per ottenere i visti), la scarsa meritocrazia, la rigidità e la non-trasparenza del sistema. Ovviamente, e per fortuna, vi sono delle eccezioni. Nei laboratori di Humanitas, ad esempio, l’ambiente è molto internazionale e i ricercatori provengono da tutto il mondo, dall’Europa così come da Giappone, Taiwan, India, Brasile, Colombia, Cuba, Canada e Usa. 

Quanto sono importanti classifiche come quella americana per il progresso e la circolazione delle conoscenze? E quanto per il reclutamento degli studiosi e il finanziamento delle ricerche?

D M – Sono importanti ma non devono rappresentare l’unico parametro di valutazione. Contano perché misurano direttamente l’impatto di una ricerca dal numero di citazioni che essa ottiene, a prescindere da dove e come viene pubblicata, in lavori successivi. Misurano quindi quanto essa è risultata utile, negli anni, al lavoro di altri ricercatori. Infatti, va ricordato che ogni buon risultato di una ricerca per far progredire la conoscenza ed applicarla a prodotti che migliorino la qualità della vita di tutti è, allo stesso tempo, un punto di fine ma anche l’inizio di studi ulteriori. Studi che non possono non partire da un’attenta consultazione della letteratura scientifica pregressa. Ci sono però ottimi ricercatori giovani, che hanno pubblicato ancora pochi lavori ma molto citati, che vengono penalizzati da queste classifiche. I parametri bibliometrici usati per queste ricerche andrebbero quindi normalizzati per l’età del ricercatore e magari anche per il numero delle sue pubblicazioni, che rimane comunque una misura di produttività scientifica se considerata assieme ad altri fattori.  Ai fini del reclutamento degli scienziati e del finanziamento della ricerca, invece, l’incidenza di classifiche come quella americana è, ahimè, ancora troppo bassa. Almeno in Italia.

M – Le classifiche di per sé non incidono sul progresso e la circolazione delle conoscenze, ma più che altro offrono una fotografia della situazione dei diversi atenei, basandosi su dati e parametri differenti: nel ranking di Shanghai, ad esempio – una delle classifiche più popolari insieme a quella del Times e di Taiwan – pesano gli “Highly cited”, ovvero gli scienziati più citati negli articoli scientifici. I ranking sono dunque uno dei terreni sui quali si svolge la corsa all’oro grigio, perché influiscono sull’attrattività degli studenti, da sempre liberi di scegliere l’ateneo dove si crea e si trasmette meglio la conoscenza. A livello individuale, poi, le citazioni sono fattori che pesano molto nella competizione per ottenere finanziamenti. 

Come si fa a stabilire il valore di un ricercatore e l’impatto delle sue ricerche? 

D M – Dalle citazioni che i suoi lavori ricevono nel tempo da ricercatori pari. Ma non solo. Anche dalla capacità di attrarre finanziamenti internazionali e stabilire collaborazioni. E, alla fine, dall’impatto che le scoperte originate dai suoi studi (assieme a quelli di altri) hanno sul miglioramento della qualità della vita.

M – Il giudizio sul valore di una ricerca e di un ricercatore è sempre qualitativo più che meramente quantitativo. Alla fine della giornata conta se e cosa hai scoperto. Gli indici bibliometrici misurano l’impatto degli studi di uno scienziato e sono alcuni fra gli strumenti che permettono di formulare un giudizio, ma non possono costituire il giudizio stesso. 

Il Nobel per la medicina del 2013, Randy Schekman, lo scorso dicembre alla cerimonia di consegna del premio ha criticato Nature, Science e Cell, accusandole di “distorcere il progresso della scienza dando vita a una tirannia che incoraggia gli scienziati a dedicarsi a campi di tendenza”. Quanto il prestigio di una rivista, il cosiddetto impact factor , può condizionare la pubblicazione di una ricerca e il lavoro di uno scienziato? Quanto conta il settore specifico di ricerca in cui si opera? 

D M – Il prestigio conta troppo, e lo dico con l’esperienza personale di chi ha pubblicato molto su queste riviste, ma si è anche visto rifiutare lavori che reputava importanti, e spesso per futili motivi. Sono d’accordissimo con Schekman. Queste riviste, con la scusa che non hanno risorse e tempo per esaminare tutti i lavori che ricevono, hanno comitati editoriali che decidono, spesso arbitrariamente, ciò che è importante e ciò che non lo è, senza consultare dei veri e propri revisori esperti nel campo. Il settore scientifico in cui si opera conta, ma anche il Paese e l’ateneo o istituto di ricerca dove si opera. O, ancora peggio, “chi si conosce” (tutto il mondo è paese per certe cose), dando luogo a volte a vere e proprie discriminazioni. Eppure, in alcuni istituti non si può essere assunti senza avere queste pubblicazioni, o non si può avere accesso a finanziamenti. È importante che un ricercatore, specialmente se giovane, cerchi sempre, lavorando coscienziosamente, di pubblicare su riviste come Nature, Science o Cell per avere più visibilità. Ma queste, ed altre riviste ad alto impatto, hanno decisamente troppo potere. 

M – Non vi è dubbio che vi siano tendenze e che le riviste scientifiche più autorevoli privilegino settori diversi in fasi specifiche, condizionandone così indirettamente lo sviluppo. Posso tuttavia portare la mia esperienza personale: io ho pubblicato su Nature, Science, Lancet e New England Journal of Medicine su argomenti che, al tempo, non erano main stream, contribuendo anzi a creare una nuova tendenza. Ai giovani ricercatori del mio team dico sempre che devono cercare di pubblicare sulle riviste migliori e più attinenti allo specifico settore, ma ricordo anche che Dennis Burkitt documentò il primo tumore umano da virus (linfoma di Burkitt) su una rivista di chirurgia, il British Journal of Surgery. 

Un anno fa migliaia di studiosi di alcune tra le principali istituzioni scientifiche, come Cambridge, Oxford, Harvard e Yale, tra cui premi Nobel e medaglie Fields, hanno creato una petizione on line per boicottare i costosi pacchetti di abbonamenti proposti da Elsevier, principale editore scientifico, accusati di drenare preziosi fondi ad accademie, università ed enti di ricerca. Come giudica questa iniziativa e il problema che solleva? 

D M – Non ho un’opinione molto forte al riguardo. Le case editrici devono pur avere un profitto, e oggi affrontare anche la sana competizione delle riviste open access. Non è colpa loro se i fondi per la ricerca sono sempre più preziosi. Esistono molti modi per ridurre le spese di sottoscrizione a queste riviste. Tuttavia, ogniqualvolta ho voluto leggere un articolo di una rivista per la quale il mio istituto non aveva una sottoscrizione, l’ho richiesto direttamente agli autori e l’ho puntualmente ricevuto. La divulgazione dei risultati e la consultazione della letteratura scientifica sono aspetti fondamentali della ricerca e, come tali, vanno tenuti in debito conto da parte degli enti finanziatori.

M – Non sono un esperto di costi. Non credo nel boicottaggio, i colleghi continuano a mandare i lavori alle riviste Elsevier. Per trasparenza devo dire che io stesso sono Editor di una rivista Elsevier, Seminars in Immmunology. Al contempo sono incoming President della International Union of Immunological Societies, nell’ambito della quale è appena stata lanciata una rivista on line open access: Frontiers in Immunology. La sfida è fare meglio di chi c’è già.  

Lo scorso ottobre Science ha pubblicato un numero speciale con un’inchiesta sulle riviste open access, criticando il sistema di contributi chiesti agli autori per la pubblicazione e la procedura di peer review, spesso rivelatasi assente a scapito della qualità della ricerca. Quali sono i limiti del processo di “revisione tra pari”? Come evitare distorsioni, come accaduto in Cina dove, secondo quanto denunciato da Science, si è sviluppato un fiorente mercato per mettere all’asta la paternità degli articoli scientifici?  

D M – Alcune riviste open access pubblicano articoli di scarso contenuto scientifico perché a volte traggono profitto da queste pubblicazioni. Nonostante ciò, credo che un articolo scientifico che presenti nuovi risultati, finché scritto in un linguaggio comprensibile, debba essere sempre pubblicato e disseminato. Sono, infatti, i lettori di quell’articolo, esperti in quel campo, che potranno giudicarne meglio la validità scientifica e, di conseguenza, contribuirne all’impatto (anche in termini di numero di citazioni), che è il vero giudizio finale su ogni pubblicazione. Le distorsioni esistono in ogni campo professionale. È importante riconoscerle, renderle pubbliche ed eliminarle. Personalmente credo che saprei riconoscere, parlandogli, chi ha comprato la paternità di un articolo da chi invece ha svolto e/o coordinato effettivamente il lavoro. Un bravo ricercatore, infatti, lo si riconosce da tanti aspetti, e non solo da quello che pubblica.

M – Il processo di “revisione fra pari” è come la democrazia: molto imperfetto e sicuramente perfettibile, ma comunque il migliore che ci sia. È responsabilità degli Editors e della comunità scientifica sorvegliare e farlo funzionare al meglio. Le frodi – e gli errori – di vario tipo ci sono sempre stati. Ma la forza della scienza sta anche nella verifica e nella capacità del sistema di fare pulizia. Il tema open access introduce quello più generale della responsabilità sociale della scienza, cui sono molto sensibile. Come scienziato ritengo che l’apertura e la trasparenza dei risultati della ricerca sia un dovere, perché per sua stessa natura la scienza è aperta e deve essere messa sempre in discussione. Detto questo, oggi anche grazie alle nuove tecnologie la massa dei risultati della ricerca diventa sempre più grande, e quindi la loro selezione a livello delle riviste scientifiche migliori è uno dei processi attraverso cui sedimentano i risultati più significativi della ricerca scientifica.

Articolo Precedente

Galileo Galilei, l’illusione ottica “svelata” dai ricercatori Usa

next
Articolo Successivo

Dna, da Oxford un atlante genetico della storia umana e le sue “mescolanze”

next