Qualche giorno fa ho scritto un post a commento del blitz degli animalisti nei laboratori dell’Università di Milano. Lo scopo del post era quello di offrire alcuni spunti di riflessione sull’importanza della ricerca su animali nella biologia e nella medicina. Come prevedibile, ci sono stati molti commenti contrari e in alcuni di essi si suggeriva che le possibilità offerte dalla bioinformatica potrebbero oggi sostituire la sperimentazione animale. Come tutti quelli che fanno ricerca in materie attinenti (io non faccio ricerca su animali, ma su molecole biologiche) anche io ho avuto bisogno di programmare modelli computerizzati di sistemi biologici, anche se estremamente semplificati.

Voglio provare a spiegare in questo post per quale motivo la bioinformatica è uno strumento fondamentale della ricerca biomedica ma non potrà mai sostituirsi alla sperimentazione, al massimo affiancarla.

Un modello computerizzato di un sistema biologico è un insieme di equazioni che, date certe condizioni iniziali scelte dall’operatore, è in grado di calcolare e predire i valori di alcune variabili di interesse del sistema. Chiariamo subito che il test del modello è la verifica sperimentale della predizione; nessuno scienziato si fiderebbe della sola predizione. La prof.ssa Anna Tramontano, fisica ed esperta di bioinformatica riconosciuta a livello mondiale, con la quale avevo parlato di questo articolo, mi ha fatto notare che persino nella fisica, che possiede una branca puramente teorica, è stato cercato per anni il bosone di Higgs, sebbene fosse stato ampiamente predetto. Perché? Perché la sola predizione non equivale alla scoperta. Consegue che il miglior modello teorico non evita la necessità dell’esperimento; al massimo riduce il numero degli esperimenti necessari. In alcuni casi la predizione del modello è inattesa, sorprendente: se l’esperimento la conferma, il modello ci ha guidato ad una scoperta; altrimenti, peccato, il modello aveva un difetto.
 
La conferma della predizione non è l’unico e neppure il principale momento in cui il modello richiede il conforto del dato sperimentale. Il modello infatti descrive alcuni aspetti (non tutti!) del sistema biologico basandosi su leggi chimiche e fisiche e su parametri empirici caratteristici del sistema, che devono essere determinati sperimentalmente. Il più piccolo modello bioinformatico è troppo complesso per essere usato come esempio in questa sede: proverò quindi a spiegare come potrebbe essere fatto il modello di un etto di prosciutto. Tutti sanno com’è fatto l’esperimento: il salumiere taglia fette di prosciutto, le mette sulla bilancia e arrivato a un etto si ferma. Il modello è un po’ più complesso: un etto di prosciutto è fatto di N fette, ciascuna di area A, spessore H e densità D, tale per cui la somma di N volte AxHxD fa un etto. L’utilizzazione di questo modello richiede la misura sperimentale di A, H e D per ciascuna delle N fette: un grande numero di dati sperimentali! Il modello ammette semplificazioni: essendo un etto una quantità piccola, è possibile assumere che i parametri A e D siano costanti; H può facilmente essere mantenuto costante e dati i vincoli del sistema  (il peso totale è un etto) N può essere calcolato anziché misurato. Questo riduce il numero di misure sperimentali ai soli tre parametri A, H e D, che sono però pur sempre il triplo di quelli usati nell’esperimento (la pesata diretta, al modo del salumiere). Ovviamente le approssimazioni sono comode, ma riducono l’accuratezza delle predizioni del modello.
 
E’ in corso da alcuni anni un ambiziosissimo progetto di bioinformatica dei sistemi nel quale un gruppo di ricercatori di Barcellona, guidato dal prof. L. Serrano sta cercando di simulare interamente al computer il metabolismo del microorganismo Mycoplasma pneumoniae. Questo batterio parassita le cellule dell’ospite sensibile (nell’uomo causa una polmonite) e per questo può permettersi un genoma estremamente ridotto: poco meno di 700 geni per altrettante proteine (l’uomo ne ha tra 25.000 e 30.000). Se si rinunciasse a modellizzare la regolazione della loro biosintesi, il modello richiederebbe come minimo la determinazione sperimentale di tre – quattro parametri per ciascuna di esse (la concentrazione e le costanti chimico fisiche essenziali) per un totale di ben oltre 2000 parametri! In effetti il modello del prof. Serrano è più ambizioso e richiede corrispondentemente più informazione sperimentale. Ammettendo che questo esperimento abbia successo, sarebbe in grado di predire l’effetto di un nuovo antibiotico? Purtroppo no: per introdurre l’antibiotico nella simulazione noi dovremmo determinare sperimentalmente a quale delle 700 proteine si lega e con quali costanti di affinità e fornire questi dati al programma, insieme con la concentrazione della sostanza. 
 
Indubbiamente gli esempi discussi in questo post non sono esaustivi: si possono costruire (programmare) molti modelli computerizzati di sistemi biologici con finalità e capacità predittive diverse. Rimane però il fatto fondamentale che il modello fa uso e necessita di dati sperimentali e non può sostituirsi all’esperimento biologico anche se a volte può sostituire misure fatte su animali con misure fatte su macromolecole biologiche purificate, eticamente meno problematiche. Inoltre il modello non può tenere conto dei meccanismi biologici che non abbiamo ancora scoperto e che sono perciò ignoti al suo programmatore: questi ci appariranno come discrepanze inspiegate tra la predizione e l’esperimento.
 
Ringrazio la prof.ssa Anna Tramontano e la dott.ssa Veronica Morea per molti suggerimenti e commenti sul materiale contenuto in questo post