di
Enzo Grossi
Fondazione Bracco - Milano
E' da pochissimi anni che "l'esposomica", una nuova
disciplina fortemente multidisciplinare, fa parlare di sé
e promette di essere un approccio fondamentale per la comprensione
delle malattie croniche degenerative età-correlate.
La prima traccia storica di questa scienza si trova addirittura
negli scritti di Bernardino Ramazzini. Il suo trattato "De
morbis artificum diatriba" pubblicato a Padova nel 1708,
primo studio nella storia della medicina sulle malattie professionali,
è considerata l'atto fondante di quella che oggi viene
chiamata medicina del lavoro. Ramazzini prese in esame ed
analizzò il contesto delle condizioni di lavoro e delle
malattie da esse derivanti, di un elevato numero di mestieri
(40 - 50) e, inoltre, descrisse i possibili rischi per la
salute correlati ad ogni lavoro e i loro possibili rimedi.
Oltre a ciò prese in considerazione, integrandole
con i dati già ottenuti, le condizioni climatiche in
cui questi lavori erano o potevano essere svolti. La relazione
tra rischi e malattia osservate hanno anticipato l'attuale
metodo scientifico, ancora oggi utilizzato, basato su studi
epidemiologici.
Solo grazie alla disponibilità di tecniche analitiche
affidabili la scienza dell'esposizione ha potuto svilupparsi
nel secolo scorso tra gli anni 50 e 70 in complemento alla
medicina del lavoro investigando la concentrazione esterna
ambientale di sostanze chimiche che possono entrare nell'organismo
per inalazione, ingestione o contatto cutaneo.
Negli anni '90 si iniziò a misurare alcuni biomarkers
interni di esposizione a tossici e solo successivamente i
livelli dei composti chimici incriminati. Il vero salto di
paradigma è avvenuto nel 2005 quando Christopher Wild
per la prima volta introduce il termine "Exposome",
in contrapposizione a "genome" per significare tutto
quello a cui un essere umano è stato esposto nel corso
della propria vita, fin dal proprio concepimento attraverso
l'ambiente esterno, (tipo di lavoro, il cibo, l'acqua, l'aria)
ed interno ( es. microbiota; metaboliti derivati da reazioni
infiammatorie o da infezioni). Questi nella consapevolezza
che dopo la descrizione del genoma umano, i risultati dei
costosissimi studi genome-wide association non erano riuscito
a spiegare la maggior parte della variabilità nelle
malattie umane.
Perché è importante valutare l'esposizione?
Come ha spiegato in un famoso articolo pubblicato sulla rivista
Science nel 2010 lo scienziato californiano Stephen Rappaport,
se si adotta una definizione piuttosto ampia dell'ambiente,
buona parte dell'aumento del rischio di cancro e delle malattie
degenerative è prevalentemente legata a fattori ambientali
piuttosto che genetici. Si tratta quindi di un concetto molto
potente, in grado di spiegare per oltre il 90% la possibilità
di andare incontro a malattie croniche degenerative tipiche
dell'età avanzata.
Purtroppo la cifra investita sino ad ora sulla genetica è
stata di gran lunga superiore a quella investita sugli aspetti
ambientali.
Di fatto gli studi epidemiologici non possono chiarire le
cause ambientali delle malattie umane senza un'accurata misurazione
dell'esposizione, ed è proprio in questa direzione
che si stanno concentrando i maggiori sforzi dal momento che
gli strumenti per la valutazione dell'esposizione quantitativa
sono cambiati poco dal 1970.
In pratica, anziché studiare i livelli di sostanze
inquinanti contenute nell'aria, nell'acqua o nella dieta,
si tratta di effettuare queste misurazioni direttamente nell'organismo
umano includendo tutti i prodotti chimici, provenienti da
tutte le fonti, per tutto il tempo trascorso.
Il grosso problema è che le esposizioni sono altamente
dinamiche e quindi difficili da dominare. Concentrazioni di
sostanze chimiche esogene o endogene variano nel tempo fra
le persone e le popolazioni. La scala di variabilità
è enorme e quindi è lecito porsi la domanda
su come possiamo essere sicuri che ci stiamo focalizzando
su sostanze chimiche o su periodi realmente importanti.
L'esperienza fin qui accumulata è tipicamente riferita
alle esposizioni di tipo occupazionale mirando un numero molto
piccolo di composti.
In realtà, come per il microbioma intestinale (che
rientra anch'esso di fatto nell'esposomica), si tratta di
mappare centinaia o addirittura migliaia di sostanze chimiche
a cui iniziamo ad essere esposti già durante lo sviluppo
fetale.
In uno studio guidato dalla Environmental Working Group (EWG)
in collaborazione con Commonweal, i ricercatori di due grandi
laboratori hanno trovato una media di 200 sostanze chimiche
industriali e inquinanti nel sangue del cordone ombelicale
di 10 bambini nati nel mese di agosto e settembre del 2004
negli ospedali degli Stati Uniti. I tests hanno rivelato un
totale di 287 sostanze chimiche in questo piccolo gruppo di
neonati. Il sangue del cordone ombelicale di questi 10 bambini,
raccolti dalla Croce Rossa dopo che il cordone è stato
tagliato, ospitava pesticidi, gli ingredienti di prodotti
di largo consumo e derivati da combustione del carbone, benzina,
e immondizia. (http://www.ewg.org/reports/bodyburden2).
Per ovviare ai limiti nelle tecniche di misurazione diretta
dei composti chimici di interesse l'esposomica fa ricorso
al dosaggio di particolari biomarcatori.
In una recente ricerca che Wild ha condotto per lo sviluppo
di un biomarcatore urinario di una micotossina dei cereali
denominata "deossinivalenolo" o vomtoxin, lo scienziato
ha potuto dimostrare che questa molecola riflette in modo
accurato l'esposizione cronica a questo comune contaminante
della dieta occidentale, in grado anche a basse concentrazioni
di provocare disfunzioni immunitarie.
La lunghezza del telomero, per fare un altro esempio, è
considerabile una sorta di macro-integratore di fattori di
stress" che risultano dalla varietà degli stili
di vita e dei fattori comportamentali. Essendo in particolare
correlata allo stress ossidativo, alla resistenza all'insulina,
e allo stress ormonale e può essere implicata secondo
un modello causale nelle malattie associate all'invecchiamento.
Un altro esempio di biomarcatori intelligenti, questa volta
italiano, si riferisce a modificazioni posttraduzionali in
grado di alterare la funzione e l'immunogenicità di
antigeni proteici, innescando patologie gravi come la sclerosi
multipla.
La glicosilazione è la più importante di queste
modificazioni essendo in grado di modificare la conformazione
delle glicoproteine e di influenzare le interazioni proteina-proteina.
Si pensa perciò che gli zuccheri mascherino gli epitopi
discontinui impedendone il riconoscimento da parte del sistema
immunitario come antigeni self, scatenando una risposta autoimmune.
Nel Laboratorio di Sesto Fiorentino della professoressa AnnaMaria
Papini, dell'Università di Firenze una ricerca multidisciplinare
ha portato allo sviluppo di uno specifico probe antigenico,
CSF114(Glc), un glicopeptide in grado di rivelare, isolare
e caratterizzare specifici auto-anticorpi presenti nel siero
di un significativo numero di pazienti affetti da SM. CSF114(Glc)
è il primo strumento efficiente ed affidabile in grado
di mostrare che una N-glicosilazione aberrante è fondamentale
nel riconoscimento anticorpale nella SM. Si sospetta che una
abnorme translocazione batterica intestinale possa essere
il primum movens di questo fenomeno di glicosilazione aberrante.
Incorporare i Biomarcatori dell'esposizione negli studi di
popolazione
Per trarre vantaggi dai biomarcatori, abbiamo bisogno di pensare
al disegno degli studi di popolazione guardando alle malattie,
e non ai marcatori, come end-point finali. Ogni disegno dello
studio ha qualcosa da offrire, ma abbiamo bisogno di pensare
attentamente alle domande da porre in un particolare tipo
di disegno. Ad esempio, gli studi trasversali (studi di gruppo
con differenti caratteristiche ad un dato momento) abitualmente
consentono un focus su poche persone con un grande dettaglio,
raccolgono molti dati di esposizione, e determinano quali
informazioni addizionali siano necessarie per convalidare
i rapporti fra i biomarcatori di esposizione ipotizzati. Gli
studi di caso controllo possono guardare alle esposizioni
che si sono verificate recentemente qualora i campioni biologici
non siano adeguati. Gli studi di coorte (studi di un gruppo
con un insieme comune di caratteristiche nel corso del tempo)
sono notoriamente i "gioielli della corona" nell'armamentario
dell'epidemiologia, ma i vincoli finanziari spesso limitano
la raccolta di campioni biologici multipli.
I diversi disegni di studio si completano l'un l'altro, e
gli scienziati dovrebbero considerare come integrarli o utilizzarli
in tandem per ottenere un quadro migliore dell'esposizione.
Ad esempio, Rothman ed i suoi colleghi presso il National
Cancer Institute e l'Università della California di
Berkeley hanno utilizzato una serie di studi trasversali per
valutare i biomarcatori dell'esposizione al benzene nei lavoratori.
Gli studi hanno contribuito a sviluppare delle ipotesi che
più avanti sono state testate in studi di corte finalizzati
a seguire i lavoratori nel corso della malattia. Rothman ha
anche suggerito di applicare gli stessi strumenti analitici
negli studi di differenti tipi o classi di esposizione.
La maggior parte dei biomarcatori richiede grandi quantità
di materiale biologico, come il sangue e le urine, e può
quindi essere difficile utilizzarli negli studi di coorte.
Come alternativa, è possibile utilizzare un disegno
di studio misto in cui i biomarcatori costosi da valutare
siano misurati in un solo sottoinsieme di campioni e che su
tutti i campioni siano fatte misurazioni meno costose. Lo
strumento più costoso è poi utilizzato per calibrare
quello meno costoso.
E' auspicabile che in futuro diversi campi scientifici come
quello sociale, nutrizionale, ed ambientale utilizzino tecniche
e tecnologie simili costruendo una interconnessione fra i
diversi campi e di incoraggiando la condivisione di biomarcatori,
questionari, e altri strumenti di ricerca.
"Omiche" ed esposomica
In questo nuovo contesto cosa portano di nuovo le classiche
omiche? Ebbene esse ci rendono capaci di vedere le firme chimiche
uniche dell'esposizione, alcune delle quali possono essere
persistenti e irreversibili, diventando biomarcatori di esposizione
storica. Utilizzando le trascrizioni omiche, Smith e collaboratori
della Berkley University, California, hanno identificato recentemente
tutta una serie di potenziali firme dell'esposizione a tossici
come il benzene, diossina, arsenico, alcune indipendenti dalla
dose e che potrebbero quindi riflettere l'esposizione stessa,
e altre che dipendono dalla dose di esposizione e che riflettono
quindi l'effetto di o risposta ad una esposizione. Per quanto
riguarda i biomarcatori di esposizione storica, altri ricercatori
come Avrum Spira della Boston University utilizzano le omiche
per identificare un modello di geni irreversibilmente alterati
attraverso lo studio dell'espressione genica e del profilo
micro dell'RNA dei fumatori attuali, degli ex fumatori o di
chi non è mai stato fumatore, fornendo così
strumenti per identificare soggetti a rischio di sviluppare
cancro polmonare e targets per la chemoprevenzione.
Altri ricercatori come Jones e coll. stanno utilizzando la
metabolomica (lo studio dei metaboliti prodotti dai processi
cellulari) per esaminare in maniera massiva tutti i composti
che si possono rilevare, anche se l'identità di metà
dei composti chimici nel plasma umano è sconosciuta,
attraverso la "Fourier transform mass spectrometry"
(FTMS), che differisce leggermente dagli approcci tradizionali
rispetto ai profili metabolici. L'FTMS ha l'accuratezza e
la risoluzione di identificare il 90% di tutti i composti
chimici sulla base della loro massa. La metodica ha una velocità
moderatamente elevata ed è molto riproducibile; per
il momento richiede plasma ma in futuro potrebbe essere potenzialmente
utilizzata su spots di sangue.
Una nuova tecnologia delle omiche, è l'adduttomica,
ovvero lo studio degli addotti prodotti da una sostanza chimica
che si lega alle proteine del DNA o del sangue. L'adductomics
può essere utilizzata per caratterizzare le esposizioni
agli elettrofili, una classe estesa di sostanze tossiche reattive
che comprende gli aldeidi, i chinoni, e le specie reattive
di ossigeno. Gli elettrofili hanno un arco di vita breve in
vivo ma formano addotti stabili reagendo con i nucleofili
biologici e dando origine a composti stabili che possono essere
misurati con la spettrometria di massa di ultima generazione.
Secondo Martyn Smith siamo molto vicini all'essere in grado
di utilizzare un approccio olistico che includa la metabolomica,
la trascrittomica, e l'adduttomica su un insieme di campioni
per discernere le differenze tra persone sane e malate. Oggi
è già possibile rintracciare il DNA nelle macchie
secche di sangue, ma nel giro di una decade saremo potenzialmente
in grado di elaborare l'esposomica in una goccia di sangue.
Ovviamente questa crescita della tecnologia crea inevitabilmente
un enorme sfida informatica. Il vero problema dell'esposomica
è dovere gestire una tale quantità di dati di
diversa natura, senza avere facilmente a disposizione adeguati
strumenti per la loro elaborazione. Gestire l'informazione
è ormai diventato un pesante carico per chi si occupa
di salute pubblica. Come ho più volte ricordato in
precedenti editoriali uno dei più straordinari sviluppi
nel vasto campo della tecnologia informatica è relativo
alla "Intelligenza Artificiale" e in particolare
ai cosiddetti "Sistemi Artificiali Adattivi", che
possono essere considerati i più avanzati strumenti
di informatica intelligente attualmente disponibili e che
si sono rivelati uno strumento particolarmente appropriato
per rispondere alle necessità nell'area biomedica.
Il contributo delle Artificial Sciences
Le Reti Neurali Artificiali (RNA) e gli Algoritmi Evolutivi
(AE) sono l' espressione più avanzata all'interno delle
cosiddette "Artificial Sciences", ispirati, rispettivamente,
ai processi di funzionamento del cervello umano e alla teoria
dell'evoluzione. Si tratta di sistemi capaci di modificare
la loro struttura interna in relazione ad una funzione obiettivo.
Sono particolarmente utili per risolvere problemi di tipo
non lineare, in quanto capaci di ricostruire le regole approssimate
che legano un certo insieme di dati - che descrivono il problema
da considerare - con un insieme di dati che forniscono la
soluzione (RNA) o di ricostruire i dati ottimali per un dato
insieme di regole o vincoli (AE).
Nell'ambito delle Artificial Sciences il computer ha un rapporto
simile a quello che la scrittura ha con la lingua naturale.
Queste scienze sono costituite da algebre formali per la generazione
di modelli artificiali (strutture e processi), nello stesso
modo in cui le lingue naturali sono fornite di una semantica,
di una sintassi e di una pragmatica per la generazione di
parole e testi.
Nelle Artificial Sciences la comprensione di un qualsiasi
processo naturale e/o culturale avviene in modo proporzionale
alla capacità del modello artificiale automatico di
ricreare quel processo.
Più la comparazione tra processo originale e modello
generato dà esito positivo, più è probabile
che il modello artificiale abbia esplicitato correttamente
le regole di funzionamento del processo originale.
Questo confronto, tuttavia, non può essere effettuato
in modo ingenuo. Sono necessari sofisticati strumenti di analisi
per fare una comparazione attendibile tra processo originale
e modello artificiale.
La Natural Computation è quella parte delle Artificial
Sciences che tenta di costruire modelli automatici di processi
naturali tramite l'interazione locale di microprocessi non
isomorfi al processo originale.
Nella Natural Computation si assume, quindi, che qualsiasi
processo sia il risultato, più o meno contingente,
di processi più elementari che tendono ad auto-organizzarsi
nel tempo e nello spazio e che nessuno dei microprocessi sia
di per sé informativo circa la funzione che assumerà
rispetto agli altri, né del processo globale di cui
sarà parte.
Questa filosofia computazionale, poco economica per la creazione
di modelli semplici, può essere utilizzata efficacemente
per creare qualsiasi tipo di sistema o modello che s'ispiri
a processi complessi, ossia a fenomeni di fronte ai quali
le teorie classiche hanno trovato notevoli difficoltà.
È questa la ragione per la quale nella Natural Computation
l'analisi e la generazione di modelli artificiali altamente
non lineari è particolarmente presente e ne rappresenta
un punto di forza.
La Natural Computation tenta di ricreare processi naturali
e/o culturali costruendo modelli artificiali in grado di generare
dinamicamente regole locali, suscettibili di cambiamento in
accordo al processo stesso. Nella Natural Computation una
dinamica come "l'apprendere ad apprendere" è
implicita nei modelli artificiali stessi, mentre nella Classical
Computation, invece, c'è bisogno di creare ulteriori
regole.
Il Centro Ricerche Semeion di Roma, guidato dal prof. Massimo
Buscema rappresenta oggi un fiore all'occhiello per il nostro
paese in questo particolare settore per i contributi teorici
e applicativi forniti a livello internazionale. http://www.ebooks.com/864231/artificial-adaptive-systems-in-medicine/buscema-massimo-ed--grossi-enzo-ed/
Considerazioni finali
Che il problema dell'esposizione ambientale a tossici sia
di grande attualità a livello epidemiologico, lo si
percepisce anche nel nostro paese. E' recente (2011) la pubblicazione
sulla rivista Epidemiologia e Prevenzione del progetto SENTIERI
(Studio Epidemiologico Nazionale dei Territori e degli Insediamenti
Esposti a Rischio da Inquinamento) che riguarda l'analisi
della mortalità delle popolazioni residenti in prossimità
di una serie di grandi centri industriali attivi o dismessi,
o di aree oggetto di smaltimento di rifiuti industriali e/o
pericolosi, che presentano un quadro di contaminazione ambientale
e di rischio sanitario tale da avere determinato il riconoscimento
di "siti di interesse nazionale per le bonifiche"
(SIN).
ttp://www.epiprev.it/pubblicazione/epidemiol-prev-2011-35-5-6-suppl-4
Lo studio ha preso in considerazione 44 dei 57 siti oggi compresi
nel "Programma nazionale di bonifica", che coincidono
con i maggiori agglomerati industriali nazionali; per ciascuno
di essi si è proceduto a una raccolta di dati di caratterizzazione,
e successivamente a una loro sintesi.
La mortalità è stata studiata per ogni sito,
nel periodo1995-2002, attraverso vari indicatori.
La popolazione residente al Censimento 2001 nei 44 SIN inclusi
in SENTIERI costituisce approssimativamente il 10% della popolazione
italiana.
Dallo studio è emerso che in tutti i SIN la mortalità
supera il valore atteso, con un rapporto standardizzato di
mortalità di 115.8 per gli uomini e 114.4 per le donne.
Nei 44 SIN si è osservato un totale di 26361 decessi
contro un valore atteso di 22853, vale a dire 3 508 decessi
in eccesso rispetto a quelli attesi (2 439 negli uomini e
1 069 nelle donne), equivalenti a 439 decessi per anno nel
periodo 1995-2002, un dato questo particolarmente inquietante,
anche in rapporto ai recentissimi avvenimenti economico-sociali
di Taranto legati all'ILVA.
In conclusione dal momento che come ricordato le variazioni
genetiche probabilmente giocano un ruolo complessivo relativamente
minore nelle malattie degenerative e nel cancro, dovremmo
dedicare una maggiore attenzione alle esposizioni ambientali
per migliorare la salute umana. E' tuttavia necessario spostarsi
dal monitoraggio ambientale al bio monitoraggio ed utilizzare
i biomarcatori per identificare ed elaborare l'exposome.
Sviluppare l'esposomica richiederà un impegno straordinario
in molte discipline. Saranno necessari inputs dalla tossicologia
ambientale, dall'epidemiologia, dalla biologia molecolare,
dalla chimica analitica, dalla chemiometria, dalla bioinformatica
e dall'ingegneria e non ultima dalla matematica, discipline
ancora in gran parte scollegate per le quali sarà necessario
sviluppare un linguaggio comune.
Bibliografia di riferimento
Bonassi S, Au WW. 2002. Biomarkers in molecular
epidemiology studies for health risk prediction. Mutat Res
511(1):73-86.
Centers for Disease Control and Prevention. 2009. Fourth National
Report on Human Exposure to Environmental Chemicals. Atlanta,
GA:National Center for Environmental Health, Centers for Disease
Control and Prevention.
Cohen Hubal EA, Richard AM, Shah I, Gallagher J, Kavlock R,
Blancato J, et al. 2010. Exposure science and the U.S. EPA
National Center for Computational Toxicology. J Expo Sci Environ
Epidemiol 20(3):231-236.
Franco G. 1999. Ramazzini and workers' health. Lancet 354(9181):858-861.
Georgopoulos PG, Lioy PJ. 2006. From a theoretical framework
of human exposure and dose assessment to computational system
implementatino: the Modeling Environment for Total Risk Studies
(MENTOR). J Toxicol Environ Health B Crit Rev 9(6):457-483.
Georgopoulos PG, Sasso AF, Isukapalli SS, Lioy PJ, Vallero
DA, Okino M, et al. 2009. Reconstructing population exposures
to environmental chemicals from biomarkers: challenges and
opportunities. J Expo Sci Environ Epidemiol 19(2):149-171.
Landrigan PJ, Trasande L, Thorpe LE, Gwynn C, Lioy PJ, D'Alton
ME, et al. 2006. The National Children's Study: a 21-year
prospective study of 100,000 American children. Pediatrics
118(5):2173-2186.
Lioy PJ. 2010. Exposure science: a view of the past and milestones
for the future. Environ Health Perspect 118:1081-1090.
Manolio TA, Collins FS, Cox NJ, Goldstein DB, Hindorff LA,
Hunter DJ, et al. 2009. Finding the missing heritability of
complex diseases. Nature 461(7265):747-753.
Nicholson JK. 2006. Global systems biology, personalized medicine
and molecular epidemiology [Editorial]. Mol Syst Biol 2:52;
doi:10.1038/msb4100095 [3 October 2006].
Ott WR. 1990. Total human exposure: basic concepts, EPA field
studies, and future research needs. J Air Waste Manage Assoc
40(7):966-975.
Ott WR. 1995. Human exposure assessment: the birth of a new
science. J Expo Anal Environ Epidemiol 5(4):449-472.
Papini AM. The use of post-translationally modified peptides
for detection of
biomarkers of immune-mediated diseases. J Pept Sci. 2009 Oct;15(10):621-8.
Review. PubMed PMID: 19714713.
Patel CJ, Bhattacharya J, Butte AJ. 2010. An Environment-Wide
Association study (EWAS) on type 2 diabetes mellitus. PLoS
One 5(5):e10746; doi:10.1371/journal.pone.0010746 [Online
20 May 2010].
Rappaport SM. 2011. Implications of the exposome for exposure
science. J Expo Sci Environ Epidemiol 21(1):5-9.
Rappaport SM, Smith MT. 2010. Environment and disease risks.
Science 330(6003):460-461.
Sexton K, Kleffman DE, Callahan MA. 1995. An introduction
to the National Human Exposure Assessment Survey (NHEXAS)
and related phase I field studies. J Expo Anal Environ Epidemiol
5(3):229-232.
Wallace LA, Pellizzari ED, Hartwell TD, Sparacino CM, Sheldon
LS, Zelon H. 1985. Personal exposures, indoor-outdoor relationships,
and breath levels of toxic air pollutants measured for 355
persons in New Jersey. Atmos Environ 19(10):1651-1661.
Wang Z, Klipfell E, Bennett BJ, Koeth R, Levison BS, Dugar
B, et al. 2011. Gut flora metabolism of phosphatidylcholine
promotes cardiovascular disease. Nature 472(7341):57-63.
Wild CP. 2005. Complementing the genome with an "exposome":
the outstanding challenge of environmental exposure measurement
in molecular epidemiology. Cancer Epidemiol Biomarkers Prev
14(8):1847-1850.
|