Geriatria e gerontologia
credits - editoriale geriatria - meetings - notiziario - pubblicazioni
Presentazione
Una premessa
L'invecchiamento
Tempo libero e solitudine
Geragogia
Alimentazione
Alcolismo
Alcol e invecchiamento cerebrale
Attività fisica
   
  Links
  Email
   
  site design Doublespeak
 
Study of an old Man's Profile - Galleria degli Uffizi - Firenze
L'esposomica : un approccio potente per valutare le esposizioni ambientali e la loro influenza sulle malattie umane. Torna agli editoriali

di
Enzo Grossi
Fondazione Bracco - Milano

E' da pochissimi anni che "l'esposomica", una nuova disciplina fortemente multidisciplinare, fa parlare di sé e promette di essere un approccio fondamentale per la comprensione delle malattie croniche degenerative età-correlate.

La prima traccia storica di questa scienza si trova addirittura negli scritti di Bernardino Ramazzini. Il suo trattato "De morbis artificum diatriba" pubblicato a Padova nel 1708, primo studio nella storia della medicina sulle malattie professionali, è considerata l'atto fondante di quella che oggi viene chiamata medicina del lavoro. Ramazzini prese in esame ed analizzò il contesto delle condizioni di lavoro e delle malattie da esse derivanti, di un elevato numero di mestieri (40 - 50) e, inoltre, descrisse i possibili rischi per la salute correlati ad ogni lavoro e i loro possibili rimedi.

Oltre a ciò prese in considerazione, integrandole con i dati già ottenuti, le condizioni climatiche in cui questi lavori erano o potevano essere svolti. La relazione tra rischi e malattia osservate hanno anticipato l'attuale metodo scientifico, ancora oggi utilizzato, basato su studi epidemiologici.

Solo grazie alla disponibilità di tecniche analitiche affidabili la scienza dell'esposizione ha potuto svilupparsi nel secolo scorso tra gli anni 50 e 70 in complemento alla medicina del lavoro investigando la concentrazione esterna ambientale di sostanze chimiche che possono entrare nell'organismo per inalazione, ingestione o contatto cutaneo.

Negli anni '90 si iniziò a misurare alcuni biomarkers interni di esposizione a tossici e solo successivamente i livelli dei composti chimici incriminati. Il vero salto di paradigma è avvenuto nel 2005 quando Christopher Wild per la prima volta introduce il termine "Exposome", in contrapposizione a "genome" per significare tutto quello a cui un essere umano è stato esposto nel corso della propria vita, fin dal proprio concepimento attraverso l'ambiente esterno, (tipo di lavoro, il cibo, l'acqua, l'aria) ed interno ( es. microbiota; metaboliti derivati da reazioni infiammatorie o da infezioni). Questi nella consapevolezza che dopo la descrizione del genoma umano, i risultati dei costosissimi studi genome-wide association non erano riuscito a spiegare la maggior parte della variabilità nelle malattie umane.

Perché è importante valutare l'esposizione? Come ha spiegato in un famoso articolo pubblicato sulla rivista Science nel 2010 lo scienziato californiano Stephen Rappaport, se si adotta una definizione piuttosto ampia dell'ambiente, buona parte dell'aumento del rischio di cancro e delle malattie degenerative è prevalentemente legata a fattori ambientali piuttosto che genetici. Si tratta quindi di un concetto molto potente, in grado di spiegare per oltre il 90% la possibilità di andare incontro a malattie croniche degenerative tipiche dell'età avanzata.

Purtroppo la cifra investita sino ad ora sulla genetica è stata di gran lunga superiore a quella investita sugli aspetti ambientali.
Di fatto gli studi epidemiologici non possono chiarire le cause ambientali delle malattie umane senza un'accurata misurazione dell'esposizione, ed è proprio in questa direzione che si stanno concentrando i maggiori sforzi dal momento che gli strumenti per la valutazione dell'esposizione quantitativa sono cambiati poco dal 1970.

In pratica, anziché studiare i livelli di sostanze inquinanti contenute nell'aria, nell'acqua o nella dieta, si tratta di effettuare queste misurazioni direttamente nell'organismo umano includendo tutti i prodotti chimici, provenienti da tutte le fonti, per tutto il tempo trascorso.

Il grosso problema è che le esposizioni sono altamente dinamiche e quindi difficili da dominare. Concentrazioni di sostanze chimiche esogene o endogene variano nel tempo fra le persone e le popolazioni. La scala di variabilità è enorme e quindi è lecito porsi la domanda su come possiamo essere sicuri che ci stiamo focalizzando su sostanze chimiche o su periodi realmente importanti.

L'esperienza fin qui accumulata è tipicamente riferita alle esposizioni di tipo occupazionale mirando un numero molto piccolo di composti.
In realtà, come per il microbioma intestinale (che rientra anch'esso di fatto nell'esposomica), si tratta di mappare centinaia o addirittura migliaia di sostanze chimiche a cui iniziamo ad essere esposti già durante lo sviluppo fetale.

In uno studio guidato dalla Environmental Working Group (EWG) in collaborazione con Commonweal, i ricercatori di due grandi laboratori hanno trovato una media di 200 sostanze chimiche industriali e inquinanti nel sangue del cordone ombelicale di 10 bambini nati nel mese di agosto e settembre del 2004 negli ospedali degli Stati Uniti. I tests hanno rivelato un totale di 287 sostanze chimiche in questo piccolo gruppo di neonati. Il sangue del cordone ombelicale di questi 10 bambini, raccolti dalla Croce Rossa dopo che il cordone è stato tagliato, ospitava pesticidi, gli ingredienti di prodotti di largo consumo e derivati da combustione del carbone, benzina, e immondizia. (http://www.ewg.org/reports/bodyburden2).

Per ovviare ai limiti nelle tecniche di misurazione diretta dei composti chimici di interesse l'esposomica fa ricorso al dosaggio di particolari biomarcatori.

In una recente ricerca che Wild ha condotto per lo sviluppo di un biomarcatore urinario di una micotossina dei cereali denominata "deossinivalenolo" o vomtoxin, lo scienziato ha potuto dimostrare che questa molecola riflette in modo accurato l'esposizione cronica a questo comune contaminante della dieta occidentale, in grado anche a basse concentrazioni di provocare disfunzioni immunitarie.

La lunghezza del telomero, per fare un altro esempio, è considerabile una sorta di macro-integratore di fattori di stress" che risultano dalla varietà degli stili di vita e dei fattori comportamentali. Essendo in particolare correlata allo stress ossidativo, alla resistenza all'insulina, e allo stress ormonale e può essere implicata secondo un modello causale nelle malattie associate all'invecchiamento.

Un altro esempio di biomarcatori intelligenti, questa volta italiano, si riferisce a modificazioni posttraduzionali in grado di alterare la funzione e l'immunogenicità di antigeni proteici, innescando patologie gravi come la sclerosi multipla.

La glicosilazione è la più importante di queste modificazioni essendo in grado di modificare la conformazione delle glicoproteine e di influenzare le interazioni proteina-proteina. Si pensa perciò che gli zuccheri mascherino gli epitopi discontinui impedendone il riconoscimento da parte del sistema immunitario come antigeni self, scatenando una risposta autoimmune. Nel Laboratorio di Sesto Fiorentino della professoressa AnnaMaria Papini, dell'Università di Firenze una ricerca multidisciplinare ha portato allo sviluppo di uno specifico probe antigenico, CSF114(Glc), un glicopeptide in grado di rivelare, isolare e caratterizzare specifici auto-anticorpi presenti nel siero di un significativo numero di pazienti affetti da SM. CSF114(Glc) è il primo strumento efficiente ed affidabile in grado di mostrare che una N-glicosilazione aberrante è fondamentale nel riconoscimento anticorpale nella SM. Si sospetta che una abnorme translocazione batterica intestinale possa essere il primum movens di questo fenomeno di glicosilazione aberrante.

Incorporare i Biomarcatori dell'esposizione negli studi di popolazione
Per trarre vantaggi dai biomarcatori, abbiamo bisogno di pensare al disegno degli studi di popolazione guardando alle malattie, e non ai marcatori, come end-point finali. Ogni disegno dello studio ha qualcosa da offrire, ma abbiamo bisogno di pensare attentamente alle domande da porre in un particolare tipo di disegno. Ad esempio, gli studi trasversali (studi di gruppo con differenti caratteristiche ad un dato momento) abitualmente consentono un focus su poche persone con un grande dettaglio, raccolgono molti dati di esposizione, e determinano quali informazioni addizionali siano necessarie per convalidare i rapporti fra i biomarcatori di esposizione ipotizzati. Gli studi di caso controllo possono guardare alle esposizioni che si sono verificate recentemente qualora i campioni biologici non siano adeguati. Gli studi di coorte (studi di un gruppo con un insieme comune di caratteristiche nel corso del tempo) sono notoriamente i "gioielli della corona" nell'armamentario dell'epidemiologia, ma i vincoli finanziari spesso limitano la raccolta di campioni biologici multipli.

I diversi disegni di studio si completano l'un l'altro, e gli scienziati dovrebbero considerare come integrarli o utilizzarli in tandem per ottenere un quadro migliore dell'esposizione. Ad esempio, Rothman ed i suoi colleghi presso il National Cancer Institute e l'Università della California di Berkeley hanno utilizzato una serie di studi trasversali per valutare i biomarcatori dell'esposizione al benzene nei lavoratori. Gli studi hanno contribuito a sviluppare delle ipotesi che più avanti sono state testate in studi di corte finalizzati a seguire i lavoratori nel corso della malattia. Rothman ha anche suggerito di applicare gli stessi strumenti analitici negli studi di differenti tipi o classi di esposizione.

La maggior parte dei biomarcatori richiede grandi quantità di materiale biologico, come il sangue e le urine, e può quindi essere difficile utilizzarli negli studi di coorte.

Come alternativa, è possibile utilizzare un disegno di studio misto in cui i biomarcatori costosi da valutare siano misurati in un solo sottoinsieme di campioni e che su tutti i campioni siano fatte misurazioni meno costose. Lo strumento più costoso è poi utilizzato per calibrare quello meno costoso.

E' auspicabile che in futuro diversi campi scientifici come quello sociale, nutrizionale, ed ambientale utilizzino tecniche e tecnologie simili costruendo una interconnessione fra i diversi campi e di incoraggiando la condivisione di biomarcatori, questionari, e altri strumenti di ricerca.

"Omiche" ed esposomica
In questo nuovo contesto cosa portano di nuovo le classiche omiche? Ebbene esse ci rendono capaci di vedere le firme chimiche uniche dell'esposizione, alcune delle quali possono essere persistenti e irreversibili, diventando biomarcatori di esposizione storica. Utilizzando le trascrizioni omiche, Smith e collaboratori della Berkley University, California, hanno identificato recentemente tutta una serie di potenziali firme dell'esposizione a tossici come il benzene, diossina, arsenico, alcune indipendenti dalla dose e che potrebbero quindi riflettere l'esposizione stessa, e altre che dipendono dalla dose di esposizione e che riflettono quindi l'effetto di o risposta ad una esposizione. Per quanto riguarda i biomarcatori di esposizione storica, altri ricercatori come Avrum Spira della Boston University utilizzano le omiche per identificare un modello di geni irreversibilmente alterati attraverso lo studio dell'espressione genica e del profilo micro dell'RNA dei fumatori attuali, degli ex fumatori o di chi non è mai stato fumatore, fornendo così strumenti per identificare soggetti a rischio di sviluppare cancro polmonare e targets per la chemoprevenzione.

Altri ricercatori come Jones e coll. stanno utilizzando la metabolomica (lo studio dei metaboliti prodotti dai processi cellulari) per esaminare in maniera massiva tutti i composti che si possono rilevare, anche se l'identità di metà dei composti chimici nel plasma umano è sconosciuta, attraverso la "Fourier transform mass spectrometry" (FTMS), che differisce leggermente dagli approcci tradizionali rispetto ai profili metabolici. L'FTMS ha l'accuratezza e la risoluzione di identificare il 90% di tutti i composti chimici sulla base della loro massa. La metodica ha una velocità moderatamente elevata ed è molto riproducibile; per il momento richiede plasma ma in futuro potrebbe essere potenzialmente utilizzata su spots di sangue.

Una nuova tecnologia delle omiche, è l'adduttomica, ovvero lo studio degli addotti prodotti da una sostanza chimica che si lega alle proteine del DNA o del sangue. L'adductomics può essere utilizzata per caratterizzare le esposizioni agli elettrofili, una classe estesa di sostanze tossiche reattive che comprende gli aldeidi, i chinoni, e le specie reattive di ossigeno. Gli elettrofili hanno un arco di vita breve in vivo ma formano addotti stabili reagendo con i nucleofili biologici e dando origine a composti stabili che possono essere misurati con la spettrometria di massa di ultima generazione.

Secondo Martyn Smith siamo molto vicini all'essere in grado di utilizzare un approccio olistico che includa la metabolomica, la trascrittomica, e l'adduttomica su un insieme di campioni per discernere le differenze tra persone sane e malate. Oggi è già possibile rintracciare il DNA nelle macchie secche di sangue, ma nel giro di una decade saremo potenzialmente in grado di elaborare l'esposomica in una goccia di sangue.

Ovviamente questa crescita della tecnologia crea inevitabilmente un enorme sfida informatica. Il vero problema dell'esposomica è dovere gestire una tale quantità di dati di diversa natura, senza avere facilmente a disposizione adeguati strumenti per la loro elaborazione. Gestire l'informazione è ormai diventato un pesante carico per chi si occupa di salute pubblica. Come ho più volte ricordato in precedenti editoriali uno dei più straordinari sviluppi nel vasto campo della tecnologia informatica è relativo alla "Intelligenza Artificiale" e in particolare ai cosiddetti "Sistemi Artificiali Adattivi", che possono essere considerati i più avanzati strumenti di informatica intelligente attualmente disponibili e che si sono rivelati uno strumento particolarmente appropriato per rispondere alle necessità nell'area biomedica.

Il contributo delle Artificial Sciences
Le Reti Neurali Artificiali (RNA) e gli Algoritmi Evolutivi (AE) sono l' espressione più avanzata all'interno delle cosiddette "Artificial Sciences", ispirati, rispettivamente, ai processi di funzionamento del cervello umano e alla teoria dell'evoluzione. Si tratta di sistemi capaci di modificare la loro struttura interna in relazione ad una funzione obiettivo. Sono particolarmente utili per risolvere problemi di tipo non lineare, in quanto capaci di ricostruire le regole approssimate che legano un certo insieme di dati - che descrivono il problema da considerare - con un insieme di dati che forniscono la soluzione (RNA) o di ricostruire i dati ottimali per un dato insieme di regole o vincoli (AE).

Nell'ambito delle Artificial Sciences il computer ha un rapporto simile a quello che la scrittura ha con la lingua naturale. Queste scienze sono costituite da algebre formali per la generazione di modelli artificiali (strutture e processi), nello stesso modo in cui le lingue naturali sono fornite di una semantica, di una sintassi e di una pragmatica per la generazione di parole e testi.

Nelle Artificial Sciences la comprensione di un qualsiasi processo naturale e/o culturale avviene in modo proporzionale alla capacità del modello artificiale automatico di ricreare quel processo.
Più la comparazione tra processo originale e modello generato dà esito positivo, più è probabile che il modello artificiale abbia esplicitato correttamente le regole di funzionamento del processo originale.

Questo confronto, tuttavia, non può essere effettuato in modo ingenuo. Sono necessari sofisticati strumenti di analisi per fare una comparazione attendibile tra processo originale e modello artificiale.
La Natural Computation è quella parte delle Artificial Sciences che tenta di costruire modelli automatici di processi naturali tramite l'interazione locale di microprocessi non isomorfi al processo originale.

Nella Natural Computation si assume, quindi, che qualsiasi processo sia il risultato, più o meno contingente, di processi più elementari che tendono ad auto-organizzarsi nel tempo e nello spazio e che nessuno dei microprocessi sia di per sé informativo circa la funzione che assumerà rispetto agli altri, né del processo globale di cui sarà parte.

Questa filosofia computazionale, poco economica per la creazione di modelli semplici, può essere utilizzata efficacemente per creare qualsiasi tipo di sistema o modello che s'ispiri a processi complessi, ossia a fenomeni di fronte ai quali le teorie classiche hanno trovato notevoli difficoltà.

È questa la ragione per la quale nella Natural Computation l'analisi e la generazione di modelli artificiali altamente non lineari è particolarmente presente e ne rappresenta un punto di forza.
La Natural Computation tenta di ricreare processi naturali e/o culturali costruendo modelli artificiali in grado di generare dinamicamente regole locali, suscettibili di cambiamento in accordo al processo stesso. Nella Natural Computation una dinamica come "l'apprendere ad apprendere" è implicita nei modelli artificiali stessi, mentre nella Classical Computation, invece, c'è bisogno di creare ulteriori regole.

Il Centro Ricerche Semeion di Roma, guidato dal prof. Massimo Buscema rappresenta oggi un fiore all'occhiello per il nostro paese in questo particolare settore per i contributi teorici e applicativi forniti a livello internazionale. http://www.ebooks.com/864231/artificial-adaptive-systems-in-medicine/buscema-massimo-ed--grossi-enzo-ed/

Considerazioni finali

Che il problema dell'esposizione ambientale a tossici sia di grande attualità a livello epidemiologico, lo si percepisce anche nel nostro paese. E' recente (2011) la pubblicazione sulla rivista Epidemiologia e Prevenzione del progetto SENTIERI (Studio Epidemiologico Nazionale dei Territori e degli Insediamenti Esposti a Rischio da Inquinamento) che riguarda l'analisi della mortalità delle popolazioni residenti in prossimità di una serie di grandi centri industriali attivi o dismessi, o di aree oggetto di smaltimento di rifiuti industriali e/o pericolosi, che presentano un quadro di contaminazione ambientale e di rischio sanitario tale da avere determinato il riconoscimento di "siti di interesse nazionale per le bonifiche" (SIN).

ttp://www.epiprev.it/pubblicazione/epidemiol-prev-2011-35-5-6-suppl-4 Lo studio ha preso in considerazione 44 dei 57 siti oggi compresi nel "Programma nazionale di bonifica", che coincidono con i maggiori agglomerati industriali nazionali; per ciascuno di essi si è proceduto a una raccolta di dati di caratterizzazione, e successivamente a una loro sintesi.

La mortalità è stata studiata per ogni sito, nel periodo1995-2002, attraverso vari indicatori.

La popolazione residente al Censimento 2001 nei 44 SIN inclusi in SENTIERI costituisce approssimativamente il 10% della popolazione italiana.

Dallo studio è emerso che in tutti i SIN la mortalità supera il valore atteso, con un rapporto standardizzato di mortalità di 115.8 per gli uomini e 114.4 per le donne. Nei 44 SIN si è osservato un totale di 26361 decessi contro un valore atteso di 22853, vale a dire 3 508 decessi in eccesso rispetto a quelli attesi (2 439 negli uomini e 1 069 nelle donne), equivalenti a 439 decessi per anno nel periodo 1995-2002, un dato questo particolarmente inquietante, anche in rapporto ai recentissimi avvenimenti economico-sociali di Taranto legati all'ILVA.

In conclusione dal momento che come ricordato le variazioni genetiche probabilmente giocano un ruolo complessivo relativamente minore nelle malattie degenerative e nel cancro, dovremmo dedicare una maggiore attenzione alle esposizioni ambientali per migliorare la salute umana. E' tuttavia necessario spostarsi dal monitoraggio ambientale al bio monitoraggio ed utilizzare i biomarcatori per identificare ed elaborare l'exposome.
Sviluppare l'esposomica richiederà un impegno straordinario in molte discipline. Saranno necessari inputs dalla tossicologia ambientale, dall'epidemiologia, dalla biologia molecolare, dalla chimica analitica, dalla chemiometria, dalla bioinformatica e dall'ingegneria e non ultima dalla matematica, discipline ancora in gran parte scollegate per le quali sarà necessario sviluppare un linguaggio comune.

Bibliografia di riferimento

Bonassi S, Au WW. 2002. Biomarkers in molecular epidemiology studies for health risk prediction. Mutat Res 511(1):73-86.
Centers for Disease Control and Prevention. 2009. Fourth National Report on Human Exposure to Environmental Chemicals. Atlanta, GA:National Center for Environmental Health, Centers for Disease Control and Prevention.
Cohen Hubal EA, Richard AM, Shah I, Gallagher J, Kavlock R, Blancato J, et al. 2010. Exposure science and the U.S. EPA National Center for Computational Toxicology. J Expo Sci Environ Epidemiol 20(3):231-236.
Franco G. 1999. Ramazzini and workers' health. Lancet 354(9181):858-861.
Georgopoulos PG, Lioy PJ. 2006. From a theoretical framework of human exposure and dose assessment to computational system implementatino: the Modeling Environment for Total Risk Studies (MENTOR). J Toxicol Environ Health B Crit Rev 9(6):457-483.
Georgopoulos PG, Sasso AF, Isukapalli SS, Lioy PJ, Vallero DA, Okino M, et al. 2009. Reconstructing population exposures to environmental chemicals from biomarkers: challenges and opportunities. J Expo Sci Environ Epidemiol 19(2):149-171.
Landrigan PJ, Trasande L, Thorpe LE, Gwynn C, Lioy PJ, D'Alton ME, et al. 2006. The National Children's Study: a 21-year prospective study of 100,000 American children. Pediatrics 118(5):2173-2186.
Lioy PJ. 2010. Exposure science: a view of the past and milestones for the future. Environ Health Perspect 118:1081-1090.
Manolio TA, Collins FS, Cox NJ, Goldstein DB, Hindorff LA, Hunter DJ, et al. 2009. Finding the missing heritability of complex diseases. Nature 461(7265):747-753.
Nicholson JK. 2006. Global systems biology, personalized medicine and molecular epidemiology [Editorial]. Mol Syst Biol 2:52; doi:10.1038/msb4100095 [3 October 2006].
Ott WR. 1990. Total human exposure: basic concepts, EPA field studies, and future research needs. J Air Waste Manage Assoc 40(7):966-975.
Ott WR. 1995. Human exposure assessment: the birth of a new science. J Expo Anal Environ Epidemiol 5(4):449-472.
Papini AM. The use of post-translationally modified peptides for detection of
biomarkers of immune-mediated diseases. J Pept Sci. 2009 Oct;15(10):621-8.
Review. PubMed PMID: 19714713.
Patel CJ, Bhattacharya J, Butte AJ. 2010. An Environment-Wide Association study (EWAS) on type 2 diabetes mellitus. PLoS One 5(5):e10746; doi:10.1371/journal.pone.0010746 [Online 20 May 2010].
Rappaport SM. 2011. Implications of the exposome for exposure science. J Expo Sci Environ Epidemiol 21(1):5-9.
Rappaport SM, Smith MT. 2010. Environment and disease risks. Science 330(6003):460-461.
Sexton K, Kleffman DE, Callahan MA. 1995. An introduction to the National Human Exposure Assessment Survey (NHEXAS) and related phase I field studies. J Expo Anal Environ Epidemiol 5(3):229-232.
Wallace LA, Pellizzari ED, Hartwell TD, Sparacino CM, Sheldon LS, Zelon H. 1985. Personal exposures, indoor-outdoor relationships, and breath levels of toxic air pollutants measured for 355 persons in New Jersey. Atmos Environ 19(10):1651-1661.
Wang Z, Klipfell E, Bennett BJ, Koeth R, Levison BS, Dugar B, et al. 2011. Gut flora metabolism of phosphatidylcholine promotes cardiovascular disease. Nature 472(7341):57-63.
Wild CP. 2005. Complementing the genome with an "exposome": the outstanding challenge of environmental exposure measurement in molecular epidemiology. Cancer Epidemiol Biomarkers Prev 14(8):1847-1850.

Gli editoriali più recenti
   
Geragogia.net © - Dott. Giovanni Cristianini - 2001 - 2016