di
Enzo Grossi
Direzione Medica Europa, Bracco Imaging SPA, Milano
Introduzione: il geriatra di fronte ad una montagna di
informazioni
Durante il secolo scorso si è verificato un aumento
costante della quantità e della qualità dei
dati medici raccolti, analizzati ed archiviati. Questa tendenza,
che è stata particolarmente evidente durante gli ultimi
40 anni, è stata condizionata dal progresso tecnologico
e scientifico della pratica medica ma soprattutto dallo spettacolare
sviluppo dei sistemi computerizzati e dei data-base elettronici.
Abbiamo quindi assistito ad una vera e propria esplosione
delle informazioni, che crea non poche difficoltà per
il personale medico.
I medici in effetti basano solitamente le loro decisioni
sulla propria esperienza e sui dati contingenti rilevati sui
pazienti. La difficoltà nasce dal contrasto tra il
numero di variabili che la mente umana può gestire
in parallelo nei processi decisionali, che si ritiene siano
al massimo sette, e il numero di variabili rilevate in situazioni
di co-morbidità o di patologie complesse, che facilmente
raggiungono un numero superiore al centinaio.
In queste circostanze il cosiddetto information overload
può diventare un problema molto serio.
Il rapporto tra numero medio di soggetti studiati in studi
clinici pubblicati e numero medio di variabili rilevate per
soggetto nel corso dell'ultimo secolo si è clamorosamente
invertito. In effetti con l'avvento dell'imaging digitale
e dei microarrays, in grado di fornire migliaia o decine di
migliaia di informazioni per soggetto, ci troviamo ora in
una situazione in cui anziché raccogliere variabili
intorno a un gruppo di soggetti ora si tende a raccogliere
soggetti intorno a gruppi enormi di variabili.
Ma non è solo la quantità di informazioni
a metterci in crisi; in realtà è soprattutto
la qualità di queste informazioni. I rapporti complessi,
non lineari e sfumati tra le informazioni pertinenti ad una
certa patologia hanno reso progressivamente inefficiente l'uso
di metodi di elaborazione statistica basati su presupposti
antichi, ovvero su una semplice logica lineare di causa-effetto.
Non si tratta quindi solo di un problema di "knowledge
management" ma anche e soprattutto un problema che definirei
di "truth management". Dobbiamo in altri termini
non solo essere in grado di gestire al meglio le informazioni
che rileviamo ma anche di capire perché le rileviamo,
e a quali domande possono aiutarci a rispondere.
Nel secolo scorso siamo stati testimoni di una crescita continua
nella quantità e qualità dei dati medici prodotti,
raccolti, analizzati e pubblicati. Questa tendenza che è
risultata particolarmente evidente negli ultimi 40 anni, è
stata anche guidata dallo sviluppo spettacolare della gestione
digitale della documentazione attraverso l'uso di basi di
dati elettroniche.
Se consideriamo il corpus della letteratura medico-scientifica
come uno specchio fedele della quantità di dati medici
processati a livello mondiale, risulta abbastanza chiaro che
questa crescita è stata esponenziale.
Secondo una stima attendibile il numero delle riviste mediche
pubblicate correntemente è intorno a 20.000 ed è
destinato a crescere anche per l'avvento delle riviste on
line. Questo numero è drammaticamente diverso rispetto
allo scenario delle prime decadi del XX secolo, quando il
numero dei giornali medici era dell'ordine di poche decine.
Questa scarsa diffusione di dati rifletteva sostanzialmente
le difficoltà metodologiche per una raccolta efficiente
di informazioni e la mancanza di conoscenza delle regole di
base dell'epidemiologia clinica, una disciplina fondata solo
all'inizio degli anni '50. A quel tempo l'applicazione della
statistica medica era nella sua infanzia e ciò non
deve sorprendere dal momento che molte delle tecniche di analisi
statistica erano state originariamente sviluppate per campi
diversi come quello dell'agricoltura , e solo successivamente
applicate alla medicina. Ci troviamo quindi di fronte ad un
apparente paradosso, e cioè che la nascita dei più
popolari tests statistici di uso ancora corrente sia avvenuta
nella prima metà del XX secolo, epoca nella quale la
quantità di dati e la comprensione dei fenomeni scientifici
sottostanti era piuttosto limitata e praticamente trascurabile
se confrontata alla situazione attuale.
La cosa notevole è rappresentata dal fatto che tutti
i metodi sopra citati si basavano soprattutto su due assunzioni
di base e che cioè le variabili seguissero una distribuzione
"normale" o "gaussiana" e , cosa più
importante, fossero lineari in natura.
In effetti l'idea che i fenomeni fisiologici potessero facilmente
condividere i meccanismi lineari della teoria Newtoniana sulla
meccanica dell'Universo di cui Claude Bernard fu il propugnatore
e il modello interpretativo della scienza medica che ne seguì
si era imposta fortemente e domina ancora le nostre idee sulla
salute e sulla malattia .
I sistemi lineari sono piuttosto facili da comprendere e
ciò, più di ogni altra considerazione, ha contribuito
al loro successo. La linearità, presa come modello
medico corrente, presuppone infatti che la grandezza della
risposta sia proporzionale alla intensità dello stimolo.
Inoltre i sistemi lineari possono essere compresi pienamente
isolando i loro componenti. Le subunità di un sistema
lineare possono essere sommate e non vi sono sorprese o comportamenti
anomali.
Per contro nel caso dei sistemi non lineari il concetto
della proporzionalità non tiene: piccoli cambiamenti
possono avere conseguenze violente e non anticipabili. Un'altra
complicazione è che i sistemi non lineari non possono
essere compresi analizzando le loro componenti individualmente.
Più aumenta la comprensione della complessità
dei sistemi biologici sottostanti alla patologia umana e più
l'ancoraggio all'approccio lineare sembra inadeguato.
Ad esempio nel caso di due variabili cliniche che presentino
un coefficiente di correlazione lineare particolarmente basso,
poniamo di 0.10 a cui sia associato un valore di p non significativo
, es 0.80, si è portati alla esclusione di una relazione
tra le due . Orbene , rivisitando questa relazione mediante
un approccio non lineare la situazione può cambiare
drammaticamente dal momento che interazioni deboli e sfumante
possono determinare effetti significativi attraverso complessi
giochi di interferenza multifattoriale.
La non linearita' emergente dei dati medici
Possiamo quindi porci una domanda fondamentale : la matematica
usata in campo medico è quella che dovrebbe essere
data la natura delle variabili in gioco ?
Una ricerca su banche dati riferita alla letteratura medica
degli ultimi due anni condotta dal nostro gruppo offre un
interessante contributo in materia . Abbiamo infatti analizzato
in tutti i lavori in cui fossero disponibili statistiche complete
sugli indici di correlazioni lineari tra variabili di qualsiasi
natura per valutare la distribuzione dei loro valori. La distribuzione
dei valori di r2 riferiti alle correlazioni tra variabili
di tipo indipendente e di tipo dipendente osservate in 60
pubblicazioni scientifiche, condotte in una gamma molto vasta
di contesti clinici e fisiopatologici, è risultata
molto asimmetrica e presenta un valore mediano di 0.16 e un
valore medio di 0.21. Questi dati sostengono il concetto che
solo una modesta percentuale della varianza osservata dei
parametri clinici può essere spiegata sulla base di
una correlazione lineare. Questo aspetto è in linea
con il concetto emergente secondo il quale che la natura matematica
delle variabili mediche è prevalentemente non lineare.
( Figura 1)
Stiamo in effetti assistendo ad una riconfigurazione del
pensiero medico che prende origine da una sorta di rivoluzione
culturale basata sulla matematica della dinamica non lineare
e dalla teoria della complessità, sviluppate già
a partire dagli anni 80 e che dopo essere state applicate
a discipline di life science diverse dalla medicina sono progressivamente
entrate in ambito medico .
Queste idee rappresentano un cambiamento fondamentale per
la nostra visione del mondo vivente e offrono un modello scientifico
prima non disponibile per studiare la variabilità e
l'irregolarità dei fenomeni umani.
In medicina esistono numerosi esempi di dinamica non lineare,
dalla variazione ciclica della conta dei neutrofili e della
risposta immune alla epidemiologia delle malattie trasmissibili.
Anche i rapporti tra insulina e glicemia sono stati meglio
spiegati mediante metodologie non lineari quanto più
è stato possibile disporre di monitoraggi a lungo termine
delle loro fluttuazioni plasmatiche.
Persino l'organizzazione sanitaria , le regole di management
e di gestione ospedaliera sono ora indicate come uno dei campi
migliori per l'applicazione della matematica dei sistemi dinamici
adattivi .
I modelli del caos sono stati adattati allo studio della
funzione cerebrale e dei disordini cognitivi e comportamentali
. Anche la funzione cardiaca è stata interpretata con
modelli del caos specie per ciò che attiene i disturbi
del ritmo . Così dicasi per le modalità di sviluppo
e diffusione dei tumori nel contesto delle interazioni tra
geni ed ambiente insieme al potenziale per diverse strategie
di trattamento e prevenzione.
Un contributo importante per questa riconfigurazione del
pensiero medico è venuto dalla genomica e più
in particolare dal progetto genoma umano. Si è infatti
potuto apprezzare pienamente come i geni interagiscano dinamicamente
tra di loro e con l'ambiente e siano portati ad esprimere
o sopprimere tratti, esiti, stati di salute o di malattia.
Le numerose interazioni avvengono a livelli multipli, risultano
complesse, e in grado di influenzarsi a vicenda. E' risultato
abbastanza chiaro che questa complessità non poteva
essere descritta da modelli lineari ma molto meglio descrivibile
dalla matematica dei sistemi complessi.
La dinamica non lineare ci forza ad un ripensamento delle
nostre idee sui concetti di causa effetto e di misurazione
del rischio. E' ancora possibile attribuire un effetto ad
una causa quando le influenze sono multifattoriali, contestuali
e non lineari ? Gli interventi potrebbero essere diretti a
fattori multipli per ridurre le interazioni non lineari sottostanti
ed in certi casi potrebbero essere necessarie solo molteplici
lievi modificazioni di fattori critici per produrre effetti
terapeutici molto consistenti.
Viste queste premesse non deve sorprendere come da più
parti emergano raccomandazioni ad affrontare le analisi dei
sistemi complessi in ambito medico con un approccio differente
. L'uso delle reti neurali artificiali, degli algoritmi evolutivi
e di altri sistemi di "scoperta della conoscenza nelle
basi dati" rappresenta una grande opportunità
per il clinico: dall'uso estensivo di queste metodologie possiamo
aspettarci di essere in grado di sfruttare pienamente tutta
l'informazione esistente nell'enorme quantità di dati
raccolti in campo sanitario, per comprendere le regole sfumate
sottostanti a problemi clinici sempre più complessi.
Vi è anche una concreta possibilità di arrivare
finalmente ad una statistica nuova che permetta di trarre
conclusioni su base individuale e non in termini di appartenenza
ad un gruppo. Questo per la diagnosi ma soprattutto per la
prognosi, con evidenti enormi vantaggi sia per il clinico
che per il paziente.
E' quindi auspicabile una cooperazione sempre più
articolata con nuove figure professionali di "biomatematici",
esperti dei sistemi dinamici adattivi, per poter migliorare
la qualità della fornitura di servizi sanitari alla
popolazione.
Approcci statistici tradizionali e reti neurali artificiali
: un confronto
Lo scopo della vasta maggioranza degli studi clinici è
quello di acquisire sufficiente conoscenza dei fenomeni sottostanti
il problema medico in studio per essere in grado di fare qualche
sorta di previsione nello spazio (diagnosi ) o nel tempo (
prognosi). Le metodologie statistiche hanno perseguito questo
obbiettivo con l'uso di metodiche basate sulla regressione.
Per lo studio di eventi con end-points binari ( es. morte
- sopravvivenza; malattia A- malattia B; evento- non evento
etc. ) la regressione logistica si ritiene sia il metodo di
prima scelta, mentre in caso di end-points multinomiali (
uno di n > 2 ) la tecnica più usata è l'analisi
discriminante. Queste due tecniche sono diventate degli standard
in ragione della loro relativa semplicità e disponibilità
diffusa di software di analisi validati.
L'analisi discriminante in particolare è in grado
di utilizzare un limitato numero di variabili indipendenti
tra quelle disponibili, scegliendole sulla base del grado
di correlazione lineare con la variabile target o variabile
dipendente. Il modello interpretativo che ne deriva risulta
evidentemente più potente quanto più è
elevato il grado di linearità delle variabili disponibili.
Le reti neurali in contrasto sono in grado di utilizzare
tutta l'informazione disponibile nel data set non avendo alcun
limite rappresentato dall'eventuale non linearità presente.
In altri termini anche le variabili con un indice di correlazione
lineare molto piccolo entrano a far parte del modello interpretativo.
Questo spiega perché nella peggiore delle ipotesi,
immaginando cioè la presenza, peraltro molto rara di
un insieme di variabili estremamente " lineari",
le reti neurali danno la stessa performance dell'analisi discriminante,
mentre in tutti gli altri casi sono destinate a dare risultati
superiori, proprio per la loro capacità di prescindere
dalla natura delle variabili in gioco.
Il limite delle reti neurali tradizionali caso mai è
proprio legato alla loro propensione di essere una sorta di
" approssimatori universali" quando alcune delle
variabili raccolte rappresentano più che informazione
utile, mero rumore di fondo. In questo caso l'esposizione
ad un informazione "sporca" può confondere
il sistema che perde in parte la capacità di generalizzare
correttamente l'apprendimento effettuato sul data set di training
in fase di testing su nuovi casi.
A questo inconveniente è possibile porre rimedio
mediante l'utilizzo di nuovi sistemi definibili come "organismi
artificiali". Questi "organismi artificiali"
sono costruiti attraverso la combinazione di reti neurali
di diversa struttura e con diverse leggi di apprendimento
e algoritmi evolutivi che interagiscono nella fase di training,
eliminando ad esempio le variabili che non danno alcun contributo
alla comprensione del fenomeno in studio o addirittura confondono
il sistema. Grazie all'utilizzo di questi sistemi più
sofisticati e complessi è stato possibile un notevole
salto di qualità nel miglioramento della capacità
predittiva delle reti neurali rispetto alle analisi statistiche
tradizionali.
Quali sono i vantaggi delle reti neurali nella gestione
dei problemi medici ?
Da un punto di vista teorico i vantaggi sono molteplici:
- Le reti neurali sfruttano una nuova matematica, che meglio
si adatta alla complessità inerente ai sistemi biologici
- Riproducono l'interazione dinamica di fattori multipli
permettendo lo studio della complessità
- Permettono di trarre delle conclusioni su base individuale
e non come andamento medio.
Questo ultimo aspetto è veramente importante nella
medicina clinica, dove il medico si trova costantemente nella
necessità di prendere delle decisioni nel paziente
individuale dovendo bilanciare rischi e vantaggi che ha imparato
dalla statistica essere riferiti non a singoli casi bensì
a gruppi di individui.
Negli ultimi tre anni la nostra Direzione Medica ha avuto
l'opportunità di collaborare con un ente di ricerca
pubblico riconosciuto dal MURST : il Centro Ricerche Semeion
che già a partire dagli anni '80 si è dedicato
alla ideazione e sviluppo di sistemi artificiali adattativi
, basati su reti neurali e algoritmi evolutivi.
Mettendo a disposizione basi dati di buona qualità
che Bracco aveva assemblato nel corso degli anni in studi
clinici ed epidemiologici , è stato così possibile
saggiare la potenzialità delle reti neurali su una
ampia gamma di problematiche cliniche, ponendole a confronto
con le metodologie statistiche tradizionali. La tabella sottostante
riassume per sommi capi gli obiettivi raggiunti nei primi
30 mesi di collaborazione.

Il bilancio di questa prima fase di attività è
risultato estremamente positivo e fornisce un razionale forte
per proseguire oltre questa partnership, fatti salvi aspetti
critici legati ad un adeguato sostegno economico.
La tabella sottostante riporta alcuni esempi applicativi
delle reti neurali in medicina con rilevanza potenziale per
l'assistenza sanitaria nati dalla collaborazione con Semeion.

In tutte le applicazioni, che sono oggetto o in corso di
pubblicazione, si è ottenuta una superiorità
rilevante sia sotto l'aspetto statistico che clinico nei confronti
dei metodi di analisi tradizionali e per alcuni ambiti è
stato possibile sviluppare applicativi per personal computer
in grado di elaborare e rispondere in tempo reale.
Come è visibile nella tabella la malattia di Alzheimer
ha rappresentato il focus di indagine e sperimentazione più
importante, con la possibilità dimostrata di migliorare
a)la predizione del rischio di sviluppare la malattia, b)
la sua corretta classificazione diagnostica c) la predizione
della risposta alla terapia farmacologia. Se i risultati ottenuti
con le reti neurali Semeion saranno confermati su casistiche
più ampie, essi rappresenteranno un passo concreto
per la costruzione di strumento operativi per la malattia
di Alzheimer che potranno essere utilizzati da qualsiasi medico
nella propria pratica quotidiana.
La medicina alla ricerca di un nuovo umanesimo?
L' umanesimo medico , dal suo prototipo classico così
ben descritto da Cronin nella " Cittadella " sino
alla versione più casereccia ma ben vivida nella nostra
memoria del medico condotto è andato scomparendo progressivamente
nel corso del XX secolo come conseguenza di diversi fattori
: l'istituzione della figura del medico mutualista pagato
non come nell'antica Cina sulla base del buon stato di salute
della propria popolazione di assistiti, ma sulla base della
prestazione, la mancata pianificazione dell'accesso universitario
alla laurea di medicina e chirurgia degli anni 60 e 70 con
conseguente pletora e appiattimento professionale, l'eccessiva
fiducia nella strumentazione diagnostica, l'eccessiva specializzazione
delle competenze e ultimo ma non meno importante il riduzionismo
statistico impostosi con il dogma della cosiddetta "evidence
based medicine" portata al suo eccesso.
E' proprio a quest'ultimo fattore che ritengo opportuno
dedicare una migliore attenzione dal momento che se ne parla
assai raramente, ma è di fondamentale importanza.
La medicina moderna sta dimenticando che i pazienti rappresentano
l'obiettivo primario della assistenza clinica, pazienti intesi
come persona integra, fonte univoca per l'osservazione di
fenomeni particolari propri e specifici di esseri umani integri
.
Questo concetto olistico era chiaramente capito dai medici
del passato che, in assenza di tecnologie avanzate e servendosi
di utensili assai semplici ( abbassalingua, stetoscopio, martelletto)
dovevano concentrarsi sull'esame accurato del paziente ( la
famosa visita ) in maniera diretta. In quella vecchia epoca
un medico che voleva sapere cosa stava accadendo al paziente
non aveva altre scelta se non elicitare il racconto dettagliato
degli eventi e dei fenomeni associati ai disturbi lamentati
e servirsi al contempo delle informazioni ricavate semplici
da manovre e osservazioni effettuate sul paziente ( la cosiddetta
semeiotica medica ).
L'integrazione della immensa quantità di dettagli
derivati dal rituale della cosiddetta anamnesi e della visita
medica era lasciata al " giudizio clinico " in grado
di soppesare, valutare, scartare e selezionare le informazioni
ottenibili ai fini della decisione clinica, avendo anche come
riferimento oltre che la propria esperienza, la teoria della
medicina appresa all'università .
Questo tipo di scienza, che era a volte difficilmente distinguibile
da una vera e propria arte, era in sostanza tesa a identificare
e classificare la condizione di un organismo vivente integro
- in altre parole a proporre una diagnosi , a predire cosa
sarebbe avvenuto più avanti, ovvero stabilire la prognosi,
e soprattutto ad intervenire al meglio per produrre modificazioni
favorevoli nel tempo - vale a dire esercitare la migliore
terapia per quel paziente.
Queste tre principali attività : diagnosi, prognosi
e terapia rappresentano l'essenza di ogni forma di pratica
medica e sono specifiche di questa disciplina, in contrasto
abbastanza netto con altre discipline affini quali la biologia
o la farmacologia. In queste seconde discipline il focus non
è l'organismo integro ma piuttosto qualche suo frammento
come organi, tessuti, fluidi , cellule, o addirittura molecole.
Queste discipline si sono avvalse della statistica come
strumento interpretativo che , attraverso meccanismi di riduzionismo
e di inferenza basata sulla teoria delle probabilità
e sul presupposto di linearità ha permesso di descrivere,
interpretare e giudicare i singoli fenomeni che si voleva
analizzare.
Il grave errore che si è perpetrato negli ultimi
50 anni è stato quello di assoggettare la scienza medica,
che si occupa della persona integra a questo tipo di riduzionismo,
rinunciando così a priori ad utilizzare al meglio l'informazione
soft, derivabile da dati multidimensionali , spesso soggettivi
e sfumati a vantaggio di dati hard, obiettivi, monodimensionali
.
In questo modo la descrizione dettagliata che permette di
definire un dolore toracico come angina pectoris è
stata rimpiazzata dalla misurazione dello slivellamento del
tratto ST all'elettrocardiogramma ; in maniera analoga le
sensazioni di mancanza di respiro che permettono di definire
la presenza di dispnea sono state sostituite dalla misurazione
di tests di funzionalità polmonare .
Questi sono tipici esempi di riduzionismo da sostituzione.
Questa sostituzione è molto problematica per una
ragione molto semplice : le entità che si vanno a scambiare,
quella clinica e quella tecnologica non sono perfettamente
speculari. E' nozione comune che non tutti i pazienti con
angina presentano slivellamento del tratto ST e viceversa;
la stessa cosa vale per la dispnea e i tests di funzionalità
respiratoria e per molti altri parametri.
Una diversa ma ancor più grave conseguenza è
che nel caso in cui il dato soft o soggettivo, non trovi una
merce hard di scambio, il fenomeno viene semplicemente ignorato,
non essendo possibile sottoporlo ad analisi statistica. E'
così che una serie di fenomeni complessi che caratterizzano
ad esempio i sentimenti di una persona, vengono esclusi dall'analisi
statistica. Anche se la "clinimetria" ha fatto passi
da gigante, grazie all'apporto di farmacologi clinici ed epidemiologi
illuminati che si sono sforzati di inventare scale, punteggi
e parametri atti a misurare le sensazioni soggettive, il mondo
scientifico ufficiale ha finito per privilegiare fenomeni
hard, come l'ospedalizzazione o la morte, il dato più
hard di tutti quelli immaginabili, come eventi chiave attraverso
cui valutare l'efficacia di una determinata terapia ad esempio,
rinunciando a fenomeni più soft come il sollievo, il
benessere o la capacità funzionale.
La statistica per definizione è un attrezzo di sintesi
e agglomerazione dei dati.
Il singolo individuo viene così ad essere compresso,
confuso e negletto in gruppi di studio o di analisi che tengono
conto dell'età, del sesso, della diagnosi o del tipo
di terapia. Per ogni gruppo i risultati di misurazioni monodimensionali
come la pressione arteriosa o la presenza di una alterazione
vengono riassunti come valori medi o come tassi percentuali
rispettivamente.
Il formar gruppi è una necessità convenzionale
che risponde soprattutto ad esigenze di comunicazione dei
dati in un mondo in cui il tempo è sempre più
uguale a denaro.
E' così che la statistica è stata sviluppata
più come strumento per l'epidemiologo, che ha necessità
di descrivere , misurare e confrontare gruppi o popolazioni
di individui, piuttosto che come ausilio per il clinico. E'
chiaro che per il clinico che si trova a confrontarsi quotidianamente
con casi individuali, la statistica dei gruppi non offre una
particolare utilità.
La classe medica ha purtroppo sempre più delegato
agli statistici la responsabilità di prendere decisioni
sul disegno, l'analisi e l'interpretazione della ricerca mirata
alla cura dei malati , e si è lentamente ma inesorabilmente
rassegnata all'uso di dati hard, perdendo di vista la vocazione
umanistica originaria.
Fortunatamente negli ultimi anni si è assistito ad
una reazione culturale tesa al recupero di questi concetti
e valori. L'enorme successo degli studi sulla qualità
di vita è un valido esempio di questo nuovo atteggiamento,
rivolto al recupero di umanesimo e di attenzione ai dati personali
e soggettivi, a cosa ne pensa il paziente, a come valuta la
propria situazione , a come giudica quello che succede intorno
a lui.
La sfida del futuro sarà quella di sviluppare una
"statistica non lineare dell'individuo" che al momento
non c'è. In altri termini si sente la necessità
di una tecnologia di analisi in grado di gestire informazioni
complesse, sfaccettate, multidimensionali, sfumate, per ricavare
regole con le quali classificare, predire e proiettare il
singolo individuo; questo non per sostituirsi alla sagacia
e acume del giudizio medico, ma per aiutarlo nelle decisioni
critiche di fronte al proprio malato.
La medicina ha bisogno di una nuova logica?
Anche se non ce ne siamo accorti, il nostro modo di ragionare
in campo medico non segue il nostro istinto naturale, ma è
fortemente influenzato dalla concezione bivalente Aristotelica
della verità. Questo non deve stupirci, dato che la
visione Aristotelica della scienza ha influenzato il pensiero
scientifico del mondo occidentale per oltre due millenni,
e la medicina non è sfuggita, anzi risulta oggi la
disciplina più conservativa. Come è noto le
basi della logica Aristotelica portano ad accettare il concetto
che un determinato enunciato può essere o vero o falso,
punto a capo. "Tertium non datur" dicevano così
gli aristotelici ; una cosa cioè non può essere
e non essere allo stesso tempo, o essere allo stesso tempo
vera o falsa.
Trasportato in campo medico questo vuol dire che un determinato
paziente deve così essere classificato necessariamente
o come sano o come malato; una malattia deve essere presente
o assente , un esame di laboratorio deve essere entro o fuori
range, e così via. Questo modo di ragionare ha indubbiamente
i suoi vantaggi e ciò spiega perché ha avuto
un così enorme successo. Ad ogni momento il sistema
logico Aristotelico ci offre la possibilità di stare
in uno di due ambiti precisi di classificazione, minimizzando
il rischi di incertezza. Inoltre questa logica diventa il
substrato ideale per l'approccio matematico probabilistico,
dove è possibile definire, in situazioni di incertezza,
la probabilità di appartenere ad una o all'altra definizione.
Man mano che nel corso dell'ultimo secolo è aumentata
la percezione di complessità del mondo vivente da parte
di vari scienziati, è risultato chiaro che questa logica
si dimostrava insufficiente a reggere il peso della nuova
realtà.
La natura delle cose si manifestava infatti molto più
complessa del previsto: infatti più aumenta la nostra
precisione nei metodi di misurazione della realtà che
ci circonda, più ci rendiamo conto che la definizione
di un oggetto del mondo reale è incerta, sfumata ,
"fuzzy".
Cosa fa sì che un determinato stato patologico possa
essere definito malattia? Ha senso etichettare un soggetto
come malato se supera anche di poco un certo "cut-off"
di punteggio relativo ad un certo criterio diagnostico o non
è forse più razionale pensare che quel soggetto
con quelle determinate caratteristiche faccia parte con un
certo grado di appartenenza ("membership") al club
dei soci di quella determinata malattia? In effetti negli
anni 20' Lukasiewicz , un matematico-logico polacco, descrisse
una logica a tre valori e la relativa matematica esplicativa.
Il terzo valore che egli introdusse può essere tradotto
al meglio con il termine" possibile", ed egli gli
assegnò un valore numerico tra il vero e il falso.
Ben presto questa "indeterminazione" si trasformò
da un numero pre-ordinato di valori ad un continuo tra 0 e
1, una sorta di "membership function", ovvero un
numero reale che definiva il grado di appartenenza di un individuo
ad una determinata classe.
Il modo di vedere le cose "fuzzy" riconosce che
non esiste mai una linea di demarcazione netta tra le cose
e non le cose, anzi più aumenta la nostra capacità
di trattare l'informazione, più emerge questa natura
sfumata. L'impiego di questa logica nuova permette di superare
i limiti di un approccio binario e dicotomico ai problemi
e di applicare un concetto diverso a quello della probabilità
in situazioni dove è fondamentale esprimere un giudizio
calato sull'individuo. Non si tratta più di affermare
infatti che quel soggetto ha una probabilità di essere
malato dell'80%, o
una probabilità dell'80% di avere un evento entro
cinque anni, o una probabilità dell'80% di rispondere
ad una terapia ( a seconda che di troviamo in un ambito diagnostico,
prognostico, o di trattamento rispettivamente), quanto invece
affermare che quel soggetto è all'80% appartenente
alla classe degli affetti da quella tipica malattia, o alla
classe dei soggetti a rischio, o dei responders alla terapia.
Questo approccio fa una bella differenza sia dal punto di
vista logico che da quello matematico.
Dal punto di vista logico permette di gestire situazioni
molto complesse dove ad esempio un paziente deve essere valutato
attraverso criteri multipli, basati su range di valori precisi,
come è il caso dei valori di riferimento per gli esami
di laboratorio. Immaginiamo di avere tre tests di laboratorio
che definiscono lo stato di salute e il cui range risulta
compreso rispettivamente tra 80 e 120 (esame A); tra 50 e
100(esame B) e tra 8 e 12 ( esame C).Due pazienti si sottopongono
alla batteria di esami e il primo ottiene i seguenti valori:
100,101,e 12,1. Il secondo invece ottiene 120, 50 e 12. Qual
è lo stato di salute dei due pazienti ? La logica binaria
definirebbe il primo paziente come malato e il secondo come
sano. La logica fuzzy invece permette di appurare che il grado
di appartenenza alla categoria dei malati è del tutto
simile, come del resto saremmo portati istintivamente a ritenere.
Aspetto molto interessante, tutte le forme di previsioni originate
dai cosiddetti sistemi dinamici adattivi, reti neurali in
particolare, è basata su una logica "fuzzy".
Quando questi sistemi danno una risposta in termini predittivi
non si afferma che quel determinato paziente appartiene ad
un gruppo che "tipicamente" ha una probabilità
del
% di essere o no essere qualcosa, ma bensì
che quel paziente appartiene con un certo % a quel qualcosa
(Figura2). E' il singolo soggetto a dominare e non il gruppo.
Ecco quindi una logica adatta al singolo individuo, al paziente
che sempre più si dice debba essere al centro dell'attenzione
del sistema sanitario. Riuscirà il fuzzy-pensiero ad
imporsi definitivamente in campo medico? Tutto fa ritenere
di sì; si tratta di stabilire solo entro quanto tempo
e a che prezzo ( completa riforma del curriculum universitario).
Per concludere, ecco brevemente un altro esempio di ritorno
all'approccio olistico nella scienza medica : ci riferiamo
alla riscoperta della cosiddetta medicina del racconto ovvero
della cosiddetta " Narrative medicine".
Questa nuova disciplina , proposta qualche anno fa da un
gruppo di clinici londinesi, propone il recupero delle capacità
di ascolto , di interrogazione, di spiegazione , mediazione
e interpretazione così peculiari nel medico clinico,
rispetto alle parole ed espressioni usate dal paziente per
descrivere se stesso e la propria condizione.
Il tentativo è quello di trovare finalmente una metrica
adatta a gestire aspetti qualitativi esistenziali come l'angoscia,
la disperazione, la speranza , il dolore morale, l'ansia,
l'amore, l'odio, che frequentemente accompagnano o rappresentano
addirittura la vera forma di malattia.
Il successo di questa nuova disciplina nei prossimi anni
potrà fornire una precisa testimonianza di quanto sia
oggi sentita da parte di molti studiosi e clinici la necessità
di ricostruire nella comprensione del vissuto del paziente
quel rapporto di conoscenza e di fiducia senza il quale nessun
farmaco potrà alleviare in maniera armonica lo stato
di sofferenza che continua ad essere un'ingombrante e indesiderato
compagno di viaggio della nostra specie.
BIBLIOGRAFIA
Horton R. The refiguration of medical thought.
Commentary. The Lancet 2000; 356: 2- 4.
Kaplan D, Glass L. Understanding nonlinear
dynamics. Springer-Verlag, New York 1995.
Sardar Z, Abrams I. Introducing chaos. Cambridge:
Icon Books, 1998.
Baum M, Chaplain MAJ, Anderson ARA, Douek
M, Vaidya JS. Does breast cancer exist in a state of chaos?
Point of view. Euro J Cancer 1999; 35: 886-91.
Goodwin J. Chaos and the limits of modern
medicine. JAMA 1997; 278:1399-1400.
Philippe P, Mansi O. Nonlinearity in the
epidemiology of complex health and disease processes. Theor
Med Bioeth 1998; 19:591-607.
Griffiths F, Byrne D. General practice and
the new science emerging from the theories of "chaos"
and complexity. Discussion Paper. British J Gen Practice 1998;
48:1697-9.
Wilson T,Holt T. Complexity and clinical
Care. Br. Med.J. 2001;323:685-8
Figura 1 Distribuzione dei valori
di r2 tra variabili indipendenti e dipendenti in 60 lavori
pubblicati negli ultimi 2 anni in campo medico

Figura 2 Confronto tra teoria classica
e teoria "fuzzy"

Per uno stesso valore della variabile x,
per la teoria classica il paziente risulta malato, mentre
per la teoria fuzzy risulta malato al 20%
|