Geriatria e gerontologia
credits - editoriale geriatria - meetings - notiziario - pubblicazioni
Presentazione
Una premessa
L'invecchiamento
Tempo libero e solitudine
Geragogia
Alimentazione
Alcolismo
Alcol e invecchiamento cerebrale
Attività fisica
   
  Links
  Email
   
  site design Doublespeak
 
Study of an old Man's Profile - Galleria degli Uffizi - Firenze
Il geriatra del XXI secolo tra riduzionismo statistico, intelligenza artificiale e nuovo umanesimo Torna agli editoriali

di
Enzo Grossi

Direzione Medica Europa, Bracco Imaging SPA, Milano

Introduzione: il geriatra di fronte ad una montagna di informazioni

Durante il secolo scorso si è verificato un aumento costante della quantità e della qualità dei dati medici raccolti, analizzati ed archiviati. Questa tendenza, che è stata particolarmente evidente durante gli ultimi 40 anni, è stata condizionata dal progresso tecnologico e scientifico della pratica medica ma soprattutto dallo spettacolare sviluppo dei sistemi computerizzati e dei data-base elettronici. Abbiamo quindi assistito ad una vera e propria esplosione delle informazioni, che crea non poche difficoltà per il personale medico.

I medici in effetti basano solitamente le loro decisioni sulla propria esperienza e sui dati contingenti rilevati sui pazienti. La difficoltà nasce dal contrasto tra il numero di variabili che la mente umana può gestire in parallelo nei processi decisionali, che si ritiene siano al massimo sette, e il numero di variabili rilevate in situazioni di co-morbidità o di patologie complesse, che facilmente raggiungono un numero superiore al centinaio.

In queste circostanze il cosiddetto information overload può diventare un problema molto serio.

Il rapporto tra numero medio di soggetti studiati in studi clinici pubblicati e numero medio di variabili rilevate per soggetto nel corso dell'ultimo secolo si è clamorosamente invertito. In effetti con l'avvento dell'imaging digitale e dei microarrays, in grado di fornire migliaia o decine di migliaia di informazioni per soggetto, ci troviamo ora in una situazione in cui anziché raccogliere variabili intorno a un gruppo di soggetti ora si tende a raccogliere soggetti intorno a gruppi enormi di variabili.

Ma non è solo la quantità di informazioni a metterci in crisi; in realtà è soprattutto la qualità di queste informazioni. I rapporti complessi, non lineari e sfumati tra le informazioni pertinenti ad una certa patologia hanno reso progressivamente inefficiente l'uso di metodi di elaborazione statistica basati su presupposti antichi, ovvero su una semplice logica lineare di causa-effetto. Non si tratta quindi solo di un problema di "knowledge management" ma anche e soprattutto un problema che definirei di "truth management". Dobbiamo in altri termini non solo essere in grado di gestire al meglio le informazioni che rileviamo ma anche di capire perché le rileviamo, e a quali domande possono aiutarci a rispondere.

Nel secolo scorso siamo stati testimoni di una crescita continua nella quantità e qualità dei dati medici prodotti, raccolti, analizzati e pubblicati. Questa tendenza che è risultata particolarmente evidente negli ultimi 40 anni, è stata anche guidata dallo sviluppo spettacolare della gestione digitale della documentazione attraverso l'uso di basi di dati elettroniche.

Se consideriamo il corpus della letteratura medico-scientifica come uno specchio fedele della quantità di dati medici processati a livello mondiale, risulta abbastanza chiaro che questa crescita è stata esponenziale.

Secondo una stima attendibile il numero delle riviste mediche pubblicate correntemente è intorno a 20.000 ed è destinato a crescere anche per l'avvento delle riviste on line. Questo numero è drammaticamente diverso rispetto allo scenario delle prime decadi del XX secolo, quando il numero dei giornali medici era dell'ordine di poche decine. Questa scarsa diffusione di dati rifletteva sostanzialmente le difficoltà metodologiche per una raccolta efficiente di informazioni e la mancanza di conoscenza delle regole di base dell'epidemiologia clinica, una disciplina fondata solo all'inizio degli anni '50. A quel tempo l'applicazione della statistica medica era nella sua infanzia e ciò non deve sorprendere dal momento che molte delle tecniche di analisi statistica erano state originariamente sviluppate per campi diversi come quello dell'agricoltura , e solo successivamente applicate alla medicina. Ci troviamo quindi di fronte ad un apparente paradosso, e cioè che la nascita dei più popolari tests statistici di uso ancora corrente sia avvenuta nella prima metà del XX secolo, epoca nella quale la quantità di dati e la comprensione dei fenomeni scientifici sottostanti era piuttosto limitata e praticamente trascurabile se confrontata alla situazione attuale.

La cosa notevole è rappresentata dal fatto che tutti i metodi sopra citati si basavano soprattutto su due assunzioni di base e che cioè le variabili seguissero una distribuzione "normale" o "gaussiana" e , cosa più importante, fossero lineari in natura.

In effetti l'idea che i fenomeni fisiologici potessero facilmente condividere i meccanismi lineari della teoria Newtoniana sulla meccanica dell'Universo di cui Claude Bernard fu il propugnatore e il modello interpretativo della scienza medica che ne seguì si era imposta fortemente e domina ancora le nostre idee sulla salute e sulla malattia .

I sistemi lineari sono piuttosto facili da comprendere e ciò, più di ogni altra considerazione, ha contribuito al loro successo. La linearità, presa come modello medico corrente, presuppone infatti che la grandezza della risposta sia proporzionale alla intensità dello stimolo. Inoltre i sistemi lineari possono essere compresi pienamente isolando i loro componenti. Le subunità di un sistema lineare possono essere sommate e non vi sono sorprese o comportamenti anomali.

Per contro nel caso dei sistemi non lineari il concetto della proporzionalità non tiene: piccoli cambiamenti possono avere conseguenze violente e non anticipabili. Un'altra complicazione è che i sistemi non lineari non possono essere compresi analizzando le loro componenti individualmente.

Più aumenta la comprensione della complessità dei sistemi biologici sottostanti alla patologia umana e più l'ancoraggio all'approccio lineare sembra inadeguato.

Ad esempio nel caso di due variabili cliniche che presentino un coefficiente di correlazione lineare particolarmente basso, poniamo di 0.10 a cui sia associato un valore di p non significativo , es 0.80, si è portati alla esclusione di una relazione tra le due . Orbene , rivisitando questa relazione mediante un approccio non lineare la situazione può cambiare drammaticamente dal momento che interazioni deboli e sfumante possono determinare effetti significativi attraverso complessi giochi di interferenza multifattoriale.

La non linearita' emergente dei dati medici

Possiamo quindi porci una domanda fondamentale : la matematica usata in campo medico è quella che dovrebbe essere data la natura delle variabili in gioco ?

Una ricerca su banche dati riferita alla letteratura medica degli ultimi due anni condotta dal nostro gruppo offre un interessante contributo in materia . Abbiamo infatti analizzato in tutti i lavori in cui fossero disponibili statistiche complete sugli indici di correlazioni lineari tra variabili di qualsiasi natura per valutare la distribuzione dei loro valori. La distribuzione dei valori di r2 riferiti alle correlazioni tra variabili di tipo indipendente e di tipo dipendente osservate in 60 pubblicazioni scientifiche, condotte in una gamma molto vasta di contesti clinici e fisiopatologici, è risultata molto asimmetrica e presenta un valore mediano di 0.16 e un valore medio di 0.21. Questi dati sostengono il concetto che solo una modesta percentuale della varianza osservata dei parametri clinici può essere spiegata sulla base di una correlazione lineare. Questo aspetto è in linea con il concetto emergente secondo il quale che la natura matematica delle variabili mediche è prevalentemente non lineare. ( Figura 1)

Stiamo in effetti assistendo ad una riconfigurazione del pensiero medico che prende origine da una sorta di rivoluzione culturale basata sulla matematica della dinamica non lineare e dalla teoria della complessità, sviluppate già a partire dagli anni 80 e che dopo essere state applicate a discipline di life science diverse dalla medicina sono progressivamente entrate in ambito medico .

Queste idee rappresentano un cambiamento fondamentale per la nostra visione del mondo vivente e offrono un modello scientifico prima non disponibile per studiare la variabilità e l'irregolarità dei fenomeni umani.

In medicina esistono numerosi esempi di dinamica non lineare, dalla variazione ciclica della conta dei neutrofili e della risposta immune alla epidemiologia delle malattie trasmissibili. Anche i rapporti tra insulina e glicemia sono stati meglio spiegati mediante metodologie non lineari quanto più è stato possibile disporre di monitoraggi a lungo termine delle loro fluttuazioni plasmatiche.

Persino l'organizzazione sanitaria , le regole di management e di gestione ospedaliera sono ora indicate come uno dei campi migliori per l'applicazione della matematica dei sistemi dinamici adattivi .

I modelli del caos sono stati adattati allo studio della funzione cerebrale e dei disordini cognitivi e comportamentali . Anche la funzione cardiaca è stata interpretata con modelli del caos specie per ciò che attiene i disturbi del ritmo . Così dicasi per le modalità di sviluppo e diffusione dei tumori nel contesto delle interazioni tra geni ed ambiente insieme al potenziale per diverse strategie di trattamento e prevenzione.

Un contributo importante per questa riconfigurazione del pensiero medico è venuto dalla genomica e più in particolare dal progetto genoma umano. Si è infatti potuto apprezzare pienamente come i geni interagiscano dinamicamente tra di loro e con l'ambiente e siano portati ad esprimere o sopprimere tratti, esiti, stati di salute o di malattia. Le numerose interazioni avvengono a livelli multipli, risultano complesse, e in grado di influenzarsi a vicenda. E' risultato abbastanza chiaro che questa complessità non poteva essere descritta da modelli lineari ma molto meglio descrivibile dalla matematica dei sistemi complessi.

La dinamica non lineare ci forza ad un ripensamento delle nostre idee sui concetti di causa effetto e di misurazione del rischio. E' ancora possibile attribuire un effetto ad una causa quando le influenze sono multifattoriali, contestuali e non lineari ? Gli interventi potrebbero essere diretti a fattori multipli per ridurre le interazioni non lineari sottostanti ed in certi casi potrebbero essere necessarie solo molteplici lievi modificazioni di fattori critici per produrre effetti terapeutici molto consistenti.

Viste queste premesse non deve sorprendere come da più parti emergano raccomandazioni ad affrontare le analisi dei sistemi complessi in ambito medico con un approccio differente . L'uso delle reti neurali artificiali, degli algoritmi evolutivi e di altri sistemi di "scoperta della conoscenza nelle basi dati" rappresenta una grande opportunità per il clinico: dall'uso estensivo di queste metodologie possiamo aspettarci di essere in grado di sfruttare pienamente tutta l'informazione esistente nell'enorme quantità di dati raccolti in campo sanitario, per comprendere le regole sfumate sottostanti a problemi clinici sempre più complessi. Vi è anche una concreta possibilità di arrivare finalmente ad una statistica nuova che permetta di trarre conclusioni su base individuale e non in termini di appartenenza ad un gruppo. Questo per la diagnosi ma soprattutto per la prognosi, con evidenti enormi vantaggi sia per il clinico che per il paziente.

E' quindi auspicabile una cooperazione sempre più articolata con nuove figure professionali di "biomatematici", esperti dei sistemi dinamici adattivi, per poter migliorare la qualità della fornitura di servizi sanitari alla popolazione.

Approcci statistici tradizionali e reti neurali artificiali : un confronto

Lo scopo della vasta maggioranza degli studi clinici è quello di acquisire sufficiente conoscenza dei fenomeni sottostanti il problema medico in studio per essere in grado di fare qualche sorta di previsione nello spazio (diagnosi ) o nel tempo ( prognosi). Le metodologie statistiche hanno perseguito questo obbiettivo con l'uso di metodiche basate sulla regressione. Per lo studio di eventi con end-points binari ( es. morte - sopravvivenza; malattia A- malattia B; evento- non evento etc. ) la regressione logistica si ritiene sia il metodo di prima scelta, mentre in caso di end-points multinomiali ( uno di n > 2 ) la tecnica più usata è l'analisi discriminante. Queste due tecniche sono diventate degli standard in ragione della loro relativa semplicità e disponibilità diffusa di software di analisi validati.

L'analisi discriminante in particolare è in grado di utilizzare un limitato numero di variabili indipendenti tra quelle disponibili, scegliendole sulla base del grado di correlazione lineare con la variabile target o variabile dipendente. Il modello interpretativo che ne deriva risulta evidentemente più potente quanto più è elevato il grado di linearità delle variabili disponibili.

Le reti neurali in contrasto sono in grado di utilizzare tutta l'informazione disponibile nel data set non avendo alcun limite rappresentato dall'eventuale non linearità presente. In altri termini anche le variabili con un indice di correlazione lineare molto piccolo entrano a far parte del modello interpretativo. Questo spiega perché nella peggiore delle ipotesi, immaginando cioè la presenza, peraltro molto rara di un insieme di variabili estremamente " lineari", le reti neurali danno la stessa performance dell'analisi discriminante, mentre in tutti gli altri casi sono destinate a dare risultati superiori, proprio per la loro capacità di prescindere dalla natura delle variabili in gioco.

Il limite delle reti neurali tradizionali caso mai è proprio legato alla loro propensione di essere una sorta di " approssimatori universali" quando alcune delle variabili raccolte rappresentano più che informazione utile, mero rumore di fondo. In questo caso l'esposizione ad un informazione "sporca" può confondere il sistema che perde in parte la capacità di generalizzare correttamente l'apprendimento effettuato sul data set di training in fase di testing su nuovi casi.

A questo inconveniente è possibile porre rimedio mediante l'utilizzo di nuovi sistemi definibili come "organismi artificiali". Questi "organismi artificiali" sono costruiti attraverso la combinazione di reti neurali di diversa struttura e con diverse leggi di apprendimento e algoritmi evolutivi che interagiscono nella fase di training, eliminando ad esempio le variabili che non danno alcun contributo alla comprensione del fenomeno in studio o addirittura confondono il sistema. Grazie all'utilizzo di questi sistemi più sofisticati e complessi è stato possibile un notevole salto di qualità nel miglioramento della capacità predittiva delle reti neurali rispetto alle analisi statistiche tradizionali.

Quali sono i vantaggi delle reti neurali nella gestione dei problemi medici ?

Da un punto di vista teorico i vantaggi sono molteplici:

  • Le reti neurali sfruttano una nuova matematica, che meglio si adatta alla complessità inerente ai sistemi biologici
  • Riproducono l'interazione dinamica di fattori multipli permettendo lo studio della complessità
  • Permettono di trarre delle conclusioni su base individuale e non come andamento medio.

Questo ultimo aspetto è veramente importante nella medicina clinica, dove il medico si trova costantemente nella necessità di prendere delle decisioni nel paziente individuale dovendo bilanciare rischi e vantaggi che ha imparato dalla statistica essere riferiti non a singoli casi bensì a gruppi di individui.

Negli ultimi tre anni la nostra Direzione Medica ha avuto l'opportunità di collaborare con un ente di ricerca pubblico riconosciuto dal MURST : il Centro Ricerche Semeion che già a partire dagli anni '80 si è dedicato alla ideazione e sviluppo di sistemi artificiali adattativi , basati su reti neurali e algoritmi evolutivi.

Mettendo a disposizione basi dati di buona qualità che Bracco aveva assemblato nel corso degli anni in studi clinici ed epidemiologici , è stato così possibile saggiare la potenzialità delle reti neurali su una ampia gamma di problematiche cliniche, ponendole a confronto con le metodologie statistiche tradizionali. La tabella sottostante riassume per sommi capi gli obiettivi raggiunti nei primi 30 mesi di collaborazione.

Il bilancio di questa prima fase di attività è risultato estremamente positivo e fornisce un razionale forte per proseguire oltre questa partnership, fatti salvi aspetti critici legati ad un adeguato sostegno economico.

La tabella sottostante riporta alcuni esempi applicativi delle reti neurali in medicina con rilevanza potenziale per l'assistenza sanitaria nati dalla collaborazione con Semeion.

In tutte le applicazioni, che sono oggetto o in corso di pubblicazione, si è ottenuta una superiorità rilevante sia sotto l'aspetto statistico che clinico nei confronti dei metodi di analisi tradizionali e per alcuni ambiti è stato possibile sviluppare applicativi per personal computer in grado di elaborare e rispondere in tempo reale.

Come è visibile nella tabella la malattia di Alzheimer ha rappresentato il focus di indagine e sperimentazione più importante, con la possibilità dimostrata di migliorare a)la predizione del rischio di sviluppare la malattia, b) la sua corretta classificazione diagnostica c) la predizione della risposta alla terapia farmacologia. Se i risultati ottenuti con le reti neurali Semeion saranno confermati su casistiche più ampie, essi rappresenteranno un passo concreto per la costruzione di strumento operativi per la malattia di Alzheimer che potranno essere utilizzati da qualsiasi medico nella propria pratica quotidiana.

La medicina alla ricerca di un nuovo umanesimo?

L' umanesimo medico , dal suo prototipo classico così ben descritto da Cronin nella " Cittadella " sino alla versione più casereccia ma ben vivida nella nostra memoria del medico condotto è andato scomparendo progressivamente nel corso del XX secolo come conseguenza di diversi fattori : l'istituzione della figura del medico mutualista pagato non come nell'antica Cina sulla base del buon stato di salute della propria popolazione di assistiti, ma sulla base della prestazione, la mancata pianificazione dell'accesso universitario alla laurea di medicina e chirurgia degli anni 60 e 70 con conseguente pletora e appiattimento professionale, l'eccessiva fiducia nella strumentazione diagnostica, l'eccessiva specializzazione delle competenze e ultimo ma non meno importante il riduzionismo statistico impostosi con il dogma della cosiddetta "evidence based medicine" portata al suo eccesso.

E' proprio a quest'ultimo fattore che ritengo opportuno dedicare una migliore attenzione dal momento che se ne parla assai raramente, ma è di fondamentale importanza.

La medicina moderna sta dimenticando che i pazienti rappresentano l'obiettivo primario della assistenza clinica, pazienti intesi come persona integra, fonte univoca per l'osservazione di fenomeni particolari propri e specifici di esseri umani integri .

Questo concetto olistico era chiaramente capito dai medici del passato che, in assenza di tecnologie avanzate e servendosi di utensili assai semplici ( abbassalingua, stetoscopio, martelletto) dovevano concentrarsi sull'esame accurato del paziente ( la famosa visita ) in maniera diretta. In quella vecchia epoca un medico che voleva sapere cosa stava accadendo al paziente non aveva altre scelta se non elicitare il racconto dettagliato degli eventi e dei fenomeni associati ai disturbi lamentati e servirsi al contempo delle informazioni ricavate semplici da manovre e osservazioni effettuate sul paziente ( la cosiddetta semeiotica medica ).

L'integrazione della immensa quantità di dettagli derivati dal rituale della cosiddetta anamnesi e della visita medica era lasciata al " giudizio clinico " in grado di soppesare, valutare, scartare e selezionare le informazioni ottenibili ai fini della decisione clinica, avendo anche come riferimento oltre che la propria esperienza, la teoria della medicina appresa all'università .

Questo tipo di scienza, che era a volte difficilmente distinguibile da una vera e propria arte, era in sostanza tesa a identificare e classificare la condizione di un organismo vivente integro - in altre parole a proporre una diagnosi , a predire cosa sarebbe avvenuto più avanti, ovvero stabilire la prognosi, e soprattutto ad intervenire al meglio per produrre modificazioni favorevoli nel tempo - vale a dire esercitare la migliore terapia per quel paziente.

Queste tre principali attività : diagnosi, prognosi e terapia rappresentano l'essenza di ogni forma di pratica medica e sono specifiche di questa disciplina, in contrasto abbastanza netto con altre discipline affini quali la biologia o la farmacologia. In queste seconde discipline il focus non è l'organismo integro ma piuttosto qualche suo frammento come organi, tessuti, fluidi , cellule, o addirittura molecole.

Queste discipline si sono avvalse della statistica come strumento interpretativo che , attraverso meccanismi di riduzionismo e di inferenza basata sulla teoria delle probabilità e sul presupposto di linearità ha permesso di descrivere, interpretare e giudicare i singoli fenomeni che si voleva analizzare.

Il grave errore che si è perpetrato negli ultimi 50 anni è stato quello di assoggettare la scienza medica, che si occupa della persona integra a questo tipo di riduzionismo, rinunciando così a priori ad utilizzare al meglio l'informazione soft, derivabile da dati multidimensionali , spesso soggettivi e sfumati a vantaggio di dati hard, obiettivi, monodimensionali .

In questo modo la descrizione dettagliata che permette di definire un dolore toracico come angina pectoris è stata rimpiazzata dalla misurazione dello slivellamento del tratto ST all'elettrocardiogramma ; in maniera analoga le sensazioni di mancanza di respiro che permettono di definire la presenza di dispnea sono state sostituite dalla misurazione di tests di funzionalità polmonare .

Questi sono tipici esempi di riduzionismo da sostituzione.

Questa sostituzione è molto problematica per una ragione molto semplice : le entità che si vanno a scambiare, quella clinica e quella tecnologica non sono perfettamente speculari. E' nozione comune che non tutti i pazienti con angina presentano slivellamento del tratto ST e viceversa; la stessa cosa vale per la dispnea e i tests di funzionalità respiratoria e per molti altri parametri.

Una diversa ma ancor più grave conseguenza è che nel caso in cui il dato soft o soggettivo, non trovi una merce hard di scambio, il fenomeno viene semplicemente ignorato, non essendo possibile sottoporlo ad analisi statistica. E' così che una serie di fenomeni complessi che caratterizzano ad esempio i sentimenti di una persona, vengono esclusi dall'analisi statistica. Anche se la "clinimetria" ha fatto passi da gigante, grazie all'apporto di farmacologi clinici ed epidemiologi illuminati che si sono sforzati di inventare scale, punteggi e parametri atti a misurare le sensazioni soggettive, il mondo scientifico ufficiale ha finito per privilegiare fenomeni hard, come l'ospedalizzazione o la morte, il dato più hard di tutti quelli immaginabili, come eventi chiave attraverso cui valutare l'efficacia di una determinata terapia ad esempio, rinunciando a fenomeni più soft come il sollievo, il benessere o la capacità funzionale.

La statistica per definizione è un attrezzo di sintesi e agglomerazione dei dati.

Il singolo individuo viene così ad essere compresso, confuso e negletto in gruppi di studio o di analisi che tengono conto dell'età, del sesso, della diagnosi o del tipo di terapia. Per ogni gruppo i risultati di misurazioni monodimensionali come la pressione arteriosa o la presenza di una alterazione vengono riassunti come valori medi o come tassi percentuali rispettivamente.

Il formar gruppi è una necessità convenzionale che risponde soprattutto ad esigenze di comunicazione dei dati in un mondo in cui il tempo è sempre più uguale a denaro.

E' così che la statistica è stata sviluppata più come strumento per l'epidemiologo, che ha necessità di descrivere , misurare e confrontare gruppi o popolazioni di individui, piuttosto che come ausilio per il clinico. E' chiaro che per il clinico che si trova a confrontarsi quotidianamente con casi individuali, la statistica dei gruppi non offre una particolare utilità.

La classe medica ha purtroppo sempre più delegato agli statistici la responsabilità di prendere decisioni sul disegno, l'analisi e l'interpretazione della ricerca mirata alla cura dei malati , e si è lentamente ma inesorabilmente rassegnata all'uso di dati hard, perdendo di vista la vocazione umanistica originaria.

Fortunatamente negli ultimi anni si è assistito ad una reazione culturale tesa al recupero di questi concetti e valori. L'enorme successo degli studi sulla qualità di vita è un valido esempio di questo nuovo atteggiamento, rivolto al recupero di umanesimo e di attenzione ai dati personali e soggettivi, a cosa ne pensa il paziente, a come valuta la propria situazione , a come giudica quello che succede intorno a lui.

La sfida del futuro sarà quella di sviluppare una "statistica non lineare dell'individuo" che al momento non c'è. In altri termini si sente la necessità di una tecnologia di analisi in grado di gestire informazioni complesse, sfaccettate, multidimensionali, sfumate, per ricavare regole con le quali classificare, predire e proiettare il singolo individuo; questo non per sostituirsi alla sagacia e acume del giudizio medico, ma per aiutarlo nelle decisioni critiche di fronte al proprio malato.

La medicina ha bisogno di una nuova logica?

Anche se non ce ne siamo accorti, il nostro modo di ragionare in campo medico non segue il nostro istinto naturale, ma è fortemente influenzato dalla concezione bivalente Aristotelica della verità. Questo non deve stupirci, dato che la visione Aristotelica della scienza ha influenzato il pensiero scientifico del mondo occidentale per oltre due millenni, e la medicina non è sfuggita, anzi risulta oggi la disciplina più conservativa. Come è noto le basi della logica Aristotelica portano ad accettare il concetto che un determinato enunciato può essere o vero o falso, punto a capo. "Tertium non datur" dicevano così gli aristotelici ; una cosa cioè non può essere e non essere allo stesso tempo, o essere allo stesso tempo vera o falsa.

Trasportato in campo medico questo vuol dire che un determinato paziente deve così essere classificato necessariamente o come sano o come malato; una malattia deve essere presente o assente , un esame di laboratorio deve essere entro o fuori range, e così via. Questo modo di ragionare ha indubbiamente i suoi vantaggi e ciò spiega perché ha avuto un così enorme successo. Ad ogni momento il sistema logico Aristotelico ci offre la possibilità di stare in uno di due ambiti precisi di classificazione, minimizzando il rischi di incertezza. Inoltre questa logica diventa il substrato ideale per l'approccio matematico probabilistico, dove è possibile definire, in situazioni di incertezza, la probabilità di appartenere ad una o all'altra definizione.

Man mano che nel corso dell'ultimo secolo è aumentata la percezione di complessità del mondo vivente da parte di vari scienziati, è risultato chiaro che questa logica si dimostrava insufficiente a reggere il peso della nuova realtà.

La natura delle cose si manifestava infatti molto più complessa del previsto: infatti più aumenta la nostra precisione nei metodi di misurazione della realtà che ci circonda, più ci rendiamo conto che la definizione di un oggetto del mondo reale è incerta, sfumata , "fuzzy".

Cosa fa sì che un determinato stato patologico possa essere definito malattia? Ha senso etichettare un soggetto come malato se supera anche di poco un certo "cut-off" di punteggio relativo ad un certo criterio diagnostico o non è forse più razionale pensare che quel soggetto con quelle determinate caratteristiche faccia parte con un certo grado di appartenenza ("membership") al club dei soci di quella determinata malattia? In effetti negli anni 20' Lukasiewicz , un matematico-logico polacco, descrisse una logica a tre valori e la relativa matematica esplicativa.

Il terzo valore che egli introdusse può essere tradotto al meglio con il termine" possibile", ed egli gli assegnò un valore numerico tra il vero e il falso. Ben presto questa "indeterminazione" si trasformò da un numero pre-ordinato di valori ad un continuo tra 0 e 1, una sorta di "membership function", ovvero un numero reale che definiva il grado di appartenenza di un individuo ad una determinata classe.

Il modo di vedere le cose "fuzzy" riconosce che non esiste mai una linea di demarcazione netta tra le cose e non le cose, anzi più aumenta la nostra capacità di trattare l'informazione, più emerge questa natura sfumata. L'impiego di questa logica nuova permette di superare i limiti di un approccio binario e dicotomico ai problemi e di applicare un concetto diverso a quello della probabilità in situazioni dove è fondamentale esprimere un giudizio calato sull'individuo. Non si tratta più di affermare infatti che quel soggetto ha una probabilità di essere malato dell'80%, o

una probabilità dell'80% di avere un evento entro cinque anni, o una probabilità dell'80% di rispondere ad una terapia ( a seconda che di troviamo in un ambito diagnostico, prognostico, o di trattamento rispettivamente), quanto invece affermare che quel soggetto è all'80% appartenente alla classe degli affetti da quella tipica malattia, o alla classe dei soggetti a rischio, o dei responders alla terapia. Questo approccio fa una bella differenza sia dal punto di vista logico che da quello matematico.

Dal punto di vista logico permette di gestire situazioni molto complesse dove ad esempio un paziente deve essere valutato attraverso criteri multipli, basati su range di valori precisi, come è il caso dei valori di riferimento per gli esami di laboratorio. Immaginiamo di avere tre tests di laboratorio che definiscono lo stato di salute e il cui range risulta compreso rispettivamente tra 80 e 120 (esame A); tra 50 e 100(esame B) e tra 8 e 12 ( esame C).Due pazienti si sottopongono alla batteria di esami e il primo ottiene i seguenti valori: 100,101,e 12,1. Il secondo invece ottiene 120, 50 e 12. Qual è lo stato di salute dei due pazienti ? La logica binaria definirebbe il primo paziente come malato e il secondo come sano. La logica fuzzy invece permette di appurare che il grado di appartenenza alla categoria dei malati è del tutto simile, come del resto saremmo portati istintivamente a ritenere. Aspetto molto interessante, tutte le forme di previsioni originate dai cosiddetti sistemi dinamici adattivi, reti neurali in particolare, è basata su una logica "fuzzy". Quando questi sistemi danno una risposta in termini predittivi non si afferma che quel determinato paziente appartiene ad un gruppo che "tipicamente" ha una probabilità del …% di essere o no essere qualcosa, ma bensì che quel paziente appartiene con un certo % a quel qualcosa (Figura2). E' il singolo soggetto a dominare e non il gruppo. Ecco quindi una logica adatta al singolo individuo, al paziente che sempre più si dice debba essere al centro dell'attenzione del sistema sanitario. Riuscirà il fuzzy-pensiero ad imporsi definitivamente in campo medico? Tutto fa ritenere di sì; si tratta di stabilire solo entro quanto tempo e a che prezzo ( completa riforma del curriculum universitario).

Per concludere, ecco brevemente un altro esempio di ritorno all'approccio olistico nella scienza medica : ci riferiamo alla riscoperta della cosiddetta medicina del racconto ovvero della cosiddetta " Narrative medicine".

Questa nuova disciplina , proposta qualche anno fa da un gruppo di clinici londinesi, propone il recupero delle capacità di ascolto , di interrogazione, di spiegazione , mediazione e interpretazione così peculiari nel medico clinico, rispetto alle parole ed espressioni usate dal paziente per descrivere se stesso e la propria condizione.

Il tentativo è quello di trovare finalmente una metrica adatta a gestire aspetti qualitativi esistenziali come l'angoscia, la disperazione, la speranza , il dolore morale, l'ansia, l'amore, l'odio, che frequentemente accompagnano o rappresentano addirittura la vera forma di malattia.

Il successo di questa nuova disciplina nei prossimi anni potrà fornire una precisa testimonianza di quanto sia oggi sentita da parte di molti studiosi e clinici la necessità di ricostruire nella comprensione del vissuto del paziente quel rapporto di conoscenza e di fiducia senza il quale nessun farmaco potrà alleviare in maniera armonica lo stato di sofferenza che continua ad essere un'ingombrante e indesiderato compagno di viaggio della nostra specie.

BIBLIOGRAFIA

Horton R. The refiguration of medical thought. Commentary. The Lancet 2000; 356: 2- 4.

Kaplan D, Glass L. Understanding nonlinear dynamics. Springer-Verlag, New York 1995.

Sardar Z, Abrams I. Introducing chaos. Cambridge: Icon Books, 1998.

Baum M, Chaplain MAJ, Anderson ARA, Douek M, Vaidya JS. Does breast cancer exist in a state of chaos? Point of view. Euro J Cancer 1999; 35: 886-91.

Goodwin J. Chaos and the limits of modern medicine. JAMA 1997; 278:1399-1400.

Philippe P, Mansi O. Nonlinearity in the epidemiology of complex health and disease processes. Theor Med Bioeth 1998; 19:591-607.

Griffiths F, Byrne D. General practice and the new science emerging from the theories of "chaos" and complexity. Discussion Paper. British J Gen Practice 1998; 48:1697-9.

Wilson T,Holt T. Complexity and clinical Care. Br. Med.J. 2001;323:685-8

Figura 1 Distribuzione dei valori di r2 tra variabili indipendenti e dipendenti in 60 lavori pubblicati negli ultimi 2 anni in campo medico

Figura 2 Confronto tra teoria classica e teoria "fuzzy"

Per uno stesso valore della variabile x, per la teoria classica il paziente risulta malato, mentre per la teoria fuzzy risulta malato al 20%

Gli editoriali più recenti
   
Geragogia.net © - Dott. Giovanni Cristianini - 2001 - 2018