giovedì 5 ottobre 2017

L’informazione scientifica tra fatti, ambiguità e frottole - Annamaria Testa


“Sei il presidente del Cicap? Devi essere molto scettico…”, dice un’analista al suo paziente.
“No”, risponde il paziente, “non ne sono convinto”.
A raccontare questa storiella è Sergio Della Sala, direttore dell’unità di Human cognitive neuroscience dell’Università di Edimburgo e, appunto, presidente del Cicap (Comitato italiano per il controllo delle affermazioni sulle pseudoscienze).
Il Cicap è l’assai meritevole organizzazione che Piero Angela ha fondato, insieme a un gruppo di scienziati, alla fine degli anni ottanta. Obiettivo: valutare e demistificare i fenomeni paranormali e le credenze prive di fondamento, dal creazionismo alla chiaroveggenza, dai cerchi nel grano alle bufale mediche.
Della Sala interviene in apertura del convegno del Cicap intitolato “Il valore dei fatti nell’era della post-verità”. Dice cose utili e interessanti. Spiega alcuni meccanismi cognitivi che stanno alla base della diffusione delle bufale, e specialmente delle bufale mediche. Quel che dice merita di essere condiviso. Dunque, prendo appunti.

Atti di fede
Della Sala ricorda che tutti possiamo autoingannarci. E invita a essere sì scettici, ma non faziosi. La faziosità non funziona, nemmeno per smontare le notizie false. Molto meglio argomentare la propria posizione, restare vicino ai fatti e provare a capire quel che accade nella mente delle persone.
D’altra parte, perfino credere nei fatti è un atto di fede – “if you are a scientific believer you too are taking almost all of it on trust”, scrive Michael Brooks su New Scientist. E non basta neppure cercare le evidenze, perché spesso siamo di fronte a evidenze non abbastanza nette, o contraddittorie. Insomma: bisogna essere cauti, ma cauti davvero.
Ma che cos’è un’evidenza? Il senso comune (per esempio, il detto moglie e buoi dei paesi tuoi) non è un’evidenza, e può essere inquinato da semplificazioni o pregiudizi. Un cliché (per esempio, le donne non sanno guidare) non è un’evidenza. Una dichiarazione promozionale (per esempio, “col dentifricio Brillodent sorridi al mondo intero”) non è un’evidenza. Affermazioni di questo tipo possono essere facilmente smontate. Se ne può, cioè, dimostrare scientificamente l’infondatezza e la falsità.
Quando le evidenze non sono nette le cose si complicano. Della Sala fa l’esempio di uno specifico farmaco per curare l’Alzheimer, una malattia straziante, che affligge le persone anziane e destabilizza le famiglie. Bene: alcune ricerche sembrano sostenere che quel farmaco funziona. Altre ricerche dicono l’opposto. Come procedere?
Se si fa una meta-analisi delle ricerche (cioè, se si confrontano tutti i dati emersi dai differenti studi) si vede che c’è discrepanza tra i risultati degli studi finanziati dalle industrie farmaceutiche (assai più favorevoli) e quelli degli studi indipendenti. Ciò significa che perfino quando esaminiamo una ricerca scientifica dobbiamo considerare tutti i dati, compresa la provenienza dei finanziamenti.
Un altro esempio: la Columbia university dà ampia risonanza a uno studio secondo il quale “il cioccolato cura la demenza”. Lo studio viene ripreso da diverse testate, alcune molto autorevoli. Peccato che lo studio goda di finanziamenti senza limiti da parte di un’azienda produttrice di cioccolato. Questo fatto, forse, dovrebbe farci venire qualche dubbio. E farci venir voglia di cercare ricerche indipendenti sullo stesso tema (ammesso che ce ne siano) per vedere che cosa dicono.
E ancora.
È importante tenere conto non solo di che cosa, ma di come pensano le persone. La nostra mente è costantemente alla ricerca di senso, e tende a vedere schemi, strutture, legami di causa-effetto anche in ciò che è del tutto casuale. È il fenomeno della patternicity: la ricerca di schemi (pattern) a ogni costo.

L’esempio di Dante Alighieri
Della Sala fa l’esempio della neuroscienziata inglese che sostiene l’esistenza di un legame tra uso di internet e autismo, in base al fatto che negli ultimi tempi è aumentato l’uso infantile di internet, e sono contamporaneamente aumentate le diagnosi di autismo.
È una falsa correlazione, diventata virale nel Regno Unito. Una falsa correlazione consiste nel fraintendere in termini di causa-effetto la semplice coincidenza casuale tra due fenomeni, uno dei quali (ripetiamolo) non è causa dell’altro. D’altra parte, si può correlare falsamente anche la crescita dell’autismo con la crescita del consumo di cibo biologico.
Le false correlazioni sono tanto seducenti quanto insidiose. Se volete immunizzarvi, date un’occhiata al magnifico sito spurious correlations.
Anche se viene dimostrata la totale falsità di un messaggio, cancellarlo dalla mente è difficilissimo
Oggi le persone tendono a prestare fede a referenti fidati, invece che a referenti esperti. E uno degli errori che fanno gli esperti è confidare nel fatto che fornire più informazioni possa cambiare le cose. Purtroppo questo non succede, nella misura in cui le persone vogliono (o hanno bisogno di) continuare a credere in ciò in cui credono, riducendo il più velocemente possibile il disagio provocato dalla dissonanza cognitiva (cioè dal dover fare i conti con informazioni contrastanti).
Oggi chiamiamo bias di conferma il fenomeno per cui tendiamo a considerare solo i fatti che corrispondono alle nostre opinioni pregresse. Ma già Dante lo descrive perfettamente, nel Paradiso: “Più volte piega / l’opinion corrente in falsa parte / e poi l’affetto l’intelletto lega” (cioè: spesso l’opinione corrente si rivolge al falso, e l’attaccamento a quell’opinione imbriglia l’intelligenza).
C’è un ulteriore effetto con cui fare i conti: una volta che un messaggio è stato diffuso e recepito, e anche se ne viene dimostrata la totale falsità, cancellarlo del tutto dalla mente è difficilissimo. Questo è particolarmente pericoloso oggi, in tempi di grande diffusione delle “riviste predatorie” (qui un articolo su lavoce.infovi spiega bene di che si tratta).
In sostanza, si tratta di riviste online che si fingono scientifiche, hanno nomi che appaiono scientifici, ma pubblicano a pagamento qualsiasi articolo inviato da qualsiasi ricercatore o sedicente tale, senza alcuna revisione o verifica. Il fatto è stato dimostrato dal corrispondente di Science John Bohannon, che ha spedito lo stesso paper pieno di errori marchiani a 304 riviste, ritrovandoselo pubblicato nel 60 per cento dei casi.
Il fatto è stato nuovamente dimostrato di recente, quando un neurobiologo è riuscito a farsi pubblicare un assurdo articolo sui midicloriani, entità che vivrebbero nelle cellule degli Jedi (sì, siamo in pieno Star Wars) e sarebbero responsabili dei loro poteri. E ci sono anche due scienziati che sono riusciti a farsi pubblicare su una rivista “scientifica” un articolo costituito da una singola frase, “Get me off your fucking mailing list”, replicata cinquemila volte e corredata di schema esplicativo. Qui l’articolo.
Dunque: è cruciale stare attenti alle fonti, perché non tutte le riviste “scientifiche” lo sono davvero. Inoltre, prima di dare una notizia riguardante la salute, sarebbe necessario aspettare che sia confermata da più ricerche. Infine, i ricercatori dovrebbero usare cautela e limitare l’enfasi nel divulgare i propri risultati, fino a quando non sono replicati e certificati. C’è differenza nel dire che i vaccini funzionano (migliaia di ricerche lo confermano) e dire che il cavolo rosso cura il cancro: se ad affermarlo è un singolo studio condotto sui topi, essere scettici non è un’opzione. È un obbligo.

Nessun commento:

Posta un commento