C ome sarà capitato di notare a chiunque abbia visto almeno una partita di calcio in vita sua, può succedere che alcuni calciatori si buttino a terra non appena un avversario gli si avvicina. Cercano il fallo, è chiaro. E non lo fanno in un momento qualsiasi. Lo fanno quando l’avversario arriva in corsa verso di loro, o quando i loro corpi si sfiorano appena. In altre parole, alcuni calciatori hanno una spiccata capacità di intravedere quando si sono create le circostanze giuste per ingannare lo sguardo esperto dell’arbitro, facendogli sembrare che quella caduta sia proprio la conseguenza dell’impatto con l’avversario.
Quello che stanno inconsapevolmente facendo è sfruttare la capacità innata dell’arbitro (posseduta in quanto essere umano, non in quanto direttore di gara) di mettere insieme due eventi che avvengono uno dopo l’altro. Il nostro cervello, infatti, si è evoluto sviluppando una particolare propensione a leggere nessi di causa-effetto tra elementi vicini nel tempo o nello spazio. Se accade una cosa e subito dopo ne accade un’altra, saremo portati a pensare che la prima avrà causato la seconda: se un calciatore corre verso un altro e questo cade, probabilmente sarà a causa della spinta del primo.
Questa particolare abilità, di mettere insieme due eventi che si susseguono tra loro, si è rivelata fondamentale per la sopravvivenza della nostra specie. Tanto per i nostri avi quanto per noi abitanti del mondo contemporaneo, saper anticipare le possibili conseguenze di un evento ci permette di evitare eventi potenzialmente pericolosi. Al nostro cervello bastano pochissimi elementi e non più di una frazione di secondo per leggere un nesso di causa-effetto. È sufficiente intravedere un paio di occhi in mezzo a un cespuglio o sentire un rumore improvviso per farci scattare verso un riparo sicuro. Non c’è tempo per chiedersi se quello nel cespuglio sia effettivamente un leone – o se il clacson che ha suonato ce l’avesse proprio con noi – perché qualche secondo può fare la differenza tra la vita e la morte: prima mi scanso, e poi magari capisco se il pericolo era reale.
Il nostro cervello si è evoluto sviluppando una particolare propensione a leggere nessi di causa-effetto tra elementi vicini nel tempo o nello spazio.
Questo modo “rapido” di prendere decisioni funziona molto bene finché gli elementi in gioco sono pochi, ma quando lo scenario nel quale dobbiamo prendere la decisione è più complesso, i giochi iniziano a farsi duri. Nel libro Grammatica del vedere. Saggi su percezione e Gestalt di Gaetano Kanizsa (il Mulino) vengono descritti una serie di studi classici della Gestalt – un’influente corrente psicologica sviluppata a partire dal Novecento. Questo tipo di ricerche ha dimostrato da un lato come il nostro cervello abbia sviluppato la capacità di leggere nessi tra elementi in modo così fine che tende a vedere regolarità di continuo (o a sforzarsi di cercarne una anche laddove non c’è, come nella pareidolia, l’illusione subcosciente che ci porta a percepire forme note in profili casuali: è il motivo per cui, per esempio, la facciata di una casa con due finestre e una porta può istintivamente ricordarci un volto); dall’altro lato, questi studi hanno dimostrato che il nostro cervello fa però molta fatica a mettere insieme cause ed effetti lontani nel tempo.
Nella vita di tutti i giorni, questo si traduce nel fatto che, di solito, ad una nostra azione seguono subito le sue conseguenze, e così ci ritroviamo facilmente in grado di individuare la causa in quella nostra azione. Ma se le conseguenze sono lontane nel tempo, ci sarà difficile coglierne (o ammetterne) il nesso. Probabilmente, molte persone smetterebbero subito di fumare se potessero vedere in tempo reale come ogni boccata trasforma i loro polmoni, o se perdessero rapidamente la capacità di respirare a pieno. Così come molti di noi mangerebbero di meno se la pancia ci si allargasse visibilmente ad ogni boccone. Quando gli effetti sono lontani (nel tempo o nello spazio) dalle scelte che li hanno determinati, tendono ad essere considerati come distaccati.
Più sono complicate le scelte, più è necessario uno sforzo per trovare una risposta adeguata. Ma il nostro cervello non è spontaneamente portato a dispendere energie. Quando può, tende a ridurre al minimo gli sforzi aumentando al massimo il rendimento. Ad esempio, se non abbiamo tutte le informazioni a disposizione per perdere una decisione, non sta lì ad aspettare: scegliere rapidamente quel che sembra intuitivamente corretto fa risparmiare energie. Per farlo, utilizza specifiche strategie, delle scorciatoie mentali (dette euristiche) che hanno il vantaggio di farci risparmiare tempo e fatica sulle scelte semplici, ma che possono trasformarsi in trappole mentali sistematiche, ovvero bias cognitivi, quando le scelte si inseriscono in un contesto più complesso. Il termine bias cognitivo è molto utilizzato nell’ambito della psicologia e dell’economia cognitiva e indica proprio la tendenza sistematica a deviare da un giudizio ritenuto razionale e a fornire un’interpretazione non oggettiva delle informazioni.
Le scorciatoie mentali adottate dal cervello umano hanno il vantaggio di farci risparmiare tempo e fatica sulle scelte semplici, ma possono trasformarsi in trappole mentali sistematiche quando le scelte sono più complesse.
Daniel Kahneman e Amos Tversky sono stati tra i primi scienziati a studiare questi meccanismi di decisione in un serie di ricerche che hanno fatto la storia della psicologia e che sono brillantemente riassunte nel libro Pensieri lenti e veloci di Daniel Kahneman (Mondadori, ne ha parlato approfonditamente Nicola Nosegno per Il Tascabile). Per spiegare alcune delle decisioni “irrazionali” che caratterizzano l’essere umano, gli autori propongono l’esistenza di due sistemi di pensiero: il primo è rapido, istintivo ed emotivo e si basa sull’uso delle euristiche per valutare velocemente una certa situazione. Il secondo, invece, è lento, logico e razionale. Richiede uno sforzo maggiore, ma è meno predisposto a cadere nei bias cognitivi. Insomma, decisioni come vaccinare se stessi o i propri figli, acquistare prodotti geneticamente modificati, donare gli organi o essere favorevoli all’energia nucleare sono scelte complesse che richiedono più della frazione di secondo necessaria (ma, a volte, comunque non sufficiente) all’arbitro di una partita di calcio.
Tutto tranne perdere
Immaginiamo di dover giocare ad un gioco in cui ci sono due opzioni:
(A) perdere 100€
(B) lanciare una moneta e perderne 200€ se esce testa o nulla se esce coda
Quale scegliete? E se invece le due scelte fossero:
(A) vincere 100€
(B) lanciare una moneta e vincerne 200€ se esce testa o nulla se esce coda
Come cambierebbe la vostra scelta?
In una serie di studi dell’Università della British Columbia e dell’università di Stanford, sono state poste domande simili ad una serie di volontari e si è osservato che la maggior parte delle persone preferisce l’opzione B nel primo scenario e l’opzione A nel secondo. Eppure, dal punto di vista matematico le due opzioni sono equivalenti. Il valore atteso dell’opzione B (calcolabile considerando la probabilità dei due esiti del lancio della moneta, ovvero 0.5×200 + 0.5×0) è uguale a 100, che è lo stesso valore atteso dell’opzione A.
Questi studi indicano che, per noi esseri umani, i rischi non sono tutti uguali. La possibilità di perdere fa molta più paura di quanto non ci esalti la possibilità di vincere. Solitamente, le persone nel primo caso preferiscono rischiare di perdere 200€ (opzione B), pur di sottrarsi a una perdita inferiore ma inevitabile. Mentre nel secondo caso, preferiscono il guadagno sicuro (opzione A).
Anche se le probabilità di vincita delle due opzioni si equivalgono, siamo disposti a rischiare di più pur di non perdere. Questo è il succo della cosiddetta avversione alla perdita, ovvero quella trappola mentale che ci porta a valutare diversamente il rischio di una scelta a seconda che le sue conseguenze siano viste in termini di perdita o di vincita. Di fronte alla possibilità di grosse perdite, anche le persone solitamente poco propense al rischio fanno scelte più azzardate pur di evitarne le conseguenze negative.
Proprio perché siamo naturalmente avversi alla perdita, la possibilità (anche recondita) che esista un legame tra un vaccino e un possibile effetto collaterale grave ci prospetta uno scenario di perdita talmente negativo che siamo disposti a rischiare tutto, anche di ammalarci, pur di evitarlo. Contrarre una malattia è come un rischio passivo: se anche succedesse, non dipenderebbe direttamente da una mia azione. L’effetto collaterale di un farmaco è, invece, un rischio attivo: sono io che ho attivamente scelto di assumerlo.
Di fronte alla possibilità di grosse perdite, anche le persone solitamente poco propense al rischio fanno scelte più azzardate pur di evitarne le conseguenze negative.
Diversi studi in campo psicologico hanno mostrato come non agire sia spesso un’opzione preferibile, perché sembra sollevarci dalla responsabilità morale delle conseguenze. Ma anche quella di non scegliere è una scelta. Un altro esempio: in Inghilterra, Belgio, Austria, Spagna, Chile ci sono molti più donatori d’organi che in Italia, Brasile, Stati Uniti e Israele. Dipende dalla maggiore generosità d’animo delle persone che vivono nel primo gruppo di paesi? No, perché anche in questo caso, di fronte a una scelta così complessa, la cosa più semplice diventa “non scegliere”: nel primo gruppo di paesi, infatti, viene richiesto di scegliere attivamente la possibilità di non donare, mentre nel secondo gruppo di paesi, la scelta attiva è richiesta solo se si vuole donare. In entrambi i casi, solo se si ha una forte opinione favorevole o contraria si farà una scelta attiva. Altrimenti, non fare nulla ci darà l’illusione di non essere responsabili delle conseguenze.
Così dicon tutte
Un fattore che complica non poco la nostra capacità di prendere decisioni oggettive, è dato dalla quantità e dalla qualità delle notizie che circolano su quell’argomento. Oggi siamo costantemente bombardati da una enorme quantità di informazioni. Questa quantità di notizie influenza la nostra capacità di stimare quanto siano effettivamente probabili le informazioni a cui siamo esposti.
Com’è noto, quasi una ventina di anni fa fece scalpore l’ipotesi di un possibile nesso tra il vaccino per il morbillo e l’insorgenza di alcune malattie come l’autismo. L’allarme nasceva da una pubblicazione scientifica che si sarebbe rivelata fraudolenta. Il medico che sollevò il polverone, Andrew Wakefield, venne radiato. Anche dopo la definitiva, unanime e palese smentita di quella correlazione da parte del mondo medico e scientifico, la copertura mediatica su questo argomento non si è mai davvero spenta, tanto che anche oggi, a distanza di tanti anni, continua a essere impossibile non averne sentito parlare, anche solo di sfuggita. Di contro, nessuno ha ovviamente mai sentito parlare al telegiornale di quanti bambini non sono morti grazie allo stesso vaccino. Gli psicologi hanno da tempo dimostrato che quanto più siamo esposti ad una certa informazione, tanto più ci apparirà probabile e veritiera. Si tratta dell’euristica della disponibilità, ovvero la tendenza a stimare la possibilità che si verifichi un evento sulla base delle informazioni che ricordiamo più facilmente. In altre parole, se ho sentito parlare solo del nesso autismo-vaccino ma non delle vite salvate, quale pensate che sarà il mio primo pensiero quando si parla di vaccini?
Un’altra trappola mentale nella quale è facile cadere in questi casi è il bias di conferma, ovvero la tendenza a ricercare attivamente informazioni che non fanno altro che confermare quello che pensavamo in partenza. Siamo bravi a prestare attenzione e ricordare le opinioni o le informazioni che confermano le nostre idee, e siamo anche molto abili nell’ignorare quelle che sono in contrasto.
Un’altra trappola mentale nella quale è facile cadere è il bias di conferma, la tendenza a ricercare attivamente informazioni che non fanno altro che confermare quello che pensavamo in partenza.
Questo bias ha trovato terreno fertile nell’era dei motori di ricerca e delle notizie personalizzate, come quelle offerte da Google, Facebook, YouTube, considerando come attualmente funzionano i loro algoritmi di ricerca. Dopo aver letto un articolo o visto un video su autismo e vaccino ve ne verranno proposti sempre di più simili, che andranno ad alimentare la spirale delle vostre convinzioni. Finiremo con il ricordare soprattutto le notizie che parlano dei possibili rischi, tralasciando o sminuendo qualunque informazione che ne metta in risalto gli effetti positivi ottenuti negli ultimi decenni. Oppure immaginate di volervi informare sulle possibili conseguenze di un vaccino. Cosa scrivereste sul motore di ricerca? Probabilmente qualcosa come “vaccini” e “effetti collaterali”. Con una ricerca simile, sarà altamente improbabile che vi imbattiate in un articolo sui casi di successo dei vaccini. Ma una scelta basata su questi presupposti, può davvero definirsi informata?
La luce in fondo al tunnel
Diverse ricererche hanno tentato di capire non solo quali sono le trappole mentali in cui cadiamo più comunemente, ma anche come evitarle. Osservazioni empiriche e risultati sperimentali sembrano concordare sul fatto che esserne consapevoli non è abbastanza. C’è bisogno di qualche trucco pratico per darci una mano?
Alcuni studi hanno mostrato che considerare attivamente il punto di vista opposto al proprio – venendo invitati a farlo o essendo esposti a materiali e informazioni che raccontano una prospettiva diversa dalla propria – possa essere una strategia estremamente utile per superare posizioni basate su un preconcetto. Altri studi hanno invece indicato l’importanza di pianificare in anticipo la strategia utile a prendere una certa decisione – ovvero decidere passo per passo le mosse che devono portare ad una data scelta – e ricevere un feedback esterno a riguardo può permettere di fare scelte meno “irrazionali”.
L’effetto pratico dei bias cognitivi non è da sottovalutare e può influenzare le più disparate tipologie di decisioni, da quelle quotidiane, al supermercato, fino a quelle emergenziali, in campo medico per esempio, e scelte come queste richiedono razionalità e scetticismo, perché sono decisamente più complesse dello stabilire un fallo durante una partita. Se sbagliamo, e sbaglieremo, non abbiamo nessuna VAR a cui fare ricorso. Studi, analisi e ricerche possono quantomeno dare qualche utile indicazione per guidarci tra tutte queste trappole mentali, a noi la scelta di seguirle o ignorarle.