Insuccesso Della Ragione: Perché Le Persone Smettono Di Credere Ai Fatti - Visualizzazione Alternativa

Insuccesso Della Ragione: Perché Le Persone Smettono Di Credere Ai Fatti - Visualizzazione Alternativa
Insuccesso Della Ragione: Perché Le Persone Smettono Di Credere Ai Fatti - Visualizzazione Alternativa

Video: Insuccesso Della Ragione: Perché Le Persone Smettono Di Credere Ai Fatti - Visualizzazione Alternativa

Video: Insuccesso Della Ragione: Perché Le Persone Smettono Di Credere Ai Fatti - Visualizzazione Alternativa
Video: SCOPRI SE SEI UNA PERSONA AUTENTICA 2024, Marzo
Anonim

La scienza ha spiegato come e perché il cervello umano si rifiuta di accettare la verità. Capito dall'autrice del New Yorker Elizabeth Colbert.

Nel 1975, gli scienziati di Stanford hanno invitato un gruppo di studenti a partecipare a uno studio sul suicidio. Ai partecipanti sono stati mostrati un paio di note di suicidio. In ogni coppia, una nota era fittizia e l'altra è stata scritta da un vero suicida. Agli studenti è stato chiesto di distinguere tra banconote autentiche e contraffatte.

Alcuni studenti hanno scoperto un'abilità geniale in questo compito. Su venticinque coppie di note, hanno identificato correttamente quella vera ventiquattro volte. Altri hanno mostrato completa disperazione, identificando una nota autentica solo in dieci occasioni.

Come spesso accade nella ricerca psicologica, è stato tutto messo in scena. Mentre metà delle note erano effettivamente autentiche, i risultati riferiti ai partecipanti erano falsi. Gli studenti a cui era stato detto che avevano quasi sempre ragione in realtà non davano risposte molto più corrette di quelli a cui venivano costantemente segnalati errori.

Nella seconda fase dell'indagine, l'inganno è stato scoperto. Agli studenti è stato detto che il vero scopo dell'esperimento era determinare la loro reazione al fatto che avessero ragione o torto. (Anche questo è stato un inganno, come si è scoperto.) Infine, ai partecipanti è stato chiesto di valutare quante note di suicidio hanno effettivamente classificato correttamente e quante risposte corrette pensavano che lo studente medio potesse dare. In quel momento accadde qualcosa di curioso. Gli studenti del gruppo "buoni risultati" si sentivano sicuri di aver fatto abbastanza bene, significativamente meglio dello studente medio, anche se era stato appena detto che non c'era motivo di crederlo. Al contrario, quelli inizialmente assegnati al gruppo con punteggio basso hanno ritenuto di aver ottenuto risultati significativamente peggiori rispetto allo studente medio, una conclusione altrettanto infondata.

"Le impressioni una volta formate rimangono notevolmente stabili", notano seccamente i ricercatori.

Alcuni anni dopo, un nuovo gruppo di studenti della Stanford University è stato reclutato in uno studio simile. Ai partecipanti è stata fornita una selezione di informazioni su una coppia di vigili del fuoco: Frank K. e George H. Nella biografia di Frank, tra le altre cose, è stato riferito che aveva una figlia piccola e amava le immersioni subacquee. George aveva un figlio piccolo e giocava a golf. Conteneva anche le risposte degli uomini al test Risky-Conservative Choice. In una versione dei dati, Frank era un vigile del fuoco di successo che, a giudicare dai risultati dei test, sceglieva quasi sempre l'opzione più sicura. In un'altra versione, Frank preferiva anche l'opzione più sicura, ma era considerato un vigile del fuoco senza valore che riceveva rimproveri dai suoi superiori più di una volta.

Ancora una volta, nel mezzo dello studio, agli studenti è stato detto che erano stati fuorviati e che le informazioni che avevano ricevuto erano completamente false. È stato quindi chiesto loro di descrivere le proprie convinzioni. Cosa pensano che dovrebbe avere un vigile del fuoco di successo riguardo al rischio? Gli studenti del primo gruppo hanno ritenuto che avrebbe dovuto evitare il rischio. Gli studenti del secondo gruppo hanno deciso che, al contrario, doveva prendere decisioni rischiose.

Video promozionale:

Anche dopo che le prove "le loro convinzioni sono state completamente confutate, le persone si rifiutano di riconsiderarle", osservano i ricercatori. In questo caso, il rifiuto è stato "particolarmente impressionante" in quanto i dati grezzi non erano sufficienti per trarre una conclusione generale.

Questi studi sono ormai ben noti. L'affermazione di un gruppo di scienziati secondo cui gli esseri umani non possono pensare in modo sano negli anni '70 è stata scioccante. Non più. Migliaia di esperimenti successivi hanno confermato (e perfezionato) questa conclusione. Qualsiasi studente può dimostrare che le persone apparentemente ragionevoli spesso si comportano in modo completamente irrazionale. Tuttavia, rimane una domanda seria: come ci siamo arrivati?

Nel nuovo libro, The Enigma of Reason, gli scienziati cognitivi Hugo Mercier e Dan Sperber hanno tentato di rispondere a questa domanda. Notano che la mente è un tratto in evoluzione come la postura eretta o la visione tricolore. Ha avuto origine nelle savane dell'Africa e deve essere visto in questo contesto.

Secondo gli scienziati, il più grande vantaggio che gli esseri umani hanno rispetto ad altre specie è la nostra capacità di cooperare. È difficile da organizzare e quasi altrettanto difficile da mantenere. Per qualsiasi persona, usarne un'altra è sempre l'attività migliore. Non ci viene fornita la ragione per risolvere problemi logici astratti o per aiutarci a trarre conclusioni da dati non familiari; piuttosto, è dato per risolvere i problemi che sorgono durante la vita in una squadra.

"La ragione è un adattamento a una nicchia ipersociale che l'umanità sviluppa per se stessa", scrivono Mercier e Sperber. Tendenze ragionevoli che sembrano strane, sciocche o semplicemente stupide da un punto di vista "intellettuale" sembrano molto equilibrate se viste da un punto di vista sociale, "interazionista".

Considera il pregiudizio di conferma, la tendenza di una persona ad accettare informazioni che confermano le proprie convinzioni e a rifiutare le informazioni che le contraddicono. Delle molte forme di pensiero errato che sono state scoperte, questa è la meglio studiata, con una tonnellata di ricerche ad essa dedicate. Uno degli esperimenti più famosi è stato effettuato di nuovo a Stanford. I ricercatori hanno riunito un gruppo di studenti che avevano opinioni opposte sulla pena di morte. La metà degli studenti era favorevole e credeva che lei prevenisse il crimine; l'altra metà era contraria, ritenendo che non avesse alcuna influenza sul tasso di criminalità.

Agli studenti è stato chiesto di studiare due studi. Uno ha sostenuto l'argomento secondo cui la pena di morte ha dissuaso altre persone dal crimine, mentre l'altro ha contestato questa logica. Gli studenti che inizialmente hanno sostenuto la pena di morte hanno valutato molto positivamente i dati sui vincoli e il secondo studio non è stato convincente. Gli studenti che inizialmente si erano opposti alla pena di morte hanno fatto il contrario. Alla fine dell'esperimento, ai partecipanti è stato nuovamente chiesto quali fossero le loro opinioni. Quelli che erano partiti a favore della pena capitale la sostenevano ancora di più, mentre quelli che si opponevano erano ancora più ostili.

Mercier e Sperber preferiscono il termine "pregiudizio myside". Credono che le persone non si fidino di nessuno. Di fronte agli argomenti di qualcuno, troviamo molto abilmente i suoi punti deboli. E in relazione al nostro siamo ciechi.

Un recente esperimento condotto da Mercier in collaborazione con colleghi europei dimostra chiaramente questa asimmetria. I partecipanti dovevano risolvere una serie di semplici problemi logici. È stato quindi chiesto loro di spiegare le loro risposte e di poterle modificare se hanno notato degli errori. La maggior parte dei partecipanti è stata soddisfatta della scelta iniziale, solo meno del 15% ha cambiato idea nella seconda fase.

Nella terza fase, ai partecipanti è stato mostrato uno di questi problemi, insieme alla loro risposta e alla risposta di un altro partecipante giunto a una conclusione diversa. Ancora una volta, sono stati in grado di cambiare le loro risposte. Ma è stato fatto un trucco: le risposte presentate come se qualcun altro le avesse date erano in realtà le loro, e viceversa. Circa la metà dei partecipanti ha capito cosa stava succedendo. Altri sono diventati improvvisamente molto più critici. Quasi il 60% ha rifiutato le risposte di cui era stato precedentemente soddisfatto.

Questo pregiudizio, secondo Mercier e Sperber, riflette il compito di far evolvere la mente - per prevenire problemi con altri membri del gruppo. Vivendo in piccoli gruppi di cacciatori-raccoglitori, i nostri antenati erano principalmente interessati alla loro situazione sociale. Non volevano essere quelli che rischiavano la vita a caccia mentre altri vagavano per la grotta. C'era poco vantaggio di buon senso, ma si poteva ottenere molto con argomenti decisivi.

Tra le altre cose, i nostri antenati non dovevano preoccuparsi dell'effetto deterrente della pena di morte e delle qualità ideali dei vigili del fuoco. Inoltre, non avevano a che fare con ricerche inventate, notizie false o Twitter. Non a caso, oggi, la ragione spesso ci delude. Come scrivono Mercier e Sperber, "Questo è uno dei tanti casi in cui l'ambiente è cambiato troppo rapidamente per la selezione naturale".

Il professor Stephen Sloman della Brown University e il professor Philip Fernbach dell'Università del Colorado sono anche scienziati cognitivi. Anche loro credono che la socialità sia la chiave delle funzioni, o forse più appropriatamente, delle disfunzioni della mente umana. Iniziano il loro libro, L'illusione della conoscenza: perché non pensiamo mai da soli, esaminando la toilette.

In uno studio della Yale University, agli studenti è stato chiesto di valutare la loro comprensione dei dispositivi di uso quotidiano, inclusi servizi igienici, cerniere e serrature a cilindro. È stato quindi chiesto loro di scrivere una spiegazione dettagliata passo dopo passo di come funzionano questi dispositivi e di valutare nuovamente la propria comprensione. Apparentemente, nel processo, gli studenti sono diventati consapevoli della propria ignoranza, perché la loro autostima è diminuita. (I bagni, si scopre, sono molto più complicati di quanto sembri.)

Broken e Fernbach vedono questo effetto, che chiamano "illusione dell'apprendimento profondo", quasi ovunque. Le persone pensano di sapere molto di più di quello che sanno realmente. Altre persone ci permettono di crederci. Nel caso della toilette, qualcuno l'ha progettata in modo che io possa gestirla facilmente. Questo è ciò in cui le persone si sono distinte. Abbiamo fatto affidamento sulla conoscenza reciproca da quando abbiamo imparato a cacciare insieme - questo è stato probabilmente un evento chiave nella nostra storia evolutiva. Lavoriamo così bene insieme, dicono Sloman e Fernbach, che difficilmente possiamo dire dove finisce la nostra comprensione e inizia quella di qualcun altro.

"Una delle conseguenze della naturalezza con cui condividiamo il lavoro mentale", scrivono, "è l'assenza di un confine netto tra le idee e la conoscenza di una persona e degli altri membri del gruppo".

Questa illimitatezza, o confusione, se vuoi, è importante anche in quello che pensiamo come progresso. Le persone, inventando nuovi strumenti per un nuovo modo di vivere, stavano contemporaneamente creando nuovi regni di ignoranza. Se tutti insistessero, diciamo, per padroneggiare i principi della lavorazione dei metalli prima di costruire un coltello, l'età del bronzo non sarebbe una tale rivoluzione.

Secondo Sloman e Fernbach, questo pone seri problemi politici. Una cosa è usare il bagno senza sapere come funziona, un'altra è sostenere (o opporsi) un divieto di immigrazione senza sapere di cosa stai parlando. Sloman e Fernbach citano una ricerca del 2014, poco dopo l'annessione della Crimea da parte della Russia. Agli intervistati è stato chiesto come, a loro avviso, dovrebbero reagire gli Stati Uniti e se potrebbero identificare l'Ucraina sulla mappa. Peggio gli intervistati sapevano di geografia, più si sono espressi a favore dell'intervento militare. (I partecipanti avevano una così scarsa idea di dove si trovava l'Ucraina che la mediana delle ipotesi si estendeva fino a milleottocento miglia, la distanza approssimativa da Kiev a Madrid.)

Sloman e Fernbach hanno condotto la loro versione dell '"esperimento della toilette", sostituendo gli elettrodomestici con la politica del governo. In uno studio del 2012, hanno chiesto alle persone se avevano bisogno di un sistema di pagamento unico per l'assistenza sanitaria o di un sistema di pagamento degli insegnanti basato sul merito. Ai partecipanti è stato chiesto di valutare le loro posizioni in base alla forza con cui erano d'accordo o in disaccordo con le proposte. È stato quindi chiesto loro di spiegare, nel modo più dettagliato possibile, le implicazioni dell'attuazione di ciascuna decisione. A questo punto, la maggior parte delle persone ha iniziato ad avere problemi. Nel rivalutare le loro opinioni, i partecipanti erano meno enfatici nell'essere d'accordo o in disaccordo.

Broken e Fernbach vedono il risultato come una luce tremolante alla fine del tunnel. Se noi, oi nostri amici, trascorriamo meno tempo a predicare e cerchiamo di comprendere meglio le implicazioni delle proposte politiche, vedremo quanto siamo ignoranti e potremo temperare le nostre opinioni. Questo, scrivono, "potrebbe essere l'unica forma di pensiero che distruggerà l'illusione di una profonda conoscenza e cambierà gli atteggiamenti delle persone nella vita".

C'è una visione che vede la scienza come un sistema che corregge le inclinazioni naturali delle persone. Non c'è spazio per pregiudizi personali in un laboratorio ben gestito; i risultati devono essere riproducibili in altri laboratori, da ricercatori che non hanno motivo di confermarli. Ed è per questo che questo sistema ha dimostrato di avere tanto successo. Da un momento all'altro può impantanarsi negli intrighi, ma alla fine prevarrà la metodologia. La scienza va avanti anche quando siamo bloccati sul posto.

In Denial to the Grave: Why We Ignore the Facts That Will Save Us, lo psichiatra Jack Gorman e sua figlia, Sarah Gorman, un professionista della sanità pubblica, esplorano il divario tra ciò che dice la scienza e le nostre convinzioni. Fanno appello a una convinzione persistente, che non solo è manifestamente falsa ma potenzialmente mortale, che i vaccini siano pericolosi. Ciò che è pericoloso è non vaccinarsi; ecco perché sono stati creati i vaccini. "L'immunizzazione è uno dei trionfi della medicina moderna", scrivono i Gorman. Ma non importa quanto la ricerca scientifica affermi che i vaccini sono sicuri e che non vi è alcun legame tra autismo e vaccini, gli utenti di anti-vaccini rimangono irremovibili. (Potrebbero persino chiamare il loro sostenitore - in qualche modo - Donald Trump, il quale ha affermato che sebbene suo figlio Barron fosse vaccinato, non era nei tempi previsti.consigliato dai pediatri.)

I Gorman sostengono anche che i modi di pensare che ora sembrano essere autodistruttivi possono a un certo punto essere un metodo di adattamento. Dedicano anche molte pagine al "bias di conferma" che ritengono abbia una componente fisiologica. Citano ricerche che suggeriscono che le persone provano un vero piacere - una scarica di dopamina - quando elaborano informazioni che supportano le loro convinzioni. "È sempre bello piegare la nostra linea, anche se ci sbagliamo", dicono.

I Gorman non si limitano a elencare le delusioni delle persone; vogliono risolverli. Ci deve essere un modo, sostengono, per convincere le persone dei benefici delle vaccinazioni per i bambini e dei pericoli delle armi. (Un'altra convinzione comune ma statisticamente infondata che stanno cercando di smentire è che il possesso di armi ti tiene al sicuro.) Ma qui incontrano gli stessi problemi. Fornire informazioni accurate non sembra aiutare. Fare appello alle emozioni può funzionare meglio, ma va contro l'obiettivo di promuovere la scienza pura. "Il problema rimane", scrivono alla fine del loro libro, "come affrontare le tendenze che portano a idee sbagliate scientifiche".

The Riddle of Mind, The Illusion of Knowledge e Denial to the Grave sono stati scritti prima delle elezioni di novembre. Eppure hanno anticipato l'era di Kellianne Conway e l'alba dei "fatti alternativi". I sostenitori della razionalità possono trovare una soluzione. Ma la letteratura non è ancora incoraggiante.

Raccomandato: