Imaginează-ți că prezinți la o conferința două studii științifice despre eficiența pedepsei cu moartea unor oameni care se opun și altora care o susțin (Lord, Ross și Lepper,1979; niște băieți de la Stanford). Unul dintre studii arată că pedeapsa cu moartea are un efect pozitiv, adică reduce rata criminalității. Celălalt studiu contrazice eficiența pedepsei cu moartea.
Precum în experimentul lui Charles G. Lord (și colab.), ai primit indicii despre limitele ambelor studii. În opinia ta, cum crezi că vor fi evaluate cele două studii, unul care confirmă, altul care infirmă eficiența pedepsei cu moartea? Crezi că are vreun impact ceea ce cred subiecții despre pedeapsa cu moartea? Crezi că ambiguitatea creată de cele două studii va duce la o mai mare relativitate în ambele atitudini?
Participanții au oferit estimări mai mari acelui studiu care sprijinea propria lor opinie în timp ce au accentuat limitele studiului care le contrazicea opinia. Acest tipar a fost observat chiar și în situația în care cele două studii au avut același design. Mai mult, participanții au devenit și mai convinși de opinia lor după ce au citit cele două studii. Cu alte cuvinte, au devenit mai încredințați de opinia lor comparativ cu situația inițială.
Dacă ești chitit să-ți verifici ipoteza (sau asumpția) e foarte probabil să fii amăgit de biasul confirmării (fără a fi conștient de asta). Ca să-ți ilustrez ideea, să zicem că, am inventat o regulă pentru construirea unui set de numere. De exemplu, numerele 2-4-6 satisfac regula. Ca să testezi regula ce o am în minte, vei construi alte seturi de trei numere, iar eu îți validez setul (OK) dacă satisface regula sau nu ți-l validez (Non-OK) dacă nu satisface regula. Dacă ești sigur de soluție, te poți opri din testare și îmi vei spune care crezi că e regula. Să zicem, de dragul jocului, că ipoteza ta este ”o secvență de numere pare”. Ca să o testezi propui seturile 4-8-10, 6-8-12 și 20-22-24. De fiecare dată ai primit un OK. După aceste trei runde ești de destul de sigur că ipoteza ta e corectă și te oprești din căutare gândindu-te că ai identificat regula corectă. Regula este ”secvența de numere pare”. Greșit, după cum, de altfel, poate te-ai prins. Regula este simpla ”creștere a numerelor”. Unde e greșeala? În strategia de testare, conform lui Peter Wason (1960), primul care a pus în evidență tendința la confirmare în testarea ipotezelor. O secvență de 4-5-6 ar fi fost un test potrivit. Deoarece, nu corespunde regulii presupuse de tine și, totuși, ar fi primit din partea mea un OK (din moment ce satisface regula). Prin urmare, asumpția ta ar fi fost falsificată. De altfel, nu e surprinzător că foarte puțini participanți din experimentele lui Wason au generat seturi de numere care nu corespund ipotezei lor (o strategie de testare negativă).
Numeroase studii au arătat că oamenii în general pun un mare preț pe informațiile de confirmare, adică acele date/dovezi pozitive sau care le sprijină propriile credințe. De ce crezi? Nu e mai înțelept să privim și la dovezile contradictorii? Este dar nu și pentru creierul uman. E nenatural. După cum spunea Thomas Gilovich (2003), întâmplător amic cu Lee Ross, unul din băieții de mai sus (ambii prieteni cu Daniel Kahneman și Amos Tversky, care au revoluționat știința economică cu ”Prospect Theory” în 1979): ” the most likely reason for the excessive influence of confirmatory information is that it is easier to deal with cognitively”. E de o mie de ori mai ușor (sau de un milion?) să vedem dovezile care ne sprijină poziția comparativ cu observarea celor care ne contrazic poziția. Tendința de a oferi mai multă atenție și greutate informațiilor pozitive și de validare influentează memoria. Când săpăm prin amintiri după date relevante poziției susținute, e mai probabil să ne amintim datele care ne confirmă poziția și, implicit, mai puțin probabil să ni le amintim pe acelea care ne infirmă poziția.
Pentru a contracara tendința naturală de a ne confirma propriile credințe, știința a creat metode de testare a afirmațiilor care presupun să falsifici afirmațiile și nu doar să le confirmi. Detectivii de fenomene paranormale care vor să ne demonstreze că unele case sunt bântuite de fantome sau că unii oameni sunt clarvăzători sau telekinetici (mișcă obiecte cu puterea intenției), nu prea au o atitudine științifică indiferent de dispozitivele folosite. Un cercetător veritabil investighează cu o minte deschisă, colectează și examinează datele și dovezile relevante, elaborează ipoteze (explicații alternative) și încearcă să le FALSIFICE.
Aceia care favorizează propriile interpretări ale experiențelor personale (sau ale altora) în pofida rezultatelor oferite de studiile randomizate, în dublu-orb și cu grup/condiție de control sunt sortiți să moară cu biasurile lor de gât (sau în gât). Cu alte cuvinte, vor muri crezând în continuare în teoriile/convingerile lor fără o legătură cu realitatea. Nu mi se pare problematic în sine. Devine problematic când aceștia reușesc să-i persuadeze pe alții de ”adevărul” lor apelând la pârghia autorității și la acele dovezi care confirmă teoriile lor.
Pentru contracararea biasului de confirmare vei căuta conștient literatură opusă credințelor tale și vei sta prin preajma unor oameni care nu-ți impărtășesc opiniile sau credințele dragi. Dar nu ca să-i convingi, ci ca să afli dovezile lor. Nu e constructiv dacă petreci timpul numai cu acele persoane care îți împărtășesc credințele. Eventual, comentând criticist despre îngustimea minților celorlalți (se mai cheamă bârfă).
Ca să-ți ilustrez printr-un exemplu personal, mi-am petrecut trei ani acumulând dovezi pentru eficiența meditației mindfulness. În schimb am ignorat acele date care relativizează eficiența ei. Dar, în prezent, sunt conștient că nu e unguentul miraculos (”the snake oil”). Mi-aș fi dorit să fie. Nu este, iar pe undeva, bănuiam asta. Ceea ce mă face să zâmbesc. Realitatea are nuanțe în timp ce privitorii văd alb-negru.
Lord, C. G., Ross, L., & Lepper, M. R. (1979). Biased assimilation and attitude polarization: the effects of prior theories on subsequently considered evidence.Journal of personality and social psychology, 37(11), 2098.
Gilovich, Thomas (1993). How We Know What Isn’t So: The Fallibility of Human Reason in Everyday Life. New York: The Free Press.