Rozum skażony przekonaniami
- Szczegóły
- Utworzono: 04 listopada 2013
- Jarosław Świątek
Kroczył dumnie korytarzem sejmowym. Zresztą on zawsze tak chodzi – powiedziałby każdy, kto go zna. Pewnie, spokojnym krokiem i opanowany szedł na spotkanie ze swoim zespołem. Na jego twarzy zagościł charakterystyczny, subtelny uśmiech, kiedy dostrzegł, że biegną w jego kierunku.
Chyba każdy by się uśmiechnął, gdyby był obdarzony tak wielką uwagą z ich strony. W końcu to dzięki dziennikarzom każde jego słowo, gest i przekonanie może zostać przedstawione całemu narodowi. A za chwilę spotka się z nie byle kim, bo naukowcami. I to zza granicy. A nawet oceanu. To właśnie dzięki ich opiniom i analizom zyskał uwagę samego prezesa Państwowej Akademii Nauk, który zaproponował debatę jego ekspertom z tymi, którzy ze strony rządowej badali przyczyny katastrofy samolotu rządowego pod Smoleńskiem, w której zginęło 96 osób – w tym prezydent i jego małżonka. On wydawał się nie mieć żadnych wątpliwości – to był zamach, a jego naukowcy tego dowiodą ponad wszelką wątpliwość.
Jego pewności nie rozwiał nawet niedawny skandal z udziałem wiodącego konsultanta zespołu parlamentarnego ds. zbadania przyczyn katastrofy smoleńskiej – profesora Jacka Rońdy, który przyznał się w jednej ze stacji telewizyjnych, że blefował w innym programie, mówiąc, że piloci nigdy nie zeszli poniżej 200 metrów, wymachując przy tym kartką z rzekomym dowodem to dokumentującym.
Tymczasem przerzucanie się argumentami trwało w najlepsze. Zespół pod przewodnictwem Macieja Laska przedstawia fotografie, świadczące o tym, że skrzydło prezydenckiego tupolewa uległo zniszczeniu wskutek zderzenia z brzozą, a nie wybuchu. Zespół Antoniego Macierewicza z kolei postuluje w odpowiedzi, że m.in. niezniszczone okna w samolocie, śmierć wszystkich pasażerów czy odłamki, które zostały znalezione przy sekcjach zwłok, są niezbitym dowodem na to, że doszło do zamachu bombowego.
W końcu szef PAN, który wcześniej chciał doprowadzić do merytorycznej debaty, stwierdza: - Sytuacja, w jakiej w tej chwili cała ta sprawa się znajduje, nie sprzyja jakiejkolwiek merytorycznej debacie – po czym dodaje - Z drugiej strony, doniesienia do prokuratury co drugi czy trzeci dzień w tej chwili. Z trzeciej strony, zupełnie karygodna wypowiedź jednego z ekspertów zespołu pana posła Macierewicza. Ona w moim przekonaniu jest pewnym dowodem na emocje, które absolutnie uniemożliwiają merytoryczną rozmowę - stwierdza Michał Kleiber (cyt. za: źródło:TVN24, 2013, October 20). I tylko przeciętny obserwator zadaje sobie pytanie skołowany – to naprawdę nauki ścisłe? Po czym zapala kolejnego papierosa, dopija stygnącą kawę i jak gdyby nigdy nic wychodzi z domu. Smoleńskiem się przecież nie naje.
Naukowcy - jak i sama nauka, spełniać powinni jedną, zasadniczą funkcję. Powinni przybliżać nas do poznawania prawdy o otaczającym nas świecie. W tym celu posiadają oni szereg narzędzi empirycznych, statystycznych czy matematycznych, które umożliwiają im tworzenie eksperymentów, ich replikacje oraz wyciąganie wniosków i projektowanie eksperymentów, które wykluczyć mają wszelkie alternatywne wyjaśnienia tego czy innego zjawiska.
Operować powinni na dowodach, materiałach, które są przedmiotem ich analiz, zgromadzonej wcześniej wiedzy, którą przez lata kompletowali i uaktualniali ich koledzy po fachu. Tymczasem w kwestii katastrofy smoleńskiej, pomimo raportu, który jest publicznie dostępny i stanowi wynik prac ekspertów z komisji powołanej przez organy państwowe, pojawiają się kontrargumenty, które w sposób całkowity podważają wyniki pracy zespołu. Zaprzeczają one nie tyle pewnym szczegółom, procedurom, których dopełnić mieli członkowie zespołu rządowego, lecz podważają w ogóle podstawowe wnioski z badań i przyjmują alternatywną hipotezę, w myśl której do czynienia nie mieliśmy z katastrofą lotniczą, która wynikła ze splotu niesprzyjających okoliczności losowych, lecz z zamachem, który wynikał z intencjonalnego działania osób trzecich.
Wiele osób zadaje więc sobie pytanie – jak to się dzieje, że ludzie nauki mogą dochodzić do tak skrajnie różnych wniosków na podstawie tych samych informacji? Rzecz jasna zespół rządowy badał w sposób bezpośredni materiały dowodowe, które zabezpieczyła prokuratura polska i rosyjska na potrzeby swojego śledztwa, natomiast zespół parlamentarny pod przewodnictwem Antoniego Macierewicza opiera się jedynie na poszlakach i pośrednich danych, ponieważ nie posiada dostępu do materiałów dostępnych zespołowi Macieja Laska, jednak zadziwiające wydaje się być to, że panowie od nauk ścisłych mogą różnić się w poglądach na temat tego, co skrzydło może zrobić z brzozą lub brzoza ze skrzydłem, które jest rozpędzone do prędkości kilkuset kilometrów na godzinę. Skąd te różnice?
Błąd obserwatora
Pierwszą kwestią, od której należałoby zacząć, jest to, w jaki sposób obserwatorzy sporu naukowego postrzegają samych naukowców. Tytuł naukowy nie jest wyznacznikiem obiektywizmu, sceptycyzmu, wiedzy ani mądrości. Tak samo jak prawo jazdy nie czyni nikogo dobrym kierowcą, a stanowisko prezesa – fachowcem od zarządzania. Do tego niezbędne są kompetencje i predyspozycje, które mogą wynikać także z doświadczenia.
Naukowcy wcale nierzadko nie są racjonalnymi, obiektywnymi, posługującymi się jedynie logiką, obserwatorami naszej rzeczywistości. Są ludźmi i jak każdy człowiek mają wpisane w swoje obwody neuronalne, liczne mechanizmy, które zakrzywiają rzeczywistość i nie pozwalają im patrzeć na nią w sposób obiektywny i nieobarczony własnymi poglądami, a także czynnikami, które zanieczyszczają procesy poznawcze, jak np. priming czy złudzenie fokusowe (Higgins i in., 1977; Strack, Martin, Schwarz, 1988). Przeciętny Kowalski ma jednak problem ze spojrzeniem na naukowe autorytety jako na zwykłe osoby, podobne do niego samego.
W pewnym badaniu pokazywano dwóm grupom uczestników jedno z dwóch zdjęć. Na jednym znajdował się atrakcyjny, młody chłopiec, na drugim zaś mniej urodziwe dziecko (Dion, 1972). Następnie formułowana była informacja, że dziecko, które przed chwila widzieli, cisnęło w swojego kolegę kamieniem oblepionym śniegiem. Zadanie dla badanych było proste – zinterpretuj zachowanie chłopca. Wyniki jednak nie były już tak jednoznaczne. Oto grupa osób, która widziała zdjęcie mniej atrakcyjnego chłopaka, uznawała, że to „mały zbir”, który na pewno w przyszłości trafi do więzienia i to wielokrotnie. Druga grupa tymczasem, która widziała zdjęcie atrakcyjnego dziecka, skłaniała się raczej do twierdzeń, wg których chłopak miał po prostu zły dzień. Badań, które dowiodły tego, iż ludzie atrakcyjni fizycznie mają w życiu łatwiej, było całe mnóstwo (Etcoff, 1999). Nie inaczej sytuacja wygląda w przypadku ocenianiu kompetencji. Np. jesteśmy bardziej skłonni głosować na kandydatów w wyborach, gdy ci jawią nam się jako osoby kompetentne (Todorov i in., 2005).
Skoro zatem wygląd innych ludzi może wpływać na to, w jaki sposób będziemy oceniali ich zachowania, nawet gdy te nie będą się od siebie różniły, to czy analogicznie możemy postrzegać wiarygodność ich opinii? Szczególnie jeśli ci posługują się tytułami naukowymi?
Eksperymenty Petty'ego i Caccioppo (1986) pokazały, że kiedy mamy motywację do przetwarzania napływających do nas informacji oraz kompetencje, żeby dokonywać takiej analizy, to autorytet mówcy nie będzie miał dla nas znaczenia. Jednak w przypadku, kiedy nie posiadamy kompetencji ani nie poświęcamy zbyt wiele czasu na analizowanie przekazywanych informacji, to autorytet (czyli np. tytuł naukowy) odegra niebagatelną rolę w naszym postrzeganiu prezentowanych dowodów. W przypadku katastrof lotniczych mało kto posiada odpowiednie kompetencje do obiektywnej analizy dowodów, toteż kiedy dowiadujemy się, że analizy przedstawia zespół ekspertów z tytułami naukowymi, jesteśmy znacznie bardziej podatni na przyswojenie nawet najbardziej nieprawdopodobnych argumentów. Jednak czy prezentowana wiedza, nawet gdy nie budzi wątpliwości jej zasadność, przedstawiona jest przejrzystym językiem i klarownie, nie powinna być postrzegana wiarygodnie, niezależnie od źródła?
W eksperymencie nieżyjącej już Zivy Kundy (Dijksterhuis, van Knippenberg, 1998) badanym powiedziano, że wezmą udział w kwizie. Zanim rozpoczynają swoją grę, mogą oni jednak obserwować osobę, która albo dołączy do ich drużyny, albo w drugim wariancie eksperymentalnym – dołączy do ich przeciwników. Gra jest ustawiona, o czym badani nie wiedzą. Osoba obserwowana odpowiada poprawnie niemal na wszystkie pytania. Badani muszą teraz wyrazić indywidualnie swoją opinię o tej osobie i jej wiedzy. Okazuje się, że ci, którzy spodziewają się, iż dołączy ona do ich zespołu, są pod wrażeniem jej umiejętności. Natomiast ci, którzy myślą, że będą grali przeciwko tej osobie, umniejszają jej dokonania, upatrują jej wyników raczej w szczęściu, nie w wiedzy i kompetencjach.
W świetle powyższych badań jesteśmy niejako skazani na błędy poznawcze w interpretacji napływających do nas informacji. Tytuły naukowe mogą powodować uwiarygodnienie każdej teorii, zaś to, jakie poglądy wyznajemy – z którą opcją polityczną się identyfikujemy, może wpływać na to, czy uznamy argumenty naukowców za autentyczne, czy mało wiarygodne. Nie tylko obserwatorzy są jednak narażeni na błędy poznawcze. Wcale na nie mniejszą ich liczbę narażeni są sami naukowcy, prezentujący rozmaite hipotezy. W ich przypadku jednak dzielenie się efektami nieobiektywnego rozumowania prowadzi innych ludzi na manowce.
Naukowy horoskop
Najbliższy tydzień będzie sprzyjał sprawom, które wymagają energicznego podejścia. Pojawią się w Twoim życiu nowe inicjatywy i ogólnie będzie to czas przyspieszenia. Masz olbrzymi, niewykorzystany potencjał, którego nie potrafiłeś dotychczas wykorzystać na swoją korzyść. Niebawem to ulegnie zmianie.
Czy ktoś poczuł się wywołany do tablicy? Jeśli tak, to na pewno nie jest w tym osamotniony. Taki horoskop jak ten powyżej może dotyczyć właściwie każdego. Bierzemy jednak treść w nim zawartą do siebie pod wpływem zjawiska, które określić można mianem błędu konfirmacji (Wason, 1960). Błąd konfirmacji polega na tym, że poświęcamy więcej uwagi argumentom, które potwierdzają nasze hipotezy, niż takim, które mogłyby podważyć ich słuszność. W efekcie to na nich koncentrujemy swoje zasoby poznawcze i stąd powstaje wrażenie, że albo istnieją tylko one, albo są one bardziej zasadne i wyraziste od argumentów opozycyjnych wobec informacji, które posiedliśmy.
Peter Wason (1960) przeprowadził eksperyment, w którym badani obserwowali ciągi trzech cyfr parzystych (np. 2-4-6) i prosił, żeby ci odgadli na jakiej zasadzie zostały one stworzone, a następnie podali kolejny ciąg, który ich zdaniem będzie poprawny. Gdy to czynili, otrzymywali zwrotne informacje odnośnie tego, czy ów ciąg jest poprawny i zgodny z regułą, którą przyjęli eksperymentatorzy przy konstrukcji ciągów. Uczestnicy eksperymentu tworzyli zatem ciągi typu: „4-6-8”, „12-14-16” itp. Zaś regułę, którą uznawali za rządzącą powstawaniem kolejnych ciągów, było założenie, że są to rosnące ciągi kolejnych liczb parzystych. Większość osób nie próbowała w żaden sposób podważać tego wniosku. Nie pytała np. czy ciąg 1-3-5 będzie poprawny lub 7-9-10. Nikt praktycznie nie domyślił się, że reguła odpowiedzialna za powstawanie ciągów, to po prostu dowolna sekwencja trzech kolejnych liczb rosnących.
Z kolei w innym eksperymencie obrazującym błąd konfirmacji powiedziano obserwatorom, że dziecko pochodzi odpowiednio z ubogiej i słabo wykształconej rodziny lub z zamożnej i dobrze sytuowanej (Darley i Gross, 1983). Osoby z tej drugiej grupy uznały, że dziecko świetnie sobie radzi z zadaniami, przed nimi stawianymi oraz posiada wiedzę i ponadprzeciętne umiejętności. Podczas gdy osoby z grupy, która uzyskała informację o tym, jakoby dziecko, które obserwują, pochodziło z rodziny o niskim statusie socjoekonomicznym, oceniały, że radzi sobie znacznie słabiej od swoich rówieśników.
Nader często ludzie biorą pod uwagę przypadki, które potwierdzają ich teorie, nie zaś fakt, że któryś model może znacznie lepiej tłumaczyć dane zjawisko. W tym kontekście naukowcy z zespołu Macierewicza są znacznie bardziej narażeni na działanie błędu konfirmacji od ekspertów z zespołu Macieja Laska. Ci drudzy bowiem operować mogli na materiale dowodowym, który znacznie trudniej dowolnie interpretować w obliczu zestawienia ich razem, dokonaniu niezbędnych pomiarów i obliczeń, a także przeprowadzenia eksperymentu na drugim tupolewie.
Eksperci z zespołu parlamentarnego mogą operować jedynie na internetowych zdjęciach z miejsca wypadku, zdjęciach satelitarnych i wszelkich symulacjach oraz poszlakach. Znacznie łatwiej w tej sytuacji dostrzec wzór zgodny z przyjętymi hipotezami, niż gdy odtwarza się dane z wysokościomierzy i analizuje zapisy czarnych skrzynek. Te mogą szybko pozbawić złudzeń odnośnie tego, że przyjęta hipoteza zerowa (hipoteza mówiąca o tym, że dane zjawisko NIE zachodzi) jest prawdziwa.
Rozumowanie umotywowane
Z jednej strony – błąd konfirmacji, który jest automatycznym procesem przetwarzania danych, z drugiej istnieje inny mechanizm, który motywuje ludzi do tego, żeby analizować bardziej idee, które nam się podobają, niż te, z którymi się nie zgadzamy. Takie celowe przetwarzanie informacji preferowanych ponad te, które preferowane nie są, nazywa się motywowanym przetwarzaniem (Kunda, 1990).
Załóżmy, że pijesz dużo kawy. I nagle ktoś prosi ciebie, żebyś przeczytała artykuł, że kofeina szkodzi zdrowiu kobiet. Jeśli jesteś podobna do uczestniczek badania Kundy (1990), to powątpiewałabyś w wyniki badań znacznie częściej od kobiet, które kawy nie piją lub piją jej mało. Wśród mężczyzn, którzy sądzili, że ten problem ich nie dotyczy, nie wystąpiła taka korelacja.
Zatem jeśli przywiążesz się do jakiejś teorii, to istnieje niemałe prawdopodobieństwo, że nie tylko automatycznie będziesz dostrzegać informacje zgodne z tą teorią szybciej, ale także będziesz aktywnie ich poszukiwać i nad nimi się rozwodzić, zupełnie ignorując wszelkie kontrargumenty.
Brzmi znajomo? W taki właśnie sposób zdaje się funkcjonować zespół parlamentarny Antoniego Macierewicza, który zdaje się nie posiadać hipotezy zerowej, która mówiłaby o tym, że zamachu nie było. Komisja rządowa z kolei hipotezę o zamachu brała pod uwagę na samym początku śledztwa, podobnie jak prokuratura. To znacznie bardziej zgodne działanie z procedurami naukowymi.
Niedochowanie metodologicznej staranności analiz i wyprowadzania dowodów przez zespół parlamentarnych ekspertów zemścił się zresztą okrutnie. Bezlitośnie wytknięte zostały przez media wszelkie blefy czy brak doświadczenia w badaniu katastrof lotniczych naukowców Macierewicza. Jednak wydawać by się mogło, że takie zabiegi spowodować powinny całkowitą utratę zaufania, tymczasem nadal znaczny odsetek osób ufa tezom stawianym przez naukowców zespołu parlamentarnego. Ponadto sam zespół tworzył całe mnóstwo hipotez, które miały uwiarygodnić możliwość zamachu. Była teoria o rozpyleniu sztucznej mgły i helu, który wpłynął na pracę silników, była teoria meaconingu, który polega na wyciszeniu i zakłóceniu sygnałów radiowych, a następnie ponowne opóźnione nadawanie cudzych sygnałów nawigacyjnych w celu zmylenia odbiorcy. Teraz forsowana jest teoria wybuchów na pokładzie TU-154. Te rozbieżności w ustalaniu nowych dowodów nikogo z ekspertów zdają się nie martwić. Nic jednak w tym dziwnego. Kiedy uznamy coś za prawdę, to wymyślimy całą gamę nowych powodów, żeby w to wierzyć.
W badaniu Gary'ego Marcusa (1989) połowie badanych przedstawiono raport z badania, które wykazało, że skuteczność w gaszeniu pożarów jest skorelowana z wysokimi wynikami na skali gotowości do podejmowania ryzyka. Druga połowa uzyskała odwrotne wyniki korelacji, które mówiły o tym, że skuteczność byciu dobrym strażakiem jest pozytywnie skorelowana z brakiem podejmowania ryzykownych działań. Następnie każda z grup podzielona została na dwie podgrupy. Jedna z nich miała zastanowić się nad tym, co zostało przeczytane, i wypisać powody, dla których badanie dało takie, a nie inne rezultaty. Druga część natomiast miała za zadanie rozwiązać trudne zagadki geometryczne. W dalszej części eksperymentu badani dowiadywali się nagle, że wyniki, z którymi się wcześniej zapoznali, okazały się fałszywe. Wobec tego, byli oni pytani, co sądzą o tej kwestii. Czy rzeczywiście skłonność do ryzyka ma wpływ na bycie dobrym strażakiem? Mimo tego, że wyniki badania okazały się być fałszywe, to osoby, które miały za zadanie wymyślić własne uzasadnienia tego, w jaki sposób możliwe były takie wyniki, nadal wierzyły w to, co przeczytały.
Jeśli zatem da się komuś okazję do stworzenia własnych przesłanek ku jakiejś teorii, nawet gdy ta jest najbardziej nieprawdopodobna, to istnieje spora szansa, że skorzysta z okazji do tego, żeby być święcie przekonanym o prawdziwości teorii, nawet jeśli pierwotne dane okazały się być wyssane z palca. Gdyby człowiek był istotą racjonalną, to wierzyłby jedynie w to, co jest prawdą. Bezbłędnie formułowałby adekwatne wnioski na podstawie prawdziwych przesłanek.
Kirkowie zamiast Spocków
Statek oddalał się bardzo powoli. - Pełna impulsowa – krzyknął kapitan, ale wszyscy wiedzieli, że nie zdążą. Wyobrażali sobie złowieszczy śmiech Kahna, który leżąc ranny, obserwował na ekranie swojego statku oddalający się zbyt wolno, żeby uciec uruchomionej resztkami sił bombie. Nie była to byle jaka bomba, bo stanowiła produkt wieloletnich badań dr Marcus i miała za zadanie tworzyć nowe życie. Niestety, żeby stworzyć nowe życie, musiała zniszczyć wcześniej to, co już istniało. Tylko w ten sposób możliwe było nałożenie odpowiedniej matrycy. Dlatego ów produkt miał być wykorzystywany na kompletnie jałowych światach, na których nie istniało żadne życie, któremu projekt „Genesis” mógłby zagrozić. Jak to jednak zwykle bywa – to, co może być wykorzystane w dobrych intencjach, można łatwo sprowadzić na złą drogę i wykorzystać do znacznie mniej szlachetnych celów.
Kahn wydawał się tryumfować. Bez sprawnego rdzenia napędu Enterprise nie jest w stanie wejść w prędkość warp, która umożliwiłaby błyskawiczne oddalenie się z miejsca eksplozji Genesis. Wystarczyłaby prędkość warp 2 – około 3 mln km/s, żeby przetrwać. Ale generator napędu nie działał. Naczelny inżynier – Scott Montgomery, rozkładał bezradnie ręce. Wtedy Spock już wiedział, co musi zrobić. Kiedy doktor McCoy próbował go powstrzymać, ten sparaliżował go swoim wolkańskim uchwytem. Chwilę później Spock był już za szybą, gdzie poziom promieniowania nie dawał mu żadnych szans na przeżycie. Gdyby tylko zdołał uruchomić napęd... Na mostku panował popłoch. Wszyscy oficerowie dwoili się i troili, żeby coś zrobić, przyspieszyć gwiezdny statek na ile to tylko możliwe. Nagle ku zaskoczeniu wszystkich zapaliły się kontrolki napędu warp. - Warp aktywny, kapitanie! - krzyknął ktoś z załogi. - Panie Sulu, zabierz nas Pan stąd! - wydał rozkaz Kirk, a Enterprise zakrzywił czasoprzestrzeń i oddalił się od miejsca eksplozji.
Kiedy Kirk przybiegł do maszynowni, Spock był konający. Wzburzony kapitan chciał natychmiast wejść do rdzenia, ale Scott i McCoy powstrzymali go siłą. - On już jest martwy – powiedział Scotty. Kirk nie mógł się z tym pogodzić. Przez te wszystkie lata razem Spock stał mu się bliższy niż ktokolwiek. - Dlaczego to zrobiłeś, Spock? - z niezrozumieniem wymamrotał przez szybę. - Czy statek jest bezpieczny? - zbył pytanie Spock. Usłyszał cichą odpowiedź twierdzącą od przyklejonego do szyby tłumiącej niebezpieczne promieniowanie Kirka. - To było jedyne logiczne rozwiązanie, kapitanie - w końcu odpowiedział Spock. - Potrzeby wielu... -Przeważają nad potrzebami niewielu – przerwał mu kapitan. - Albo jednostki – dokończył Spock. Chwilę później osunął się na podłogę.
●
Spock to postać fikcyjna stworzona przez Gene'a Roddenberry'ego – autora popularnego serialu science fiction – „Star Trek”. Był on Wolkaninem – przedstawicielem cywilizacji, która kierowała się niemal wyłącznie logiką, odrzucając wszelkie emocje, które uważała za nieracjonalne i skażające umysł. Spock był za pan brat z regułami logiki formalnej. Jego umysł posługiwał się praktycznie bez żadnego wysiłku procesami dedukcji i indukcji w oparciu o dostępne przesłanki. Nie bazował na uprzedzeniach czy dotychczasowych przekonaniach. My, ludzie, jednak nie jesteśmy tacy jak Spock, nawet jeśli bardzo byśmy tego chcieli. Nawet wtedy kiedy sprawa, którą rozważamy, jest błaha i jej skutki niezależnie od tego, jaką decyzję podejmiemy, są nie po naszej myśli, to i tak to, co wiemy, albo odnośnie czego jesteśmy przekonani, zaburza naszą umiejętność rozumowania i formułowania nowych przekonań.
Doskonale to widać na przykładzie sylogizmów, które stanowią klasyczną formę wnioskowania logicznego. Formalny argument dedukcyjny składa się w nim z przesłanki większej, mniejszej oraz wniosku. I tak np.:
- Wszyscy ludzie są śmiertelni.
- Britney jest człowiekiem.
- Britney jest śmiertelna.
Rozumiemy formę sylogizmu, wiemy, w jaki sposób możemy generalizować wnioski z jego pomocą. Ten schemat dzięki regułom logiki gwarantuje, że prawdziwe przesłanki będą prowadziły do prawdziwych wniosków. Schemat wnioskowania można by było przedstawić następująco: Wszystkie A są B, C jest A, zatem C jest B. Niestety, pomimo intensywnych ćwiczeń, nie radzimy sobie zbyt dobrze z procesem wnioskowania opartym o reguły logiki formalnej (Stanovich, 2003). Oto sylogizm, który nieznacznie różni się od tego powyżej:
- Wszystkie zwierzęta się odżywiają.
- Kiwi się odżywiają.
- Zatem: kiwi są zwierzętami.
Na pierwszy rzut oka wydaje się, że ten sylogizm jest poprawny. Jednak gdyby skoncentrować się na samej logice, nie na przesłaniu, które ona niesie, łatwo można dostrzec, że wniosek jest błędny. Twierdzenie, że zwierzęta się odżywiają, nie wyklucza tego, że czynią to także rośliny (i nagle w umyśle powstaje zagwozdka – czy chodzi o zwierze kiwi, czy owoc?). Błąd stanie się oczywisty, kiedy podstawimy do wzoru następujące reprezentacje poznawcze:
- Psy piją wodę.
- Surykatki piją wodę.
- Surykatki są psami.
Ten sylogizm ma dokładnie taką samą strukturę jak poprzedni. Tym jednak razem już jak na dłoni widać niepoprawność wnioskowania. Jest ona widoczna głównie dzięki odwołaniu się do posiadanej wiedzy. Wiemy, że surykatki to ponad wszelką wątpliwość nie są psy i dzięki temu błyskawicznie rozszyfrowujemy błąd. Aktywizuje się nasza kora czołowo-skroniowa, która odwołuje się do naszych wcześniejszych przekonań. Za myślenie logiczne i przestrzenne odpowiada obustronna okolica ciemieniowa (Goel, 2003; Goel i Dolan, 2003). Schemat tego sylogizmu wygląda następująco: Wszystkie A potrzebują B, C potrzebuje B, zatem C jest A. To, że C potrzebuje B, nie musi oznaczać, że jest on A. C jest po prostu C i już.
Zbyt często postanawiamy zrezygnować z analizy twierdzeń pod względem logicznym na rzecz uprzednich przekonań. Gdyby nasz mózg był dziełem poukładanej inżynierii, a nie chaotycznej ewolucji, to najbardziej sensownym rozwiązaniem byłoby rozdzielenie naszych przekonań od procesu formułowania wniosków. Tymczasem oba systemy współdziałają i ciężko jest je przedzielić barierą, żeby mogły funkcjonować niezależnie.
W toku naszego rozwoju zdolność do myślenia logicznego ukształtowała się niedawno i jest bardzo młoda. Wcześniej przez miliony lat, podobnie jak nasi kuzyni – od małp po ryby, wyciągaliśmy wnioski automatycznie, bezrefleksyjnie i w sposób daleki od logiki formalnej. Jeśli malina była podobna do jeżyny i rosła na krzaku, to najprawdopodobniej nadawała się tak samo do jedzenia jak ta pierwsza. Takie wnioskowanie było ryzykowne i całkowicie oparte na wcześniejszych doświadczeniach i procesie uczenia się. Ryzykowne, bo o ile w przypadku jeżyny o pomyłce nie mogło być mowy, to łatwo sobie wyobrazić, w jaki sposób można było popełnić katastrofalny błąd, stosując podobną logikę w przypadku grzybów. Kania jest jadalna, ale podobny do niej muchomor sromotnikowy już nie.
Te automatyczne tendencje górują nad wolniejszymi procesami wnioskowania w oparciu o reguły logiki formalnej. Dlatego tak łatwo jest popełnić błąd. Nie potrafimy uwolnić się od subiektywnych spostrzeżeń, wrażeń, wierzeń, wartości i przekonań. Wynika to z konstrukcji naszego mózgu i działania mechanizmów takich jak błąd konfirmacji oraz umotywowanego rozumowania. Nie potrafimy być chłodnymi logicznymi Spockami. Znacznie bliżej nam do porywczych i emocjonalnych Kirków.
Nie usprawiedliwia to jednak braku dbałości o poprawność metodologiczną i podejmowanie się myślenia logicznego podczas analizy dowodów i przesłanek. Sama wiedza na temat naszych niedoskonałości powinna przyczynić się do podejmowania wszelkich możliwych środków, które te niedoskonałości ograniczą. Metodologia prowadzenia badań to właśnie takie środki, które pozwalają na rzetelne odkrywanie rzeczywistości krok po kroku. To nie tylko seria odpowiednich procedur, podejścia do formułowania hipotez i ich weryfikacji, ale także replikacje i krytyczne recenzje, które umożliwiają wychwycenie błędów i nieścisłości.
Naukowcy z komisji parlamentarnej Antoniego Macierewicza zdają się w ogóle nie przejmować naukowymi procedurami. Nie próbują obalić żadnej ze stawianych przez siebie hipotez, nie przejmują się, kiedy jedna za drugą upada na rzecz kolejnych, ani brakiem empirycznych dowodów, które by mogły je zweryfikować. Eksperymenty przeprowadzane na puszkach i parówkach także dalekie są od naukowych procedur weryfikacji hipotez.
Komisja Macieja Laska, a wcześniej Millera, najpierw sformułowała szereg hipotez – włącznie z hipotezą działania osób trzecich i w toku badań i weryfikacji, sukcesywnie eliminowała jedna po drugiej. Choć naukowcy z sejmowego zespołu posiadają tytuły naukowe, to w tym przypadku o niczym one nie świadczą. Procedury i sposób wyprowadzania tez i wniosków niewiele wspólnego ma z nauką. Panowie ci uprawiają politykę, nie naukę w przypadku katastrofy smoleńskiej i trzeba być tego świadomym. To nie nauka przeżywa kryzys, bo ona ma się całkiem nieźle. Kryzys przeżywa rozum tych wszystkich, którzy z powagą obserwują poczynania zespołu naukowców, którzy na chwilę postanowili zagrać w durnia z całą opinią publiczną w światłach kamer i fleszy reporterów. W końcu mają swoje pięć minut. W polityce znacznie o nie łatwiej niż w surowym świecie nauki i jej procedur.
Jarosław Świątek jest psychologiem społecznym, absolwentem Szkoły Wyższej Psychologii Społecznej we Wrocławiu, założycielem Szkoły Inteligencji Emocjonalnej, komentatorem medialny i popularyzatorem nauki. W jego kręgu zainteresowań związanych z psychologią znajduje się psychologia społeczna, psychologia emocji i motywacji.
Literatura:
- Darley, J. M., Gross, P. H. (1983). A hypothesis-confirming bias in labeling effects. Journal of Personality and Social Psychology, 44(1), 20-33.
- Dijksterhuis, A., van Knippenberg, A. (1998). The relation between perception and behavior, or how to win a game of trivial pursuit. Journal of Personality and Social Psychology, 74(4),865-877.
- Dion, K. K. (1972). Physical attractiveness and evaluation of children's transgressions. Journal of Personality and Social Psychology, 24(2), 207-213.
- Etcoff, N. L. (1999). Survival of the prettiest: The science of beauty. New York: Doubleday.
- Goel, V. (2003). Evidence for dual neural pathways for syllogistic reasoning. Psychologia, 32, 301-309.
- Goel, V., Dolan, R. J. (2003). Explaining modulation of reasoning by belief. Cognition 87(1), B11-B22.
- Higgins, E. T. (2000). Making a good decision: value from fit. American Psychologist, 55(11), 1217-1230.
- Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin, 108(3), 480-498.
- Marcus, G. F. (1989). The psychology of belief revision. Bachelor's thesis, Hampshire College, Amherst, MA.
- Petty, R. E., Cacioppo, J. T. (1986). Communication and Persuasion: Central and Peripheral Routes to Attitude Change. New York: Springer-Verlag.
- Stanovich, K. E. (2003). The fundamental computational biases of human cognition: Heuristics that (sometimes) impair decision making and problem solving. W: J. E. Davidson, R. J. Sternberg (red.), The psychology of problem solving (s. 291-342). New York: Cambridge University Press.
- Strack, F., Martin, L., Schwarz, N. (1988). Priming and communication: Social determinants of information use in judgments of life satisfaction. European Journal of Social Psychology, 18(5), 429-442.
- Todorov, A., Mandisodza, A. N., Goren, A., Hall, C. C. (2005). Inferences of competence from faces predict election outcomes. Science, 308(5728), 1623-1626.
- Wason, P. C. (1960). On the failure to eliminate hypothesis in a conceptual task. Quarterly Journal of Experimental Psychology, 12, 129-140.