Badania naukowe są najbardziej wartościowe wtedy, gdy naukowcy przyznają, jakie są ich ograniczenia i czego nie wiedzą. Tymczasem dziś wyniki badań prezentowane są często z przesadną pewnością i w uproszczony sposób, aby potwierdzać polityczne tezy i zyskać uwagę mediów - pisze Mark Buchanan.

Badania naukowe czy to medycynie, czy w ekonomii, są najbardziej wartościowe wtedy, gdy nie są stronnicze, a naukowcy szczerze przyznają, jakie są ograniczenia wyników. Z kolei badania są znacznie mniej wartościowe, gdy wyolbrzymia się to, co poznane, deklarując przy tym dużą pewność czy precyzję, tymczasem chodzi tylko o to, aby stworzyć kolejny argument w debacie. Niestety zdarza się to często, bo naukowcy są tylko ludźmi.

Gdzie ten problem występuje najczęściej? Przez ponad dekadę ekonomista Charles Manski z Northwestern University zajmował się czymś, co nazwał „Urokiem Niezwykłej Pewności”. W ostatnim artykule badacz stwierdza, że zjawisko takie najczęściej występuje w jego własnej dyscyplinie, czyli w ekonomii. Wydaje się, że źródłem takich problematycznych postaw jest silna chęć tworzenia twierdzeń, które mogą mieć wpływ na politykę – nawet w sytuacji, gdy tak naprawdę nie ma dobrych dowodów na poparcie owych twierdzeń.

Reklama

Pewne przykłady są bardzo spektakularne. Raport z 2015 roku autorstwa ekonomistów z Copenhagen Climate Consensus spotkał się z wielkim zainteresowaniem mediów. Badacze twierdzili w nim, że zrealizowanie celów porozumienia klimatycznego z Paryża oznaczałoby, że na każdego wydanego dolara otrzymamy mniej niż jednego dolara zysków. Tymczasem zmniejszenie barier w handlu światowym na każdego wydanego w tym celu dolara miałoby przynieść aż 2011 dol. zysku. Można zadać pytanie, jakie musiałyby być założenia tego badania, aby uzyskać takie wyniki. Wydają się one niezwykle duże i w sposób oczywisty zbyt precyzyjne. Ktoś mógłby podejrzewać, że ich celem było przede wszystkim pozyskanie uwagi mediów.

Równie bezpodstawną pewność możemy zaobserwować w wynikach badań pochodzących ze źródeł, które cieszą się większą reputacją. Organizacja Współpracy Gospodarczej i Rozwoju (OECD) przygotowuje prognozy takich rzeczy, jak PKB i poziom bezrobocia, podając bardzo dokładne dane – np. 2,78 proc. OECD nie podaje przy tym żadnej informacji, jak dokładne mogą być te szacunki. Bo skąd mamy pewność, że ostatecznie wzrost PKB nie wyniesie 2,77 proc. lub 1,85? Z analizy takich prognoz wynika, że są one często inne od ostatecznych wyników, zaś różnica wynosi od 1 do 2 pkt proc. Sprawia to, że prognozy tego typu są w dużej mierze bez znaczenia.

Charles Manski przyjrzał się także innym przykładom, jak choćby szacunki kosztów proponowanych ustaw, sporządzane przez Kongresowe Biuro Budżetowe (CBO). Na przykład w 2017 roku CBO oceniło, że w latach 2017-2026 Obamacare zmniejszyłoby federalne deficyty o 337 mld dol. Biorąc pod uwagę fakt, że ostateczny rezultat będzie zależał od nieprzewidywalnych działań stanów, szpitali, ubezpieczycieli oraz pacjentów, być może lepszym rozwiązaniem byłoby określenie pewnych ram – np. redukcja deficytów znajdzie się w przedziale od 250 do 450 mld dol. Niestety praktyka taka nie jest dziś standardem.

Dlaczego nie jest standardem? I czy są uzasadnione powody, dla których nie podaje się skali niepewności? W czasie lat swoich badań, Manski natknął się na cały szereg racjonalizacji. Jedną z nich jest powszechna idea, że ludzie generalnie nie lubią niepewności i podejmują lepsze decyzje, gdy owa niepewność jest ignorowana. Jest to jednak – jak zauważa Manski – psychologicznie naiwne, ponieważ właśnie badania pokazują, że ludzie na różne sposoby radzą sobie z niepewnością.

Dlatego głównym powodem, dla którego badacze wyrażają przesadną pewność w wynikach swoich badań, jest… retoryka. Mocne twierdzenia są bardziej zaskakujące i zyskują większą uwagę opinii publicznej. Sprawia to, że naukowcy oferują uproszczone analizy i jednoznaczne rekomendacje ws. polityk.

Byłoby to zgodne z zarzutem, że wiele modeli ekonomicznych opiera się na nierealistycznych założeniach, które pozwalają uzyskać zaskakujące rezultaty. Później zaś, przy okazji prezentacji wyników i formułowaniu zaleceń dla polityk, o założeniach badawczych często się zapomina.

Oczywiście istnieją uzasadnione powody, dla których nie ma sensu opowiadać o statystycznych szacunkach błędu danych wyników. Zapytałem ekonomistę Billa Conerly’ego, który często tworzy prognozy makroekonomiczne dla „Forbesa”, dlaczego w swoich tekstach nigdy nie pisze o ryzyku błędu prezentowanych prognoz. Odpowiedział mi, że owszem, nie robi tego, bo uważa, że nie za bardzo jest w stanie, zaś prezentacja ryzyka błędu sama w sobie mogłaby wprowadzać w błąd. Zmienność czynników mogących wpływać na gospodarkę nie może być ujęta w karby statystyki. Na przykład Conerly zapytał mnie: w jaki sposób można określić błąd standardowy w zakresie tego, co zrobi Donald Trump? Oczywiście nie można.

Bill Conerly zastępuje wyraźne ilościowe szacunki niepewności bardzo jasnymi stwierdzeniami, w których podkreśla, jak wiele czynników jest nam nieznanych i nie wiemy, kiedy i czy mogą zaistnieć. Wydaje się to sensowne – zatem nie udawajmy, że można policzyć niepoliczalne, gdyż byłoby to jeszcze jedną formą wprowadzania niepewności.

Badania Charlesa Manski’ego dotyczą nie tylko ekonomii, ale także medycyny oraz innych obszarów nauk społecznych, np. kryminalistyki. W bardzo upolitycznionych czasach, w których żyjemy, niezwykle łatwo jest dostrzec pokusę przedstawiania wyników jako bardziej pewnych, niż są w rzeczywistości.

Ale badacze, którzy postępują w ten sposób, podważają ostateczną wartość nauki. Szacunek niepewności powinien być prezentowany zawsze, kiedy jest to tylko możliwe. Jeśli zaś nie jest możliwe, powinniśmy działać jak Bill Conerly – czyli przedstawiać pewne przypuszczenia, ale jednocześnie zachować agresywną wręcz otwartość w kwestii tego, czego nie wiemy.

>>> Czytaj też: Żyjemy w erze „bullshit jobs”. 40 proc. ludzi czuje, że ich praca jest bez sensu. I mają rację [OPINIA]