Prognozy wzrostu PKB, kursów akcji czy poziomu produkcji wymagają wiedzy, której dokonujący takich szacunków po prostu mieć nie mogą – pisze John Kay.
Reputacja ekonomistów, która nigdy nie była wysoka, padła ofiarą globalnego kryzysu. Od kiedy światowe finanse balansują na krawędzi rozpadu, wszyscy – nie wyłączając królowej Elżbiety II – zadają niewygodne, ale trafne pytanie: czy z ekonomistów jest jakiś pożytek?

>>> Czytaj też: Tylko zgoda na bankructwo zahamuje panikę

Część krytyki jest chybiona. Konkretne prognozy wzrostu PKB czy poziomu kursów giełdowych wymagają wiedzy, której dokonujący szacunków mieć nie mogą. Systemy ekonomiczne są dynamiczne, nielinearne i podatne nawet na niewielkie zmiany parametrów. Na dodatek charakteryzuje je jeszcze jedna trudna do uchwycenia zmienna – wiara w to, co się stanie, wpływa na to, co się na nich dzieje.

>>> Polecamy: Nowy sposób na kryzys - ponowna rewolucja przemysłowa

Reklama
Na szczęście niewielu ekonomistów snuje prognozy. Istnieje jednak głośna mniejszość, która cynicznie wykorzystuje nienasycony apetyt opinii publicznej na szacunki. Większość z nich jest zatrudniona w sektorze finansowym – raczej z racji wartości marketingowej niż trafności ich rad.
Nawet jeżeli dokładne przewidzenie konkretnych zdarzeń ekonomicznych rzadko jest możliwe, jak najbardziej realne powinno być opisanie ogólnego ich charakteru, dróg, w jakich się rozwijają, ogólnej natury dostępnych opcji i ich konsekwencji. Możliwe powinno być zawarcie porozumienia w sprawie interpretacji danych, które wspierałoby taką analizę. Tyle że jest zupełnie inaczej.

Nie będzie więcej kryzysów

Dwa najważniejsze nurty ekonomii z punktu widzenia ostatniego kryzysu gospodarczego to: makroekonomia i ekonomia finansowa. Pierwsza zajmuje się cyklami koniunkturalnymi, a jej dominującym paradygmatem jest dynamiczny stochastyczny model równowagi ogólnej (na szczęście można używać skrótowej nazwy DSGE). To skomplikowane równanie strukturalne, które bierze pod uwagę czas, ryzyko i potrzeby do określenia zachowania wielu różnych firm i gospodarstw domowych jednocześnie. Z kolei analiza rynków finansowych koncentruje się na hipotezie rynku efektywnego, która zakłada, że wszystkie dostępne informacje są wliczone w ceny rynkowe, więc to one w najlepszy sposób odzwierciedlają realną wartość aktywów. Jest też model wyceny aktywów kapitałowych, który zakłada, że to, co obserwujemy, jest wynikiem decyzji podejmowanych przez racjonalnych graczy wierzących w efektywność rynków. Jednak prognozy stawiane przez zwolenników tych trzech modeli były nieprawdziwe: zapowiadali stabilizację, gdy kryzys się pogłębiał, i przepowiadali wydajność rynków, kiedy źle wyceniały one wartość aktywów.
Przedstawiciele organów nadzoru, jak były prezes Fed Alan Greenspan, twierdzili, że rozwój nowych skomplikowanych instrumentów finansowych niesie ze sobą efektywniejsze narzędzia zarządzania ryzykiem, dzięki którym światowa gospodarka stanie się stabilniejsza. Jeszcze pod koniec 2007 roku MFW usprawiedliwiał swój optymizm dotyczący perspektywy makroekonomicznej twierdzeniem, że „rozwój globalnego systemu finansowego odgrywa ważną rolę, m.in. pozwalając USA generować aktywa o atrakcyjnej płynności i sprawnie zarządzać ryzykiem”.
Te błędne twierdzenia miały poparcie wśród profesjonalistów. Podczas wykładu dla Amerykańskiego Stowarzyszenia Ekonomistów w 2003 roku Robert Lucas z Uniwersytetu w Chicago, laureat Nagrody Nobla, ogłosił, że „makroekonomia się sprawdziła: problem zapobiegania recesji został rozwiązany”. Opierał swoje twierdzenie na instytucjonalnych innowacjach, na które zwracali uwagę również Greenspan i analitycy MFW, oraz na teoretycznej podbudowie, która została wyprowadzona z modeli opartych na DSGE i modelu wyceny aktywów kapitałowych.

Bitwa na modele

Poważne zarzuty stawiane makroekonomii nie biorą się z tego, że nie przewidziała upadku banku Lehman Brothers we wrześniu 2008 roku, ale że nie zrozumiała mechanizmów, które wystawiły światową gospodarkę na ryzyko. Dlaczego teorie, które miały sobie poradzić z tymi kwestiami, okazały się tak mylące? Akademicka debata na temat oszczędności i stymulacji koncentruje się na elemencie obserwowanym w modelach opartych na DSGE. Jeżeli rząd angażuje się w stymulowanie gospodarki metodami fiskalnymi, ludzie uznają, iż taka polityka oznacza zapowiedź zwiększenia podatków lub zmniejszenia wydatków. Oczekując tego, zaciskają pasa i popyt w gospodarce pozostaje na niezmienionym poziomie. Ta teoria – zwana ekwiwalencją ricardiańską – sugeruje, że polityka fiskalna jest nieskuteczna jako środek reagowania na zawirowania gospodarcze.
John Cochrane, kolega Lucasa z Chicago, przedstawił tezę o nieefektywności polityki w odpowiedzi na zaatakowanie szkoły DSGE przez Paula Krugmana, innego laureata Nagrody Nobla (Krugman nazwał komentarze ekonomistów z Chicago mianem „produktu Wieków Ciemnych makroekonomii”). Cochrane stwierdził, iż założenia, które doprowadziły do tezy o nieskuteczności polityki, „są w oczywisty sposób nieprawdziwe”. Można było oczekiwać, że to zakończy dyskusję, ale nie. Cochrane uznał, że „jeżeli chcemy zrozumieć skutki wydatków rządowych, musimy wskazać, dlaczego założenia prowadzące do ekwiwalencji ricardiańskiej są fałszywe”. To rozsądny postulat. Jednak już podstawowe założenie zdecydowanie nie jest prawdziwe. Nikt, w tym sam Cochrane, nie wierzy w to, że cała populacja dostosowuje swoje długoterminowe oszczędności do prognoz długu publicznego i poziomu wydatków w następnych dekadach.
Jednak Cochrane nie poddaje się łatwo. „Ekonomiści spędzili lata na analizie ekwiwalencji ricardiańskiej i ocenie prawdopodobnych skutków bodźca fiskalnego, przy uwzględnieniu wszystkich »jeżeli« i »dlatego«. Tak właśnie należało zrobić” – przekonuje. Dlaczego ta procedura jest właśnie taka, jak być powinna? Są dwie opcje. Można zbudować inny model ekonomiczny. Dla przykładu jeszcze inny noblista Joseph Stiglitz woli taki, który wiele czerpie z założeń Lucasa, ale przykłada wagę do niedoskonałości informacji. W końcu ekwiwalencja ricardiańska wymaga, by gospodarstwa domowe miały wiele informacji na temat przyszłych opcji budżetowych albo przynajmniej zachowywały się tak, jakby je miały.
Inną możliwością jest założenie, że gospodarstwa domowe reagują mechaniczne na wydarzenia, zgodnie z konkretnymi zasadami behawioryzmu. Jak szczury w labiryncie. Takie podejście nazywane jest programowaniem agentowym (ABM). Te modele mogą – by zacytować Lucasa – „zostać wrzucone do komputera i uruchomione”. Nie jest jasne, czy wnioski płynące z tych modeli są bardziej, czy mniej prawdopodobne niż w przypadku preferowanego przez Lucasa i Cochrane’a.
Inną linią ataku byłoby całkowite odrzucenie twierdzenia, że świat ekonomii w ogóle można opisać za pomocą jakiegokolwiek uniwersalnego modelu. Na zachowania ekonomiczne wpływają technologie i kultury, które ewoluują w sposób z pewnością nieprzypadkowy, ale którego nie można w pełni opisać za pomocą zmiennych i równań znanych ekonomistom.
W tym eklektycznym świecie ekwiwalencja ricardiańska nie jest niczym więcej niż sugestywną hipotezą. Możliwe, że pewne takie efekty występują. Można powątpiewać, na ile są znaczące, i podejrzewać, iż ich rozmiar zależy od wielu mylących i przypadkowych czynników – natury bodźca stymulacyjnego, ogólnej sytuacji politycznej, natury rynków finansowych i systemu opieki społecznej. Pokolenia ekonomistów po Johnie Maynardzie Keynesie angażowały się w te bieżące oceny, próbując wyliczyć jedną z podstawowych koncepcji zawartych w jego „Ogólnej teorii zatrudnienia, procentu i pieniądza” – funkcję konsumpcji, która ma związek ze zagregowanymi wydatkami w danym okresie w stosunku do dochodu narodowego. Próbowali wyliczyć, jaką część bodźca fiskalnego wydajemy i jaki mnożnik z tego wynika.
Dziś jednak żaden szanujący się dziennik ekonomiczny nie opublikowałby takiego artykułu. Powiedziano by wam, że wasz model nie spełnia wymogów teoretycznych – brakuje mu konsekwencji i spójności. To dwa najpotężniejsze słowa w dzisiejszej ekonomii.

Teoretycy grają w „GTA”

Konsekwencja i spójność to cechy podejścia dedukcyjnego, które wyciąga wnioski z puli aksjomatów – i których empiryczne znaczenie zależy w całości od uniwersalnej wartości tych aksjomatów. Jedynym opisem w pełni spełniającym wymagania konsekwencji i spójności są całkowicie sztuczne światy, takie jak DSGE i ten w grze komputerowej „Grand Theft Auto”.
Dla wielu ludzi rozumowanie dedukcyjne jest tożsame z nauką: indukcja – w której argumenty są wyciągane z badanej materii – jest metodą charakterystyczną dla historii czy literaturoznawstwa. To sztuczny podział. Postęp naukowy – nie tylko w naukach stosowanych, takich jak inżynieria, lecz także w bardziej teoretycznych dziedzinach, takich jak fizyka – jest często wynikiem obserwacji, że coś działa, na długo zanim zrozumiemy, dlaczego działa.
Nie dotyczy to jednak ekonomii. Tu rozumowanie dedukcyjne, oparte na logicznym wnioskowaniu, pozostaje najwłaściwszą drogą postępowania. Absurdem jest nie wykorzystywanie metody dedukcyjnej, ale żądanie dla niej wyłączności. To nie debata pomiędzy matematyką a poezją. Rozumowanie dedukcyjne musi się z konieczności opierać na matematyce i logice formalnej. Rozumowanie indukcyjne czerpie z doświadczenia i przede wszystkim z uważnej obserwacji, często posiłkując się statystyką i matematyką.
Ekonomia nie jest techniką rozwiązywania problemów, ale zestawem problemów, które wymagają rozwiązania. Problemy są różne, więc i takie będą rozwiązania. Takie pragmatyczne podejście wymaga nie tylko logiki dedukcyjnej, lecz także rozumienia procesu kształtowania się przekonań, antropologii, psychologii i zachowania organizacji, a także szczegółowej obserwacji tego, co robią ludzie, firmy i rządy.
Przekonanie, że modele nie są jedynie użytecznymi narzędziami, ale są zdolne wygenerować całościowe i uniwersalne opisy świata, zaślepiają zwolenników tej tezy i nie pozwalają im dostrzec realiów. Ta ślepota ma znaczny udział w obecnym kryzysie i warunkuje naszą chaotyczną reakcję na niego. Ekonomiści – w agendach rządowych i na uniwersytetach – obsesyjnie grają w „Grand Theft Auto”, podczas gdy świat wokół nich wali się w gruzy.

John Kay, jeden z głównych brytyjskich ekonomistów. Profesor London School of Economics i pierwszy dyrektor założonej przy uniwersytecie oksfordzkim Said Business School. Autor książek, stały felietonista „Financial Timesa”. Przez dziesięć lat, od 1986 roku, prowadził firmę konsultingową London Economics.

ikona lupy />
BIO: John Kay, jeden z głównych brytyjskich ekonomistów. Profesor London School of Economics i pierwszy dyrektor założonej przy uniwersytecie oksfordzkim Said Business School. Autor książek, stały felietonista „Financial Timesa”. Przez dziesięć lat, od 1986 roku, prowadził firmę konsultingową London Economics Fot. Materiały prasowe / DGP