Obserwator Finansowy: Kto „wymyślił” inflację?

Dr hab. inż. Jacek Białek: Inflacja, czyli proces wzrostu w czasie przeciętnego poziomu cen dóbr i usług, który skutkuje spadkiem siły nabywczej pieniądza, towarzyszy gospodarkom odkąd funkcjonuje sam pieniądz, choć łatwo można sobie wyobrazić także spadek siły nabywczej towarów w ramach handlu wymiennego. W Europie Zachodniej świadomość, że napływ złota lub srebra do gospodarki prowadzi do spadku siły nabywczej pieniądza rodziła się, gdy od połowy XV wieku do połowy XVII wieku nastąpiła tak zwana „rewolucja cenowa” – ponad sześciokrotny wzrost cen w ciągu 150 lat – w wyniku dostaw kruszców z Nowego Świata. Zadziałały tu również czynniki demograficzne – szybka odbudowa liczby ludności po wcześniejszych żniwach Czarnej Śmierci.

Co innego jednak zdawać sobie sprawę z istnienia inflacji, a co innego – zmierzyć ją.

Najwcześniejsza wzmianka o próbie konstrukcji indeksu cen pochodzi z 1675 roku, kiedy to Rice Vaughan, walijski prawnik i ekonomista, postanowił ustalić wpływ inflacyjny napływu metali szlachetnych przywiezionych przez Hiszpanię. W swoich analizach skoncentrował się m.in. na porównywaniu płac w niektórych zawodach, przy czym przyrównał je do tych, jakie obowiązywały za czasów Edwarda III. Wykazał m.in., że poziomy cen w Anglii wzrosły sześcio-ośmiokrotnie w trakcie ostatniego stulecia. Jego analizy nie doprowadziły jednak do formalnej propozycji indeksu cenowego.

Pierwsza próba stworzenia wskaźnika cen sięga początków XVIII w. W 1707 roku brytyjski biskup Wiliam Fleetwood opublikował prosty koszyk dóbr, dzięki któremu porównywał poziom cen z 1460 r. i 1707 r. Porównywanymi dobrami były 4 beczki piwa, 5 kwart zboża i 6 jardów tkaniny. Podobno rozważania Fleetwooda zainicjował student z Oxfordu, który poprosił go o pomoc w pokazaniu zmian cen. Student ten stracił stypendium, ponieważ na uczelni obowiązywał przepis jeszcze z XV wieku, zgodnie z którym roczne dochody studenta nie mogą przekraczać stypendium o więcej niż 5 funtów. Chodziło więc o to, jak realnie zmieniła się na przestrzeni czasu wartość tych 5 funtów.

To były jednak pomiary zmian pojedynczych produktów, a nie wskaźniki pokazujące trend dla całej gospodarki.

Pierwszy nieważony indeks w historii został zaproponowany formalnie przez francuskiego ekonomistę Nicolasa Dutot w 1738. Dutot przyjął stosunek średnich cen stałego koszyka z 1515 r., za panowania Ludwika XII, do cen z 1735 r., kiedy panował Ludwik XV. Celem było sprawdzenie realnego spadku przychodów króla. W koszyku Dutot zamieścił sporą liczbę dóbr, m.in. belkę siana, gołębia, kozę, królika, kurę, ale również, co ciekawe, usługi pracy mierzone dzienną pensją kobiet oraz mężczyzn.

Ćwierć wieku później włoski ekonomista i astronom Giovanni Carli wpadł na nieco inny pomysł. W 1764 roku na podstawie obserwacji cen zboża, wina i oliwy zaproponował formułę średniej arytmetycznej stosunku cen relatywnych z okresu badanego do okresu bazowego.

>>> Czytaj też: Inflacja pożera nasze pieniądze. Jak nad nią zapanować?

Jesteśmy zatem coraz bliżej wskaźnika inflacji, jaki znamy dzisiaj.

Najbardziej popularna formuła elementarna to indeks Jevonsa. W 1863 roku brytyjski ekonomista William Stanley Jevons zaproponował rozwiązanie podobne do indeksu Dutot, jednak zamiast średniej arytmetycznej zasugerował przyjęcie średniej geometrycznej z indeksów cząstkowych. Z aksjomatycznego i ekonomicznego punktu widzenia jest to najlepsza formuła elementarna.

Następnie pojawia się idea łączenia dóbr i usług w podgrupy i grupy, które mają przecież różne udziały w wydatkach konsumenta. Pojawia się idea indeksów agregatowych, ich aksjomatyki i słynna monografia Irvinga Fishera z 1922 r. The Making of Index Numbers: A Study of Their Varieties, Tests, and Reliability. Oprócz mnogości formuł indeksowych powstają teoretyczne podstawy dla COLI i CPI.

Od niedawna renesans przeżywają tzw. indeksy multilateralne, które powstały już w latach 30. XX wieku w celu porównań międzynarodowych. Dziś dedykowane są danym skanowanym, ponieważ działają na oknie czasowym, a nie na porównaniu dwóch punktów w czasie. Są to np. indeksy GEKS, CCDI czy indeks Geary-Khamisa. Co jakiś czas pojawiają się propozycje alternatywnych formuł indeksów, również elementarnych (np. indeks BMW).

Dlaczego więc z tego bogactwa indeksów, to akurat CPI uzyskał status, jak się wydaje, głównego, czy też domyślnego wskaźnika inflacji?

Po pierwsze, ma tu znaczenie siła amerykańskiej myśli ekonomicznej, skąd wywodzi się idea CPI. Z założenia CPI ma przybliżać indeks kosztów utrzymania (Cost of Living Index – COLI), który szczególnie wśród amerykańskich ekonomistów – a wiadomo, jaka jest ich siła oddziaływania na środowisko naukowe – traktowany jest jako najlepsza miara inflacji. Metodologia pomiaru CPI, także potencjalne obciążenia tego pomiaru, są chyba najbardziej rozpoznane i „rozpracowane” matematycznie – proces ten trwa już ponad 100 lat.

Będziemy obchodzić stulecie CPI?

CPI został zapoczątkowany w USA podczas I wojny światowej, kiedy gwałtowny wzrost cen, szczególnie w centrach stoczniowych, spowodował konieczność korekt w wynagrodzeniach. Aby je wyznaczyć, uwzględniono ceny towarów i usług zakupionych w 92 różnych ośrodkach przemysłowych w latach 1917-1919. Rozpoczęto okresowe zbieranie cen, a w 1919 r. Biuro Statystyki Pracy (BLS) rozpoczęło publikację oddzielnych indeksów dla 32 miast. Regularna publikacja indeksu krajowego, tj. średniej dla miast w USA, rozpoczęła się w 1921 r., a indeksy cen oszacowano wstecz aż do roku 1913 r. wykorzystując przy tym archiwalne zapisy cen żywności.

Idea CPI jest szczególnie mocno zakorzeniana w świadomości obywateli i przedsiębiorców również dziś. Na przykład BLS publikuje przydatny kalkulator inflacji bazujący na CPI, gdzie można sprawdzić wartość dolara w dowolnym roku względem lat poprzednich, sięgając aż roku 1913. W związku mijającą wkrótce setną rocznicą wprowadzenia CPI do statystyki publicznej, już teraz pojawiają się artykuły podsumowujące ten okres, popularyzujące wiedzę o metodzie CPI i planowanych usprawnieniach w zbieraniu danych. Żadnej innej mierze inflacji nie poświęcono w literaturze popularnonaukowej i naukowej równie dużo uwagi. Nie zmienia to jednak faktu, że nie brakuje krytycznych głosów skierowanych pod adresem CPI, również wśród amerykańskich ekonomistów.

Dzisiejszy CPI różni się jednak od indeksu, który powstał sto lat temu?

Metoda pomiaru inflacji ewoluuje i jej zmiany są konieczne – i ta uwaga dotyczy każdego państwa i każdego urzędu statystycznego na świecie, również GUS. Trzeba postawić sprawę jasno – gdyby metoda była ustalona raz i na zawsze, bardzo szybko doszłoby do katastrofalnych konsekwencji finansowych wszystkich decyzji, które podejmuje się w oparciu o wskaźnik inflacji – inwestycyjnych, rządowych, etc. Bo świat cen, który nas otacza, jest dynamiczny i otaczająca nas rzeczywistość, również ta postrzegana przez konsumentów, bardzo szybko się zmienia.

Jakie czynniki wymuszają zmiany metodologiczne w pomiarze inflacji?

Zmieniają się zachowania konsumentów: ich upodobania, mody i trendy zakupowe, widoczne w zakresie chociażby ubrań i obuwia, pojawiają się nowe technologie, np. teleinformatyczne, nowe miejsca dokonywania zakupów – jak elektroniczne platformy handlowe. Zmieniają się uwarunkowania rynkowe, dotyczące tego co rynki oferują i w jaki sposób to czynią. Czasami konsument podąża za tańszym odpowiednikiem produktu, czasem motywem zakupu jest pogoń za komfortem użytkowania, kiedy indziej wygodny i szybki dostęp do informacji o produkcie. Zmienia się struktura konsumpcji, zmieniają się zbiory najchętniej kupowanych produktów, pojawiają się zupełnie nowe dobra, a znikają z rynku produkty dotąd funkcjonujące a już teraz niechciane. Metoda pomiaru inflacji stara się za tymi zmianami nadążać, chociażby poprzez aktualizację listy produktów-reprezentantów, wyboru punktów notowań, modernizacji sposobów doboru próby czy coroczną (w przypadku GUS) aktualizację wag w koszyku CPI, odzwierciedlających strukturę konsumpcji.

Czy jest jakaś instytucjonalna kontrola nad tymi zmianami? Tak by dane w każdym kraju były porównywalne?

Co jakiś czas dokonuje się nowelizacja zaleceń międzynarodowych, pojawiają się nowe rozporządzenia czy też rekomendacje metodologiczne. Dysponujemy wydanymi w papierze, anglojęzycznymi manualami do CPI (2004 r.) i HICP (2018 r.), ale prace nad ich udoskonalaniem cały czas trwają – niebawem ukaże się nowa wersja manuala do CPI m.in. aktualizująca rekomendacje w zakresie nowych źródeł danych (dane skanowane).

Czy taka publikacja może stać się katalizatorem zmian w światowej statystyce, czy to raczej doganianie tego, co się już wydarzyło?

Nowa wersja manuala ma obejmować wszystkie dostępne źródła danych. I to będzie kompleksowa baza wiedzy, jak łączyć ze sobą nowe źródła danych i scalać w jeden wskaźnik inflacji. Będzie to dogonienie tego, co się dzieje w światowej statystyce – zarówno w teorii, jak i praktyce. Nieuwzględnianie nowych źródeł danych jest po prostu błędem merytorycznym, to są kopalnie informacji. Urzędy statystyczne są bardzo prężne w tej dziedzinie, przede wszystkim mają dostęp do danych tego rodzaju i na nich eksperymentują. W konsekwencji często o nowoczesnych metodach praktycy wiedzą więcej niż teoretycy: potrafią je ocenić, porównać, znają warunki stosowalności. Około jednej trzeciej krajów UE eksperymentuje już z danymi skanowanymi czy skrapowanymi, ale tylko część z nich wdrożyła już te źródła do obliczania oficjalnego CPI. Uczynili to np. Szwedzi, u których dane skanowane posiadają około 19 proc. udziału w CPI.

Z drugiej strony, ten manual będzie zawierał rekomendacje i ostatecznie przesądzi, które metody są „lepsze” np. w zakresie dynamicznych danych skanowanych czy skrapowanych. Wiele instytucji być może oczekuje na rozstrzygnięcie, który miernik i w jaki sposób stosować – być może dzięki tej publikacji nowe źródła danych zostaną wdrożone do regularnej produkcji przez większość krajów UE. Liczę, że stosowanie nowych źródeł danych stanie się już wkrótce faktem.

Kiedy ta publikacja się ukaże?

Już w 2015 roku powołano grupę ekspertów do prac nad manualem. We wrześniu 2019 roku rozpoczęto konsultacje międzynarodowe w zakresie przygotowanego dotychczas materiału (wiele krajów, w tym Polska, zgłosiła pewne uwagi i sugestie uzupełnień). Tym razem publikacja zostanie podzielona na dwie części: Consumer Price Index Manual: Concepts and Methods i Consumer Price Index Theory. Pierwsza część, bardziej pragmatyczna, będzie poddana finalnej weryfikacji już marcu 2020 roku. Druga część jest zdecydowanie bardziej opóźniona. Sądzę, że na całość trzeba będzie poczekać jeszcze przynajmniej rok lub, co bardziej prawdopodobne, dwa lata.

Czym są te nowe źródła danych?

Mam tu na myśli m.in. dane skanowane, czyli przede wszystkim dane z sieci supermarketów, oraz dane skrapowane – pobierane automatycznie ze stron www wystawców produktów. To potrzeba naszych czasów, ale i zapewne już wkrótce – obowiązująca norma. Niedoścignionymi (na razie) wzorcami w tym zakresie są USA, Japonia czy kraje skandynawskie. Np. Japonia publikując swój UTokyo Daily Price Index pobiera dane od ponad 300 sieci supermarketów!

Od ponad 3 lat GUS współpracuje z kilkoma sieciami supermarketów w zakresie pozyskiwania danych.

Polska również stara się nie być w tyle – od ponad 3 lat GUS współpracuje z kilkoma sieciami w zakresie pozyskiwania danych i choć na razie służą one celom wyłącznie poglądowym i eksperymentatorskim – dzięki nim analizuje się strukturę konsumpcji zakupów w supermarketach, czy też testuje różne formuły indeksów dedykowane bardzo dynamicznym danym skanowanym – to jednak mam nadzieję, że już wkrótce zacznie się regularna produkcja wskaźników bazujących na tego typu źródłach danych. Konieczna jest jednak współpraca z sieciami – tu apel do wszystkich sieci handlowych o współpracę, przecież nam wszystkim powinno zależeć na jak najdokładniejszych szacunkach inflacji. Warto również zapewne przyjrzeć się alternatywnym źródłom danych, jakimi są wspomniane elektroniczne platformy handlowe. Trzeba jednak pamiętać, że każde z tych źródeł posiada swoistą charakterystykę, zalety i ograniczenia, a w dodatku cechuje je ogromny wolumen informacji i niezwykły dynamizm. Konieczne jest zatem doskonalenie metodologii w tym zakresie.

Jakie są korzyści z wykorzystywania nowych danych?

Dane tego rodzaju mają mnóstwo zalet, wymienię te bardziej oczywiste, związane z danymi skanowanymi, którymi akurat ja się zajmuję. Po pierwsze, jeśli nawiążemy współpracę z siecią, to zyskujemy szybki, relatywnie tani i bardzo obszerny dostęp do transakcyjnych danych o konsumpcji, a przy tym wysoce zautomatyzowany i przez to oszczędny. Po drugie – co odróżnia dane skanowane od danych pochodzących z tradycyjnej kolekcji – nawet na najniższym poziomie agregacji danych (tzw. poziomie elementarnym) dysponujemy informacjami nie tylko o cenach produktów, ale również o wielkości ich konsumpcji. To otwiera zupełnie nowe możliwości pomiarowe na poziomie elementarnym – można sięgnąć np. po tzw. formuły superlatywne indeksów cen, czy też indeksy multilateralne, co w przypadku klasycznych punktów notowań jest poza zasięgiem. Oczywiście, wśród wyzwań jakie stoją przed GUS i przed każdym urzędem statystycznym, chcącym wdrażać nowe źródła danych, stoi budowa nowego lub modernizacja obowiązującego systemu IT.

Jak będzie wyglądał pomiar inflacji w nowej dekadzie?

W nadchodzącej dekadzie, od środowiska informatycznego obsługującego proces przetwarzania tego typu danych wymagać się będzie już nie tylko prostych operacji bazodanowych i podstawowych operacji arytmetycznych. To wystarczało w przypadku tradycyjnej kolekcji danych. Tym razem, odpowiednie moduły będą musiały dokonać automatycznej klasyfikacji produktów od odpowiednich grup na podstawie kodów kreskowych, etykiet (opis koloru, materiału, składu itd.), czy dodatkowych informacji, jak stawka VAT, gramatura czy jednostka sprzedaży. Będą musiały dokonać tzw. matchingu, czyli dopasowania produktów do siebie na przestrzeni czasu, rozpoznać zmiany jakościowe, sztucznie zawyżone lub zaniżone ceny, wyselekcjonować tzw. dump prices, czyli ceny produktów wycofywanych z rynku itd. Zaetykietowane w ten sposób „nienaturalne” ceny będą musiały być poddane dalszym procesom weryfikacyjnym lub ostatecznie imputacji. Procesy klasyfikowania czy dopasowywania wymagają nie tylko zaawansowanego text-miningu, ale również dobrodziejstw uczenia maszynowego zawierającego w sobie metody statystyki wielowymiarowej, np. analizę skupień czy drzewa losowe.

Na jakim etapie są prace w GUS?

Obecnie GUS prowadzi już eksperymenty na wszystkich wspomnianych przed chwilą polach. W Departamencie Handlu i Usług, w którym pracuję, testujemy różne formuły indeksów multilateralnych. W zakresie klasyfikacji i matchingu wspierają nas ośrodki naukowe, a także jednostki statystyki publicznej w Poznaniu, Radomiu i Opolu. Ponadto, pod patronatem GUS rozpoczął się rok temu trzyletni projekt Instatceny (konsorcjantami są również SGH i IPI-PAN) ukierunkowany właśnie na wykorzystanie nowych źródeł danych w pomiarze inflacji. W projekcie tym mam przyjemność uczestniczyć i wszyscy wiążemy z nim dużą nadzieję.

Od strony naukowej publikacja nowego podręcznika do CPI nie będzie dla GUS zaskoczeniem. Cały czas pracujemy nad sprawą nowych źródeł danych, mamy pierwsze wnioski. Wyzwań jest dużo, staramy się dogonić czołówkę Europy. Mam nadzieję, że w ciągu roku czy dwóch będziemy gotowi na to, by efektywnie uwzględniać nowe źródła danych w pomiarze inflacji.

Czy będzie nowy wskaźnik inflacji?

Tu absolutnie nie chodzi o to, żeby porzucić CPI, ale żeby go wesprzeć, żeby go udoskonalać. Nie wszyscy kupują w supermarketach i nie wszystko da się tam kupić. Dlatego wątpię, by w najbliższej przyszłości dane skanowane czy skrapowane całkowicie wyparły badania przeprowadzane przez ankieterów w terenie. To będzie suplement wiedzy o dynamice cen – chodzi o to, by umieć ważyć informacje pochodzące z różnych źródeł.

Tak jak nie ma idealnego wskaźnika inflacji – każdy ma swoje wady i zalety – tak nie można mówić o istnieniu jednej, „rzeczywistej” i jednakowo odczuwalnej dla wszystkich inflacji. Oznaczałoby to zgodę wszystkich beneficjentów wiedzy o inflacji co do zawartości ustalonego koszyka inflacyjnego, a to jest niemożliwe. Chociażbyśmy się bardzo starali, choćbyśmy wydawali kolejne manuale – nie ma jednej recepty na pomiar inflacji: inne oczekiwania będą mieli importerzy i eksporterzy, inne bankowcy i makroekonomiści. Ale szukanie nowych źródeł danych oraz uzupełnianie wiedzy o indeksach cen jest bez wątpienia receptą na doskonalszy pomiar inflacji.

>>> Czytaj też: Kiedyś jeden z „jastrzębi”, dziś „gołąb”. Dlaczego Glapiński broni się przed podwyżką stóp?

– rozmawiał Maciej Jaszczuk

Dr hab. inż. Jacek Białek jest profesorem Uniwersytetu Łódzkiego, w Katedrze Metod Statystycznych, a także ekspertem w Departamencie Handlu i Usług Głównego Urzędu Statystycznego.