Internet został wywrócony do góry nogami.

W internecie trwa rewolucja. W wyniku zmian wprowadzanych przez Google strony, po których dziś surfujemy, mogą być zupełnie inne niż te, na których bywaliśmy jeszcze dwa lata temu. Choć szukamy dokładnie tego samego, co wcześniej. Biznes ma tylko jedno wyjście – dostosować się.

Krwawa sobota. Tak 4 października tego roku został nazwany przez branżę e-marketingu. To właśnie wtedy zaczęła działać nowa aktualizacja algorytmu wyszukiwarki Google pod nazwą Pingwin 2.1. Co się zmieniło? Najłatwiej będzie to wyjaśnić na przykładzie. Załóżmy, że po wpisaniu w wyszukiwarkę słów „rowery górskie” na pierwszej stronie wyników wyszukiwania sklep x pojawiał się na pierwszym miejscu. Po zmianie spadł na stronę dwunastą. Jeśli pamiętamy o tym, że poza pierwszą stronę, czyli pierwszych dziesięć proponowanych przez Google odnośników, zagląda zaledwie kilka procent internautów, łatwo sobie wyobrazić skalę tej rewolucji.

>>> Czytaj też: 10 milionów Polaków używa Facebooka. Wielka impreza trwa

Jeszcze przed miesiącem na stronę naszego hipotetycznego sklepu wchodziło 100 osób dziennie, dziś nie robi tego nikt. Ilu stron WWW dotyczyły efekty działania nowej aktualizacji? Tego tak naprawdę nie wie nikt. Można tylko szacować. – Na moje oko mamy do czynienia ze zmianą na poziomie 25–35 proc. monitorowanych i pozycjonowanych słów – czytamy na blogu Silesia SEM, który prowadzi Artur Strzelecki, doktor na Uniwersytecie Ekonomicznym w Katowicach.

Reklama

W tym miejscu ktoś mógłby się żachnąć, że internet to nie tylko jedna wyszukiwarka, lecz znacznie więcej. Na pewno. Ale biorąc pod uwagę, że pod koniec 2012 r. według rankingu Gemius ponad 95 proc. wizyt na stronach rozpoczętych wejściem z wyszukiwarek odbywało się właśnie przez Google, to odpowiedź na pytanie, dlaczego warto się przyglądać działaniom firmy z Mountain View, wydaje się prosta. W pewnym sensie Google to okulary, przez które patrzymy na świat. Jeśli wprowadzamy w nich drobną korektę, na przykład nagle staną się żółte albo zamiast „zerówek” włożymy „– 2”, to postrzegany obraz się zmieni. Stacja benzynowa, która wydawała nam się bardzo odległa, nagle jest już na wyciągnięcie ręki. Dokładnie tak samo jest ze zmianami w algorytmie Google’a.

Nowa aktualizacja ma wyeliminować tzw. nadmierne linkowanie. Jeszcze kilka lat temu to, jak wysoko dana strona pojawiała się w wynikach wyszukiwania, zależało praktycznie wyłącznie od liczby linków, czyli przekierowań z innych stron. Google chciał działać podobnie do indeksów naukowych, gdzie o wartości danej pracy świadczy liczba cytowań. Nie wziął jednak pod uwagę tego, że taką liczbę można stosunkowo łatwo i bardzo szybko sztucznie napompować. Co ciekawe, zjawisko to jest szczególnie rozpowszechnione właśnie w Polsce, a „nasz” internet, czyli ten w polskiej wersji językowej, jest uważany za jeden z bardziej zaśmieconych na świecie. Częściowo wynika to z tego, że nad Wisłą zawrotną karierę zrobiły tzw. SWL-e, czyli systemy wymiany linków i automaty do linkowania, które w ciągu jednej doby potrafią do wybranej strony dodać dziesiątki tysięcy odnośników. Nowa treść (często niemające żadnego sensu zbitki słów) jest generowana przez programy komputerowe, a do sieci trafiają niewyobrażalne ilości cyfrowych śmieci wszelkiej maści. Teraz ma się to zmienić. W wynikach wyszukiwania pod uwagę mają być brane już tylko naturalne linki, czyli takie, które pochodzą z tematycznie pokrewnych „prawdziwych stron”.

Dlaczego wprowadzane są zmiany? – Użytkownicy odwiedzają Google, by otrzymać wyniki wysokiej jakości i możliwie pełną odpowiedź na swoje zapytanie. Ciągle ulepszamy algorytm wyszukiwarki, by pokazywała ona jak najbardziej trafne wyniki i by ograniczać wyniki mało wartościowe dla użytkowników i spam, czyli wyniki bezwartościowe – odpowiada Piotr Zalewski z Google Polska. – Nowe wersje algorytmu wyszukiwarki służą właśnie temu, by dostarczać w pierwszej kolejności wyniki coraz lepszej jakości i ograniczać spam.

Takie stanowisko kalifornijskiego giganta nie dziwi. Można wręcz powiedzieć, że ich lakoniczna polityka informacyjna dotycząca działania wyszukiwarki stała się już „nową, świecką tradycją”. Ponoć wszystko po to, by utrudnić życie spamerom i internetowym cwaniakom.

>>> Czytaj też: Displeje, adsy i remarketing, czyli krótki poradnik e-konsumenta

Zmiany, zmiany, zmiany

Mówiąc o permanentnej rewolucji, która trwa w internecie, nie można nie wspomnieć o innej aktualizacji algorytmu Google, która ma równie pieszczotliwą nazwę jak Pingwin.

Panda, bo o niej mowa, ma sprawić, by w wynikach wyszukiwania wyżej znajdowały się strony, które mają dużo wartościowej treści, tzw. contentu. Jej wprowadzenie także wprowadziło pewne spustoszenie. Ci, którzy w staraniu o dobrą pozycję zapomnieli o tym, że na stronie powinny się znajdować interesując informacje, po prostu spadli w otchłań internetowych śmietnisk. Panda zmniejszy liczbę sytuacji, w których wchodzimy na stronę, gdzie napisane są same ogólniki, tak naprawdę nierozwijające interesującego nas tematu. – Jan Kowalski powinien mieć bardziej adekwatne wyniki, a nie trafiać na spam. Każda aktualizacja sprawia, że wyniki wyszukiwania są bardziej dopasowane do potrzeb użytkowników – potwierdza słowa przedstawiciela wyszukiwarki Maciej Gałecki ze Związku Pracodawców Branży Internetowej IAB Polska. – Google od zawsze edukował ludzi, by dodawać wartościowe treści. By znaleźć się wysoko w wyszukiwarkach, najlepiej tworzyć treści samemu. Nie warto się skupiać na linkach – radzi ekspert.

Ale są też inne, z pozoru drobne różnice, które wprowadzone przez Google zupełnie zmieniają internet czy raczej jego fragment, po którym dany użytkownik się porusza. – Zmiana, której wielu mogło doświadczyć, ale tak naprawdę nie zauważyć, polega na tym, że po zalogowaniu do któregoś z produktów Google, np. do poczty, mamy inne wyniki wyszukiwania niż bez tego zalogowania – wyjaśnia Artur Strzelecki. Wyszukiwarka jeszcze częściej odsyła nas na strony, na których już byliśmy. Z perspektywy przeciętnego użytkownika oznacza to, że tak naprawdę liczba stron, na które trafiamy, raczej się zmniejsza niż zwiększa.

Jeśli więc decydujemy się na przeszukiwanie internetu, nie możemy zapominać, że jego wyniki w ogromnej mierze zależą od mechanizmów działania wyszukiwarki niż od naszych umiejętności. Coraz bardziej istotną rolę w naszym surfowaniu po wirtualnym bezkresie odgrywa tzw. geolokalizacja. Ponieważ Google bez problemu identyfikuje, gdzie znajdujemy się w rzeczywistości (korzystając z tradycyjnego komputera po adresie IP, z urządzeń mobilnych przez GPS), internauta z centrum Radomia porusza się w zupełnie innym wycinku sieci niż ten ze wsi pod Poznaniem. I nie chodzi wcale o to, że wpisuje konkretne frazy, jak np. „sklep rowery Radom”. Po prostu wyszukiwarka sama wybiera to, co jej zdaniem jest dla nas bardziej interesujące. I tak szukając roweru, kiedy siedzimy przy komputerze czy używamy smartfona w Radomiu, nawet jeśli nie wpiszemy słowa „Radom”, powinniśmy otrzymać listę sklepów właśnie z tego miasta lub okolic.

xxx

Rewolucja w sieci ma zatem jak najbardziej realne skutki. Pierwszym efektem krwawej soboty jest zmniejszenie przychodów wielu firm zajmujących się pozycjonowaniem, czyli umieszczaniem konkretnych stron na pierwszych miejscach w wyszukiwarkach, jeśli wpisujemy w nie wybrane frazy. Jedna z dużych agencji interaktywnych zajmujących się e-marketingiem szacuje, że z racji wejścia w życie „nowego Pingwina” jej przychody spadną o ok. 200 tys. zł miesięcznie.

Ale i tak problem w większej mierze dotyczy klientów takich agencji. Bo tak naprawdę tysiące internetowych sklepów czy po prostu firm, których duża część klientów pochodzi z sieci, może nagle zostać od tych klientów odcięta. Oczywiście nikt nie jest w stanie oszacować takich strat w skali całej gospodarki. Poza tym fakt, że ktoś z pierwszej dziesiątki wyników wyszukiwania wypadnie, oznacza także, że to miejsce zajmie ktoś inny. Tak więc niektórym te zmiany w prowadzeniu biznesu bardzo przeszkodzą, innym pomogą.

– Te zmiany w algorytmie Google, które pojawiły się w ciągu ostatnich kilkunastu miesięcy, powodują to, że mały przedsiębiorca ma szansę sam dbać o swoją pozycję w internecie. Dotychczas do efektywnego działania trzeba było mieć zaplecze, które potrafili stworzyć tylko specjaliści – ocenia Marcin Pawłowski, konsultant i trener e-marketingu w KonkretMedia.pl. – W pewnym sensie te zmiany powodują powrót do internetu sprzed dekady. Dziś każdy prowadzący firmę, jeśli będzie dbał o swoją stronę, pozyskiwał linki od swoich naturalnych partnerów, ma szansę zaistnieć. Jeszcze do niedawna musiał takie usługi zlecać agencjom.

Bezpieczniejszy jest biały kapelusz

Nie znaczy to oczywiście, że nagle wszyscy przedsiębiorcy zaczną sami dbać o swoje strony WWW. Zrobi to zapewne ta część, która się na tym chociaż trochę zna lub która radykalnie tnie koszty. Wciąż wymaga to bowiem wiedzy dosyć specjalistycznej. Wszelkie ruchy w Google mają to do siebie, że powodują powstanie wielu specjalizacji zawodowych, jak np. „specjalista ds. SEO” (search engine optimalisation – optymalizacja związana z wyszukiwarkami) czy „specjalista do obsługi Adwords”, czyli płatnych ogłoszeń w Google. Teraz można oczekiwać mody na „content marketing”, czyli specjalistów do tworzenia sensownych treści. Wszystko dlatego, że z dużym prawdopodobieństwem w niedalekiej przyszłości można się spodziewać rosnącej liczby stron internetowych z wieloma podstronami. To już nie będą tylko zakładki „o nas”, „kontakt” czy „produkty”. Rozwijana powinna być z kolei szeroko pojęta warstwa wokół tematyki danej strony. Zapewne na portalach będzie się pojawiać coraz więcej krótkich filmów, różnych instrukcji czy po prostu opinii zadowolonych klientów. Chodzi o to, by strona np. sprzedająca wspominane wyżej rowery była także kompendium wiedzy dotyczącym dwóch kółek. Taka witryna będzie lepiej oceniana niż prosty sklep, który ma dwie podstrony na krzyż. Czy będą robić to sami właściciele stron? Czasem tak, ale na pewno część taką usługę będzie chciała zlecić.

>>> Czytaj też: Akcje Google biją rekordy. Ich cena przekroczyła poziom 1000 dolarów

W pewnym sensie zmiany wprowadzane przez firmę z Kalifornii i działania specjalistów zajmujących się e-marketingiem to zabawa w kotka i myszkę. Firma z Kalifornii stosuje coraz bardziej wymyślne algorytmy, a marketerzy starają się coraz bardziej wymyślnymi metodami doprowadzić do tego, by to właśnie strony ich klientów znalazły się na jak najwyższych pozycjach. O tym, że gigant z Mountain View nie żartuje, jeśli chodzi o trzymanie się zasad, przekonali się w zeszłym roku tak duzi gracze, jak choćby operator telefonii Play, bank Millenium czy porównywarki cen Ceneo.pl i Nokaut.pl. Z dnia na dzień przestali być widoczni i mimo ich protestów, Google pozostał przez pewien czas nieugięty. Co było przyczyną nałożenia filtrów obniżających pozycję? Niezgodne z zaleceniami wyszukiwarki działania webmasterów, jednym z powodów było stosowanie opisywanych wyżej SWL-i. Po dostosowaniu się do regulaminu firmy zostały przywrócone do indeksu na miejsce, które algorytm wyliczył, nie biorąc już po uwagę sztucznych linków. Powrót zajął kilka tygodni.

Jeśli więc nawet potężne firmy mają problemy z dostosowaniem się do zasad gry narzuconych przez wyszukiwarkę, to jak mogą sobie radzić mniejsi gracze? W pewnym uproszczeniu można powiedzieć, że istnieją dwie szkoły pozycjonowania. Tzw. white hat (ang. biały kapelusz) to działanie zgodne z tym, co zaleca Google, czyli tworzenie dużej ilości treści, naturalne linki, dbanie o to, by content był unikalny. Choć działając w ten sposób, na efekty w wyszukiwarce można długo czekać, są one trwalsze. Druga szkoła to „black hat”. Czyli używanie wszelkich technik. I tych zalecanych, i tych niezalecanych, czyli niedozwolonego linkowania czy po prostu kopiowania treści z innych stron. Tu zazwyczaj efekty przychodzą dużo szybciej, już po kilku tygodniach można się znaleźć na najwyższych pozycjach, ale po kilku, kilkunastu tygodniach można spaść w niebyt, z którego bardzo trudno jest się wydostać.

Wydaje się, że dla większości podmiotów na rynku bardziej trafne będzie włożenie białego kapelusza. Prawdopodobnie, ponieważ Google o samym algorytmie mówi niewiele. Za to odsyła do narzędzi, które mają „pomóc przygotowywać witryny w zoptymalizowany dla wyszukiwarek i użytkowników sposób oraz dostarczać wysokiej jakości treści, które będą wartościowe dla użytkowników”. Jeśli chodzi o pozyskiwanie linków w necie, to najlepszym sposobem stanie się ich pozyskanie w realu: wykonanie telefonu do zaprzyjaźnionego sklepu czy naszego znajomego z branży i zasugerowanie podlinkowania. Nawet jeśli takich odnośników będzie 10, a nie 100 tys. jak w przypadku SWL-i, to będą one miały większą wartość.

– Relacje offline będą miały coraz większy wpływ na życie online. Dotychczas bywały branże, w których te dwa światy bardzo się różniły – stwierdza Marcin Pawłowski. – Teraz powoli zmierzamy do tego, że sieć będzie w coraz większym stopniu odwzorowywać to, co dzieje się w prawdziwym życiu.