W ostatnich tygodniach w kręgach SEO dużego namieszał jeden mały zwierzak, który stał się wrogiem SEO numer jeden. Mowa oczywiście o ostatnim update'cie Google o nazwie Penguin - Pingwin.
Ostatni tak dotkliwa aktualizacja o nazwie Panda uruchomiona została w lutym 2011. Szacunkowo mówiło się że Panda zgodnie z tym co podaje na swoim blogu Google dotyczyła ok 12% zapytań w wyszukiwarce po jej uruchomieniu w USA, jednak po modyfikacjach zmiany mają dotyczyć już "tylko" 7% zapytań.
Co już teraz wiemy na pewno, Panda jest poważną zmianą w algorytmie wyszukiwarki, nastawioną głównie na strony zawierające kontent niskiej jakości. Główny cel jaki stawia sobie Google to prezentowanie wartościowych wyników w swoim indeksie, co może być dla nas oczywiste, jednak z punktu widzenia właścicieli stron oczywiste jest że wysoka pozycja gwarantuje odpowiednio wysoki ruch, co od zawsze kusiło bardziej lub mniej etycznymi działaniami nastawionymi na pozycjonowanie i na podbijanie jakości własnej strony poprzez stosowanie mniej lub bardziej etycznych metod.
Dążąc do postawione celu Google musiało wprowadzić odpowiednie modyfikacje w algorytmie aby móc lepiej odróżniać wartościową treść od treści, która wartościową udaje. Nie jest to proste zadanie i wymaga ono ciągłych modyfikacji algorytmów aby w indeksie pozostawały wartościowe strony, które po prowadzeniu Pandy zostały z niego usunięte.
I tak od wprowadzenia Pandy w lutym 2011 było ona już kilkukrotnie modyfikowana i modyfikacje mają charakter ciągły.
Jak podaje Simon Penson z Zazzle Media Google wprowadzał ok 500 modyfikacji algorytmu rocznie jednak nigdy nie miały one tak drastycznego przebiegu jak w przypadku Pandy i wydawało się wszystkim że nie może być już nic gorszego od Pandy. Wprawdzie od zawsze Google nawoływał do tworzenia treści wartościowych i podawanych dla ludzi, jednak biorąc pod uwagę korzyści z bycia wysoko w indeksie, treści głównie tworzone a strony optymalizowane były pod kątem wyszukiwarki, czyli tak aby spełniać jej oczekiwania - czyli podawane wytyczne, i to się udawało.
Dokładnie 24 kwietnia wielu właścicieli stron analizujący swój ruch na stronie mogli przeżyć nie mały szok, kiedy zobaczyli że ich ilość wizyt spadła diametralnie. Mało kto spodziewał się kolejnej aktualizacji w tak krótkim czasie, zwłaszcza że kilka dni wcześniej - 19 kwietnia Google wprowadził update do algorytmów Pandy. A jednak Google znowu uderzył. Tym razem atak skierowany został na strony zbyt zoptymalizowane.
Na swoim blogu Matt Cuts - oręże Google w walce ze spamem, zamieścił wpis w którym czytamy, że "White Hat SEO", które dąży do poprawienia użyteczności strony poprzez np. zwiększenie szybkości działania, ułatwia przeglądanie strony poprzez dopracowaną nawigację i tym samym ułatwia indeksację przez wyszukiwarkę jest czym dobrym.
Z drugiej strony "Black Hat Webspam", które dąży do nienaturalnego podbijania stron w rankingu poprzez różnego rodzaju niezgodne czynności jak zbytnie nasycanie słowami kluczowymi, schematy linkowania itp. jest czymś z czym Google walczy. W tym samym wpisie Google wspomina o ostatniej aktualizacji Pandy i że wkrótce uruchomi kolejną nakierowaną na walkę ze spamem, co okazało się niestety prawdą gdyż w tym samym dniu wszystkie znaki na niebie i ziemi - głównie płaczący na forach właściciele stron - wskazały, że algorytm został uruchomiony w dniu wpisu.
Matt podaje przykłady na co nowy algorytm ma zwracać głównie uwagę i tu na pierwszym miejscu mamy nienaturalne nasycenie słowami kluczowymi czyli. "keyword, bla keyword, bla bla keyword, ble bla keyword itd.".
Drugi przykład spamu to umieszczanie linków o anchorach nie związanych z treścią strony. Czyli mamy np. artykuł o żabach a w środku linki do oferty kredytowej.
Można wymienia również kilka dodatkowych cech używanych jako webspam, które nie są zgodne z wytycznymi Google i które mogą przyczynić się do ataku Pingwina na naszą stronę, m.in.:
wysokie zagęszczenie słów kluczowych - wymienione przez Matt'a w punkcie pierwszym, w wersji lżejszej ale wciąż o dużym natężeniu keywords w tekście
zbyt duża ilość linków tym samym lub bardzo podobnym anchorze - jeśli np. do strony linkuje zbyt duża ilość identycznych linków
strony ze zduplikowaną treścią z innych stron /własną lub co gorszą cudzą czyli tzw. duplicate content
nienaturalne, nieorganiczne, zakupione na innych stronach linki.
zbyt duża liczba przekierowań - głównie chodzi o przekierowania własnych subdomen i innych domen na nasz serwis poprzez redirect 301
linki z serwisów umieszczonych na tych samych serwerach lub z tej samej puli adresowej
strony jako bramy do innych serwisów
programy linków czyli tzw. SWLe - systemy wymiany linków
ukryty tekst / ukryte linki.
Co może zasmucić Pingwin ma dotyczyć aż 5% zapytań wśród zapytań w polskiej wersji językowej, które strony, jak podaje Mat należą do bardziej zaspamowanych - zmiany w wersji angielskiej czy niemieckiej będą dotyczyć "tylko" 3%.
Diagnoza jest bardzo prosta jeśli korzystamy z narzędzie do analizy i statystyk ruchu na stronie np. Google Analytics lub e-Spy.
Sprawdź statystyki wizyt na stronie i jeśli okaże się że po 24 kwietnia liczba wizyt diametralnie spadła tzn. że strona otrzymała filtr
Zajrzyj do Google Webmaster Tools i sprawdź czy nie dostałeś wiadomości z powiadomieniem - Google wysyłał wiadomości z informacją że do strony kierują nienaturalne linki.
Ręcznie sprawdź pozycję strony w rankingu dla kluczowych fraz generujących największy ruch.
Używając narzędzi sprawdź swój profil linków czyli zaplecze linków przychodzących.
Dzięki wnikliwym analizom wielu specjalistów od SEO i wymianie swoich poglądów i wyników własnych obserwacji udało się ustalić jakie działania zostały uznane jak najbardziej sprzeczne z wytycznymi Google i które Pingwin potraktował bardzo surowo, czyli obniżeniem pozycji lub usunięciem stron z rankingu.
Jon Cooper na swoim blogu jako główne źródło problemów wymienia linki zewnętrzne (linkujące do naszego strony) czyli tzw. inbound links. Poniżej lista głównych przewinień:
Linki o dokładnym anchorze - jeśli do strony linkuje spora ilość stron o takim samym anchorze, odpowiadającym tytułowi (title) strony oraz głównemu H1, a zwłaszcza jeśli są to strony niskiej jakości, o marnej historii i kontencie.
Linki w katalogach - podobnie jak wyżej, jeśli do strony linkuje spora ilość katalogów a anchory są identyczne i dokładnie pasujące do strony - mamy szansę dostać Pingwina. Jeśli korzystamy z katalogów to tylko takich, które są moderowane i wartościowe i nigdy nie używamy linków z dokładnymi anchorami tylko linków z nazwą naszej marki czyli np. nazwą firmy.
Linki w komentarzach - również nie używamy dokładnych anchorów, oraz używamy swojego imienia w komentarzu co ułatwi otrzymanie akceptacji.
Linki z Tumblr - również unikamy linków z dokładnym anchorem.
Jeśli już się upewnimy że za spadek ruchu odpowiedzialny jest Pingwin, nie ma co płakać tylko trzeba wziąć się do roboty usuwając najważniejsze źródła problemów.