Tyle się od dawna pisze o Pandzie, że aż wstyd dopiero teraz publikować pierwszy wpis na jej temat 😉 Dla niezorientowanych podaję kilka najważniejszych informacji. Panda Update (lub Farmer Update) to aktualizacja algorytmu Google, która w pierwszej kolejności (w połowie lutego 2011 r.) dotknęła serwisy ze Stanów Zjednoczonych, później (11 kwietnia 2011 r.) w pozostałych anglojęzycznych krajach, a co do tego, czy dotarła już do Polski, nie ma oficjalnego potwierdzenia, ale są już przypuszczenia wielu osób z branży SEO. Jeśli chodzi o mnie to w pierwszych dniach maja zauważyłam nagłe skoki w pozycjach niektórych stron i wyglądało to tak, jakby wzrosła wartość contentu i optymalizacji strony w stosunku do linków przychodzących.
Głównym celem Pandy mają być strony z treścią o niskiej jakości i tym razem mowa nie tylko o serwisach kopiujących treść od innych, ale także o tych, których zawartość (mimo jej unikalności) może zostać przez Google oceniona jako niewystarczająco przydatna. Jak podaje Sprawny Marketing we wpisie Panda/Farmer coraz bliżej Polski:
„Google wprowadził też dalsze ulepszenia do Pandy. Do tej pory uderzała ona wyłącznie w farmy treści, tj. poza słabą jakością spełniony musiał być jednocześnie warunek znacznej wielkości witryny (liczonej liczbą podstron). Od teraz ofiarą Pandy paść mogą też nieduże witryny; wystarczy, że zamieszczana na nich treść zostanie zakwalifikowana jako słaba jakościowo.”
Co gorsza, zawartość pojedynczych podstron może wpłynąć na widoczność całego serwisu. Oczywiście nie wiemy, gdzie jest granica i czy ciosu od Pandy nie mogą spodziewać się np. właściciele forów dyskusyjnych, jeśli niektórzy użytkownicy postanowią wkleić na nich mniejsze bądź większe ilości tekstów opublikowanych już w sieci albo bardzo krótkich, niewiele wnoszących do tematu. I właśnie temu chcę poświęcić dzisiejszy wpis – minimalizacji ryzyka, że zawartość pojedynczych podstron wpłynie negatywnie na widoczność całego serwisu.
Sposoby ochrony przed Pandą
- Rozbudowa niewielkich witryn
Skoro Panda lubi jeść i jest wybredna przy wyborze, co jej smakuje a co nie, mniejsze stronki trzeba będzie po prostu rozbudować. Niestety mam obawy o to, że można będzie zapomnieć o jednej z ważniejszych (moim zdaniem) wskazówek jakościowych Google, która mówi:„Twórz strony z myślą o użytkownikach, a nie wyszukiwarkach.”
ponieważ to, co doceni użytkownik, nie musi zostać dobrze ocenione przez algorytm. Rozbudowa stron może się zatem coraz częściej odbywać tylko pod kątem wyszukiwarek.
- Blokada indeksacji nowych podstron do momentu uzyskania przez nich wystarczającej ilości treści
W serwisie searchengineland.com czytamy m.in. o 2 przykładach serwisów:- serwisy z opiniami o firmach, które początkowo na poszczególnych wizytówkach zawierają wyłącznie opis firmy, często w formie identycznej, w jakiej wykorzystano go na wielu innych stronach;
- strony typu Q&A, gdzie na nowych podstronach początkowo znajdują się tylko krótkie pytania.
W powyższych przypadkach zaleca się użycie metatagu noindex na nowych podstronach, które nie mają jeszcze żadnych opinii lub odpowiedzi na zadane pytania. Jeśli serwis jest wyjątkowo rozbudowany, lepszym rozwiązaniem może się okazać użycie blokady wspomnianych podstron za pomocą wpisu w pliku robots.txt – dzięki temu Googlebot nie będzie tracił czasu na odwiedzanie mało wartościowych podstron i skupi się na tych, na których znajdują się już jakieś opinie czy odpowiedzi. Podsumowując, niektóre rodzaje stron będą musiały się postarać o jak największe zaangażowanie ich użytkowników nawet tylko po to, aby móc spać spokojnie indeksując poszczególne podstrony. Generalnie jednak wszelkie działania angażujące społeczność w rozwój strony czy też jej reklamę, mogą okazać się korzystne z punktu widzenia SEO.
- Usunięcie lub wyindeksowanie powielonych treści
Tutaj sprawa jest jasna i jak najbardziej zrozumiała, chociaż niektóre serwisy są przez to skazane od razu na porażkę (np. serwisy z informacjami prasowymi). Jeśli na stronie publikujemy treści skopiowane z innych serwisów, powinniśmy albo te teksty całkowicie usunąć, albo zostawić z metatagiem noindex jeśli zależy nam na tym, aby były one dostępne dla użytkowników, ale nie spowodowały obniżenia pozycji całego serwisu. Kolejnym rodzajem podstron blokowanych przed indeksacją powinny być wyniki wyszukiwania oraz sortowania (powodują one generowanie nowych podstron z tą samą treścią, tyle że w innej kolejności).
Dla stron WordPressowych polecam wtyczkę Robots Meta, która oprócz ogólnych ustawień (np. wspomnianej blokady indeksacji wyników wyszukiwania) umożliwia indywidualne ustawienia dla wybranych podstron. Do tego dorzuciłabym wtyczkę Exclude Pages from Navigation, dzięki której można usunąć linki do niektórych podstron z menu.
Vanessa Fox, autorka wspomnianego już artykułu na searchengineland.com sugeruje, aby przeglądać logi serwerów pod kątem tego, które podstrony są odwiedzane przez Googlebota najrzadziej. Dzięki temu można będzie dowiedzieć się, które z nich wymagają naniesienia poprawek, a później obserwować, czy zmiany wpłynęły korzystnie na częstotliwość tych odwiedzin. Oprócz tego doskonałym źródłem informacji na temat (nie)zadowolenia użytkowników z zawartości naszych stron, są statystyki (np. Google Analytics). To dzięki nim sprawdzimy, które z podstron nie generują ruchu lub ruch ten jest mało wartościowy (np. mają krótki czas odwiedzin lub wysoki wskaźnik odrzuceń).
Ciekawostki na temat Pandy
Podsumowując informacje z różnych anglojęzycznych źródeł, pojawiło się jeszcze kilka ciekawostek na temat Panda Update, z tym że część z nich nie została oficjalne potwierdzona przez Google albo została wywnioskowana przez pojedyncze osoby, które pokusiły się o dokładne analizy sytuacji. Nie traktujmy ich więc jako pewne informacje:
- analiza serwisów, które spadły oraz tych, których pozycje się utrzymały wykazały, że spadek zanotowały strony o praktycznie takiej samej długości artykułów na wszystkich podstronach – taki opis pasuje m.in. pod precle, na których większość osób trzyma się minimalnej granicy, więc teksty często mają podobną objętość;
- inne analizy wykazały, że bardziej odporne na Pandę okazały się być strony często reklamowane w serwisach społecznościowych, o znanej marce i z dużą ilością głębokich, także te znajdujące się w Google News;
- zamiast typowych działań typu Article Marketing postarajmy się o publikację gościnnych wpisów na wartościowych serwisach, przy czym dla każdego z nich przygotujmy unikalną wersję zamiast rozsyłać ten sam tekst na wiele stron;
„(…) Matt said that articles syndicated hundreds of times across the web just don’t provide valuable links and in any case, they aren’t editorially given. (…)
He suggested contacting an authority site in your space to see if they would publish a guest article that you write particularly for them. If the authority site finds your content valuable enough to publish, that’s a completely different situation from article hubs that allow anyone to publish anything.”
Wniosek – zamiast stawiać kolejne precle, róbmy blogi tematyczne umożliwiające od święta publikację gościnnych wpisów z linkami.
- ponoć linki z materiałów prasowych nie liczą się do PR, chyba że…
„Matt clarified that the links in the press releases themselves don’t count for PageRank value, but if a journalist reads the release and then writes about the site, any links in that news article will then count.”
Wiem z doświadczenia, że znaczna większość serwisów z informacjami prasowymi publikuje je w identycznej wersji, w jakiej zostały im one przesłane. Ciekawi mnie więc, czy Panda Update doprowadzi do zmiany zasad publikacji na tego typu stronach.
- sygnałem dla Google, przez który moderatorzy mogą się przyjrzeć stronie, są zgłoszenia spamu oraz usuwanie stron z wyników wyszukiwania za pomocą wtyczki „Personal Blocklist”;
- nie warto przesadzać z reklamami na stronie, przez które użytkownicy mogą gorzej ocenić dany serwis – generalnie powinniśmy zadbać o jak najlepszy odbiór strony przez użytkowników, a ten zależy nie tylko od jej zawartości, ale także prezentacji, sposobu pisania, błędów w artykułach itp.;
- nie należy przesadzać z linkowaniem wewnętrznym;
- należy używać taga „canonical” w razie dostępności tej samej treści pod kilkoma adresami;
- serwisy uczestniczące w programach stowarzyszeniowych powinny zadbać o jak najlepszą „wartość dodaną„, dzięki czemu użytkownicy będą chętnie powracać na taką stronę.
Dodam jeszcze, że w przypadku gdy naszej stronie dostanie się od Pandy, po naniesieniu odpowiednich zmian należy wysłać zgłoszenie ponownego rozpatrzenia.
Panda nie doszła jeszcze do Polski
Według ostatnich informacji Matt Cutts zapowiedział opóźnienie we wdrażaniu Pandy w krajach pozostałych niż anglojęzyczne.
zmiana algorytmu Google, znana pod nazwą „Panda”, wciąż wpływa wyłącznie na wyniki wyszukiwania pokazywane użytkownikom anglojęzycznym.(…)
Matt nie chciał oczywiście podać żadnych konkretnych dat, ale stwierdził, że jest to kwestia raczej „kilku miesięcy” niż „kilku tygodni”. (…)
(…) w różnych miejscach świata i różnych językach stosuje się różne metody spamerskie, a Panda dostosowana jest na razie do tych stosowanych na witrynach anglojęzycznych. Np. „w Polsce (…) witryny mają zupełnie inny profil linków niż witryny w innych krajach”.
PS Ostatnio dodałam na blogu wtyczkę umożliwiającą mailowe informowanie o nowych komentarzach do wpisu. Zachęcam do korzystania z niej i oczywiście do dodawania komentarzy 😉 Jakie macie doświadczenia i obawy związane z Panda Update?