Ostatnio wspominałam już o głośnym od pewnego czasu temacie masowych filtrów w Google. Nagle z końcem lipca wielu pozycjonerów zauważyło drastyczne spadki pozycji ich stron i tak jak zazwyczaj dotyczyło to nowych zbyt intensywnie linkowanych stron, tak teraz w większości przypadków była mowa o mocnych kilkuletnich serwisach, które zadomowiły się na topowych pozycjach w Google. Ciężko było również znaleźć jakiś wspólny punkt, np. używanie SWL’i czy korzystanie z GoogleAdSense (niektórzy lubią tłumaczyć w ten sposób filtry czy bany) tym bardziej, że po lipcowym PR update wartość PR tych stron wcale nie spadła… ba, niektórym nawet wzrosła, więc można było sądzić, że ich wartość wzrosła.
Co mnie najbardziej zdziwiło w środowisku SEO to reakcja osób z dość długim stażem w tej branży. Chodzi mi konkretnie o próby tłumaczenia filtrów bugiem w Google (a Prima Aprilis w tym roku już minęło ;-)). Każdy, nawet początkujący pozycjoner zdaje sobie sprawę z tego, że jakiekolwiek próby manipulacji wynikami w Google naruszają wytyczne jakościowe tej wyszukiwarki, a tym samym jest się narażonym na poniesienie konsekwencji za to. Jak więc można starać się tłumaczyć to jakimkolwiek błędem? Szczerze mówiąc w pierwszej chwili (przed analizą stron i opierając się tylko na postach na PiO) mój wniosek był taki, że Google wyłapało po prostu kolejny element, dzięki któremu może sprawdzić czy strona jest pozycjonowana, a więc np. zbyt dużo linków z ładnie pasującymi do tematyki anchorami (linki naturalne zazwyczaj są wstawiane w formie adresu), z nietematycznych serwisów bądź z jednego rodzaju zaplecza (np. z katalogów czy precli).
Obecnie obserwuję tylko 2 zafiltrowane strony (jeszcze z początku czerwca), a na forach użytkownicy niechętnie dzielą się adresami podobnych stron, dlatego też ciężko było mi wyciągnąć jakieś konkretne udokumentowane wnioski. Zauważyłam jednak pewną prawidłowość. Okazało się, że obie z zafiltrowanych domen miały backllinki tylko i wyłącznie z katalogów i bardzo słabych stron, przy czym żadna z nich nie miała PR. Jedna z nich ma tylko 2 podstrony w indeksie głównym, a pozostałe kilkadziesiąt w uzupełniającym. Czemu więc się dziwić spadkom pozycji, skoro okazuje się, że dotychczasowe backlinki nie przekazują żadnej mocy?