W sieci znowu jest gorąco o sprawie Nokautu i kilku innych porównywarek, które ponad 2 lata temu dostały od Google kopniaka za stosowanie SWLi. A wszystko zaczęło się od artykułu w serwisie natemat.pl, w którym czytamy:
7,7 mln złotych strat, zwolnienie 30 ze 120 zatrudnionych pracowników i internetowy serwis, na który po interwencji wielkiego brata Google nie zajrzał pies z kulawą nogą. Tak wszechwładny Google może pogrywać ze swoimi przeciwnikami.
Notowana na giełdzie spółka do dziś nie może wyjść z opresji, w jaką wpędził ją internetowy gigant z USA.
Kara Google była surowa. (…) Efekt? Spadek ruchu w polskim serwisie, brak transakcji, spadek przychodów i jasne przesłanie: nie podskakujcie, bo możemy zadusić wasz biznes, o tak.
Brzmi brutalnie, nieprawdaż? Z drugiej strony jednak mamy komentarz ze strony Google:
Google nie chce zamykać biznesu nikomu, a witryn internetowych nie traktuje jako przeciwników. Cel Google jest jeden, dostarczyć użytkownikom jak najlepsze wyniki wyszukiwania – ripostuje Piotr Zalewski z Google Polska.
Problem ze sprawą wspomnianych tu kar dla porównywarek jest jednak nieco bardziej skomplikowany i ciężko jednoznacznie odpowiedzieć na pytanie zadane w tytule tego wpisu.
Google to prywatna firma, która może dyktować zasady działania swojej wyszukiwarki i wyciągać konsekwencje w przypadku naruszania ich wytycznych – to jest fakt.
Google wręcz nienawidzi SWLi i za ich stosowanie nakłada ostre kary zarówno na małe, jak i większe serwisy internetowe – to również fakt. I mimo że ich wytyczne są często mało precyzyjne, to jednak w temacie systemów wymiany linków przekaz jest prosty – nie używaj ich, bo oberwiesz!
Jednak jako pozycjonerzy, doskonale zdajemy sobie sprawę z tego, jak łatwym do pozyskania ruchem jest ruch z Google i że obecnie absolutnym obowiązkiem jest zadbanie o widoczność w tej wyszukiwarce. Jesteśmy również świadomi tego, że decydując się na podejmowanie działań podbijających pozycje, musimy liczyć się z pewnym ryzykiem. Ale…
to nie zwalnia nas z myślenia i odpowiedzialności za efekty naszej pracy.
Jak można pozwolić na to, aby komercyjny serwis (np. taki zatrudniający 120 osób) był pozycjonowany najgorszym z możliwych źródeł linków?! Przy takim zespole aż się prosi o połączenie działań promocyjnych z SEO, o działania z rozmachem, o kreatywne podejście do tematu. Sama często powtarzam, że działania i ich stopień ryzyka należy dostosować do potrzeb danej strony i że przy konkurencyjnych branżach trzeba liczyć się z większym ryzykiem, ale to nie znaczy, że trzeba działać bezmyślnie i sięgać po najgorsze z możliwych narzędzi.
Ilekroć konsultowałam sprawy filtrów za backlinki, w większości widać było jechanie po bandzie, wyciskanie z SWLi czy SEO katalogów tyle, ile się dało. Firmy często podzlecały działania wielu różnym firmom (podlinkowanie z profilów lub katalogów jednej firmie, piramidki drugiej, jeszcze innej dopalenie systemem) i brakowało osoby mocno siedzącej w temacie, która by to wszystko ogarnęła. Każdy z podwykonawców odwalał swoją robotę, a o efektach najbardziej dotkliwie przekonywali się właściciele tych stron. Oczywiście zdarzały się przypadki, kiedy działania takie były podejmowane z pełną świadomością ryzyka (zgodnie z zasadą „Kto nie ryzykuje, ten nie pije szampana„), albo ktoś lekko przesadził ze schematycznością linków, był też przypadek skutecznego depozycjonowania. Jednak zdecydowanie przeważały sytuacje zbyt małej świadomości na temat tego, że pozycjonowanie to bardziej wymagające działania, niż nastawienie na szybki efekt dzięki skupieniu się na 2-3 źródłach słabych linków.
No dobrze, naskoczyłam trochę na porównywarki, które i tak już mocno oberwały. Ale to dlatego, żeby przestrzec przed stosowaniem drogi na skróty i pokazać, że filtry za backlinki to codzienność i nikt nie powinien wychodzić z założenia, że jakoś mu się uda. W szczególności jeśli używa się narzędzi, które od lat są na celowniku. To jednak nie znaczy, że całkowicie usprawiedliwiam Google za sposób działania – po prostu napisałam JAK JEST. A teraz przejdę do tego, JAK moim zdaniem POWINNO BYĆ.
Zacznę od pytań – ilu z Was ocenia przydatność czy jakość strony po prowadzących do niej linkach? (nie pytam o audyt SEO) Ilu przeciętnych internautów (niezwiązanych z naszą branżą) pomyśli w ogóle o analizie backlinków? W jaki sposób backlinki (nawet te z SWLi) wpływają na jakość stron, które odwiedzamy? Doprecyzuję – nie pytam o wpływ linków na ranking, a jedynie na odbiór strony przez przeciętnego Kowalskiego.
Gdyby Google faktycznie dbało tak bardzo o jakość prezentowanych wyników, patrzyłoby głównie na zawartość stron, a nie czynniki zewnętrzne, które nie mają związku z jakością samej strony ani jej przydatnością dopóki wyświetlają wyniki trafne dla danego zapytania. Gdyby Google dbało o jakość wyników, nie stosowałoby filtrów, w wyniku których ukarane strony przestają się wyświetlać nawet na frazy brandowe. Czy przeciętny internauta, wpisując nazwę produktu z dopiskiem „Nokaut”, będzie zadowolony jeśli nie trafi od razu na tę porównywarkę? I w końcu – gdyby Google nie zależało na pokazaniu, kto dyktuje zasady, czy utrzymywałoby kary przez rok lub dłużej?
Moim zdaniem polityka karania stron przez Google mocno kuleje, a przez zmianę podejścia wyszukiwarki do takich kar (dawniej Google wiedziało, że webmaster nie ma pełnej kontroli nad backlinkami i kary były zazwyczaj nakładane po cichutku, w małych ilościach, z kilkoma głośnymi wyjątkami), sama zmieniłam nieco podejście do Google. Z jednej strony filtry nakładane są za czynniki zewnętrzne, które nie wpływają na jakość strony ocenianą przez internautów. Z drugiej strony, otwiera to furtkę konkurencji, która może sprawdzić skuteczność depozycjonowania. To z kolei powoduje strach właścicieli stron przed nieuczciwą konkurencją i przed tym, że w przypadku kary, pozostanie im rozmawiać z automatem odpowiadającym na zgłoszenia (nie nazwałabym tego korespondencją z pracownikiem Google, nawet jeśli może on dopisać krótką notkę od siebie) albo – co gorsza – spadek w wyniku aktualizacji Pingwina (potocznie zwany filtrem algorytmicznym), przy którym już w ogóle nie można liczyć na jakikolwiek kontakt ze strony Google.
Karani powinni być głównie wydawcy, bo tylko w takim przypadku jest pewność co do tego, że świadomie zdecydowali się oni emitować linki czy to z SWLa czy innych nielubianych przez Google źródeł. Poza tym, są to zazwyczaj tak słabe strony, że aż dziwi mnie brak szybkiego usuwania ich z indeksu, zanim linki znajdujące się na nich zostaną zliczone przez Google. Dziwi mnie, że Google dotąd nie potrafiło rozwinąć się w tak dużym stopniu, aby zdawać sobie sprawę z tego, iż najbardziej skutecznym działaniem będzie działanie u źródła przez dosłowne wybicie spamu i brak zliczania linków z niego. A tak, dopóki odnośniki z SWLi czy giełd linków będą skuteczne i dopóki emitujące je strony będą się łatwo wbijały do indeksu, dopóty Google będzie musiało się bawić w filtry, a spam w sieci będzie się powiększał zgodnie z zasadą „Jak Google zbanuje mi 10 stron, postawię 100 kolejnych„. To Google przyjęło złą politykę działania, która nakręca rozwój spamerskich stron zamiast je hamować zanim staną się skuteczne. I tylko Google może tę politykę zmienić jak tylko zrozumie, że nie wystarczy chwalenie się statystykami stron usuniętych z indeksu albo robienie głośnych akcji filtrów dla popularnych serwisów, bo przez nagłaśnianie tego Google jedynie pokazuje, że problem spamu w sieci czy spamerskich linków z roku na rok narasta w gwałtownym tempie.
Podsumowując, Google aktualnie stosuje kulawy system kar, ponieważ powinno skupić się na karaniu źródeł w postaci stron wydawców i karać je naprawdę dotkliwie. Z kolei dopóki Google nie zwalczy źródła spamu i będzie musiało walczyć z tzw. nienaturalnymi backlinkami przez stosowanie kar dla dopalanych w ten sposób serwisów, powinno zmienić nieco zasady kar i przede wszystkim nie powodować spadku widoczności ukaranych stron dla fraz brandowych, ponieważ to odbija się negatywnie na potrzebach internautów, o które Google ponoć tak dba.