Ocena dokumentów (Ranking documents) – czyli czemu Google miesza w wynikach

Od kiedy Google zmieniło o 180 stopni swoje podejście do webmasterów (mam tu na myśli nakładanie kar za linki przychodzące, a także wcześniejsze informowanie o planowanych update’ach i dość mocny wpływ każdego z nich na SERPy) zastanawiałam się, jaki jest cel tak skrajnych zmian wprowadzających panikę i dezorientację. W końcu jeszcze kilka miesięcy temu Google uspokajało webmasterów, aby nie martwili się o negatywny wpływ backlinków, tylko żeby skupiali się na dostarczaniu jak najbardziej wartościowej treści. Osobiście ciężko było mi znaleźć stwierdzenie mówiące wprost „linki przychodzące nie szkodzą” (i już wiele lat temu przekonałam się o tym, że jest/wtedy było inaczej). Ale sposób w jaki wyszukiwarka informowała o tym sugerował wielu z nas, że faktycznie można być o to spokojnym, tym bardziej mając stronę z dłuższym stażem, która zdążyła już zbudować sobie zaufanie.

Na blogu wspominałam już o panice związanej z Pingwinem, w związku z którym w szczególności na zachodzie zaczęto przeglądać dosłownie link po linku i zgłaszać część z nich do usunięcia. Pojawiły się także narzędzia, które ułatwiają ten proces i mogę się jedynie domyślać, że szybko zyskały one na popularności. Co jakiś czas trafiałam też na informacje o tym, że Google zastanawia się nad wprowadzeniem w GWT narzędzia do oznaczania niechcianych linków. Przyznam, że już ze 2 lata temu sama byłam zwolenniczką takiego rozwiązania. Jednak w obecnej sytuacji mam obawy, że całe to zamieszanie w SERPach i sugestie, aby do zgłoszenia ponownego rozpatrzenia strony dodawać link do dokumentu Googlowego z pełną listą linków i wyjaśnieniami dotyczącymi ich, mają na celu… wyłapanie tzw. „spamerskich technik” w najłatwiejszy z możliwych sposobów, bo przez samodzielne przyznanie się do „grzeszków”. W ten sam sposób może się to odbywać właśnie przez narzędzie do wskazywania „nienaturalnych” linków.

Przechodząc do meritum, patent „Ranking documents” wskazuje sposób na wykrycie korzystania z niezalecanych przez Google metod, właśnie przez wprowadzenie w SERPach zamieszania i obserwację zachowania webmastera po gwałtownych zmianach w pozycji jego strony. W patencie czytamy m.in. o tym, że:

(…) noise may be injected into the document’s rank determination. This noise might cause random, variable, and/or undesirable changes in the document’s rank in an attempt to get the spammer to take corrective action.

Tłum.: (…) może zostać wprowadzone pewne zakłócenie w ocenie dokumentu, powodujące przypadkowe, zmienne i/lub niepożądane zmiany w pozycjach dokumentu. Ma to na celu skłonienie spamera do podjęcia działań poprawczych.

Treść patentu dotyczy różnych działań, zarówno on-site (np. nadmierne nasycenie słowami kluczowymi, ukryty lub bardzo mały tekst), jak i off-site (manipulowanie wynikami wyszukiwania przez linki przychodzące). Działania opisane w dokumencie mają dotyczyć stron podejrzanych o stosowanie „spamerskich technik”, czyli takich, co do których Google nie jest pewne i nie może od razu zastosować ostrej kary w formie spadku pozycji lub wykluczenia strony z indeksu. Taka zabawa w kotka i myszkę ma pomóc Google w upewnieniu się co do tego, że strona faktycznie stosowała nielubiane przez wyszukiwarkę techniki. Co ciekawe, wykrycie podejrzanych technik w jednym dokumencie może powodować sprawdzenie pod ich kątem także całej domeny, dokumentów powiązanych z podejrzanym (m.in. hostowanych na tym samym serwerze), a nawet stron o zbliżonych cechach (np. stopka wskazująca na tego samego autora czy layout strony).

Jedną z najważniejszych kwestii poruszanych w patencie jest celowe opóźnienie reakcji na podjęte działania (poprzez tzw. rank transition function), przez co utrudnione może być wychwycenie, które z podjętych działań wpłynęły na zmianę pozycji. Tym samym nie widać zależności pomiędzy konkretnymi zmianami na stronie czy też w linkach przychodzących do niej, a pozycjami strony. Jak wspomniał Bill Slawski w swoim artykule „The Google Rank-Modifying Spammers Patent”:

For example, rather than just immediately raise the rank of a page when there have been some modifications to it, and/or to the links pointed to a page, Google might wait for a while and even cause the rankings of a page to decline initially before it rises. Or the page might increase in rankings initially, but to a much smaller scale than the person making the changes might have expected.

Tłum.: Przykładowo, zamiast podnieść pozycję strony tuż po wprowadzeniu zmian na niej i/lub zmian w linkach kierujących do niej, Google może poczekać chwilę z uwzględnieniem wpływu tych zmian na pozycje, a nawet obniżyć delikatnie jej pozycję przed jej wzrostem. Może również dojść do sytuacji, w której pozycja strony wzrasta tuż po podjęciu pewnych działań, ale w znacznie mniejszym stopniu niż oczekiwany przez webmastera.

W odniesieniu do Pingwina, może to wyglądać następująco: jeśli w związku z Pingwinem usuniemy część podejrzanych o spadek linków, to nawet jeśli w pewnym momencie profil linków jest już na granicy „do przyjęcia” i normalnie nie powodowałby negatywnego wpływu na ranking, to efekt tych czystek może być widoczny np. z miesięcznym opóźnieniem. Tym samym nie widząc efektów, usuwamy kolejne linki (czyli więcej niż potrzeba) i nie wiemy, które z linków faktycznie szkodziły stronie.

Dlatego może warto się zastanowić nad tym, aby nie wprowadzać żadnych zmian gwałtownie, przyznając się w ten sposób do swoich „grzeszków” tylko systematycznie dbać o jak najbardziej naturalne linki i wzmacniać TR strony przez cały czas pracy nad stroną.

KATEGORIE: Pozycjonowanie stron
Comments (19)

Ten patent zdecydowanie tłumaczy zamieszania w SERPach. Ponieważ dla wybranych zapytań dla większości stron w topie można znaleźć nienaturalne linki, to zamieszanie jest widoczne dla zwykłych użytkowników. Bardzo to pasuje do tego, co obserwujemy w ostatnich miesiącach 🙂

I sprawa się wyjaśniła w myśl zasady (szybko to się jedynie głupie dzieci robi) ;). Dzięki Marta za dobry art – uratowałaś mnie przed kupą roboty nad tłumaczeniem oryginału , coś ostatnio mam lenia 😛

Metoda może być zaimplementowana w postępujący algorytm pingwina, który mógłby tak wyglądać (w dużym uproszczeniu).

1) Jeśli strona podpada pod obecne wytyczne i zasługuje na karę, ale nie jest taka zła to pkt.2.
2) Zasugeruj webmasterowi, że robi coś nie tak i pingwin już do niego leci, a następnie 3.
3) Obserwuj zmiany w obrębie podejrzanych obszarów.
4) Zbieraj informacje o podejrzanych obszarach sieci.
5) Poinformuj innych właścicieli witryn o zagrożeniu, jakie niosą podejrzane obszary sieci
6) Jeśli inni właściciele dostrzegą zagrożenie to wyeliminuj niebezpieczne obszary z wpływu na ranking
7) Czynność powtarzaj do skutku.

A mechanizm do usuwania złych linków w GWT będzie tylko kropką nad i w projekcie piiingwiiin.

Wspomniane przez Ciebie opóźnienie będzie w takim przypadku zależało od reakcji innych Webmasterów (;

Dziwi mnie tylko jedno, po analizie wyników na niektóre konkurencyjne frazy (np. kredyt) widać wyraźnie brak zróżnicowania anchorów a strony wygodnie siedzą w topie. U mnie większość stron odniosła niewielkie spadki, aczkolwiek niektóre poleciały w kosmos. Tłumaczyłem to rzeczywistym brakiem zróżnicowania anchorów i pozycjonowaniem na główne frazy, ale analizując „top” frazy dochodzę do wniosku, że może to właśnie „random, variable, and/or undesirable changes”

Bardzo ciekawy artykuł. Podziękować i poproszę o więcej takich.
😉

Dzięki za ten wpis. Bardzo ciekawy, a Google sprytnie podchodzi do tematu, ale ciekawe czy ma jeszcze jakieś tego typu metody w zanadrzu, w końcu zapewne zdaje sobie sprawę z tego, że ich patenty są pod szczególnym nadzorem branży SEO.

Czyli po przeczytaniu całego artykuły mogę śmiało stwierdzić że należy nie patrzeć na spadki i orać dalej swoje poletko… nie zważając na „pogodę” za oknem. Ja wiem jedno po tych ich zmianach kilka zakazanych technik i domeny pod 301 w 3 tyg wchodzą w top.

Ponoć Google nie miesza specjalnie w wynikach, w celu wykrycia spamu – w skrócie to ich oficjalne stanowisko. Jednak wg mnie wiarygodność G. została ostro nadszarpnięta, by teraz wygłaszać jakiekolwiek deklaracje typu „Jestem ZA a nawet PRZECIW”. Dodatkowo, przed i po każdej zmianie serwuje nam strony/wyniki testowe (ślepa próba). To też nie ułatwia diagnozy.

A teraz dygresja wędkarska: „idąc na ryby nie ganiamy za nimi – sprawiamy, że same do nas przychodzą”.

Definitywnie tak jest. Moje podlinkowane wpisy prawie zawsze wypadały z top 20. Po 2 dniach wracały. To było widoczne jak na dłoni.

Moim zdaniem to bajeczki:)

To dużo wyjaśnia ostatnie skoki w rankingu. Ciekawi mnie czy macherzy black SEO znajdą metodę na obejście tego szumu informacyjnego pomiędzy przyczyna a skutkiem działań SEO.
Dziękuję za wpis i obszerne wyjaśnienie sprawy.

Piotr , Ty wierzyłeś w wiarygodność Google ??

Dzięki za artykuł. Ciekawie jest poczytać takie rzeczy, gdy chwilkę wcześniej na „Sprawnym” cytują Johna Mullera: „Google celowo „miesza z SERPami”, aby „wytropić spamerów”. Czy to prawda? temat został poruszony na SEO by the Sea. Odpowiedź brzmi: Nie.

Jak dla mnie to raczej nic nowego i naturalne że jak strona ma chwilowe problemy, to trzymać łapy z daleka 😉 Pomyślmy:
1. Strona w top 10;
2. Userzy naturalnie (he he he) linkują do strony, jest jakiś przyrost linków;
3. Strona spada na top50, więc ilość naturalnych linków powinna spadać !!!

Tymczasem zwykle w takim przypadku część pozycjonerów zestresowana napier…. czym tylko się da, od razu widac że coś nie tak i dla googla to jasny sygnał na nienaturalne działania.
Tylko spokój 😉

Doskonały artykuł, szkoda, że nie natrafieniem na niego wcześniej. Do podobnych wniosku doszedłem jakiś czas temu, obserwując to zamieszanie w wynikach wyszukiwania. Jestem wręcz przekonany, że zmiany w pozycjach odbywają się z pewnym opóźnieniem. Nie wiem czy to celowe działanie czy może Google tylko potrzebuje, aby przekalkulować wszystkie zmienne.

Tak czy inaczej, wszystko sprawdza się do znanych już w SEO podstawowych zasad: trzeba robić swoje, być cierpliwym i nie podejmować pochopnych decyzji.

Koleżanki i koledzy ja to widzę inaczej… Google miesza wynikami wyszukiwania aby zarobić na adwords. Wygląda to tak…. mam firmę, pozycja leci na pysk, muszę z czegoś żyć – inwestuję w płatną reklamę 🙂 A nowe strony w top ten – krzaczki – po miesiącu toną na 3 stronie wyszukiwania i znowu zasilają adwords – to jedyna szansa na sukces. W każdym przypadku sympatyczni panowie z G ściągają z nas kasę. Ot cała prawda wg mnie. Sciemnianie o walce ze spamem to bzdury.

@Marta
Wiesz moze czy Google wysyła losowe powiadomienia o „nienaturalnych” linkach licząc, że ktoś podejmie natychmiastowe kroki „oczyszczające”?

Tego nikt nie wie 🙂

Pani Marto, czytam panią na bieżąco i jest dla mnie pani kimś w rodzaju SEO guru. Stawiam pierwsze kroki w tej trudnej i niepewnej branży. A pani jest dla mnie drogowskazem. Dziękuję za kolejny interesujący i coś wnoszący artykuł.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.