Padło już wiele podejrzeń o to, co jest powodem ostatnich niemalże comiesięcznych masowych filtrów. Filtr, jaki dotknął moją stronę (a nawet 2 – w domenie głównej i jej subdomenie) to czerwcowy filtr. Ciężko mi jednak określić kiedy dokładnie się rozpoczął, ponieważ w maju statystyki strony były bardzo zmienne – od ok. 200 do prawie 500 uu dziennie (zmiany te cechowała duża nieregularność), na początku czerwca utrzymywały się na wspomnianym minimum i dopiero 14 czerwca statystyki kompletnie padły do poziomu kilkunastu uu dziennie.
Statystyki mojej zafiltrowanej strony
Kolejna masa filtrów to filtr z 28 na 29 lipca, jednak wtedy nie zauważyłam u siebie żadnych zmian, podobnie jak w okresie między 25 a 26 sierpnia.
Zasięg filtra
Na ten temat głośno jest jednak nie tylko na polskich forach poświęconych tematyce pozycjonowania, ale również na grupie dyskusyjnej Google oraz na forach zagranicznych. Podejrzenia padły m.in. na to, że Google coraz mniejszą uwagę zwraca na anchor tekst, dzięki któremu tak łatwo jest manipulować pozycją na konkretne słowo czy frazę. Nie poparto tego jednak żadnymi dowodami, więc jak wiadomo teorii na ten temat może być tyle ile jest ludzi.
Co Guglarz na to
Co mnie jednak zastanawia to wypowiedzi Guglarza na grupie Google. Mianowicie chodzi o to, że w przypadku pytań webmasterów o duże spadki w pozycjach ich stron (zazwyczaj najwyższa pozycja to 30), Guglarz praktycznie zawsze sugeruje handel linkami przypominając o tym, że Google nie popiera takich metod (chyba że linki nie przekazują PR, ponieważ mają dodany atrybut nofollow). W większości przypadków webmasterzy nie mieli nic wspólnego z zakupem linków, jednak wydaje mi się, że chodzi ogólnie o linki, które nie wyglądają na naturalne. Możemy zaliczyć do nich m.in. linki z SWL’i, które zazwyczaj zamieszczane są w stopkach, a co najważniejsze – większość z nich nie ma nic wspólnego z tematyką strony, na jakiej się znajdują. Wcale nie musi chodzić o to, czy link był kupiony czy nie.
Nietematyczność linków
Problemem może być właśnie ich nietematyczność sugerująca, że nie jest to najbardziej pożądany link, jakim jest link bezinteresownie zamieszczony przez webmastera mający na celu polecić daną stronę. Bo w końcu kto prowadzący stronę np. o nieruchomościach wpadnie na to, aby reklamować na niej stronę z grami online? Sam Guglarz powiedział w wywiadzie, że „(…) algorytm do oceny tematycznego powiązania między linkami, nad którym pracowaliśmy, funkcjonuje dosyć dokładnie.”
Korzystanie z SWL’i
Wracając do tematu problemów webmasterów wypowiadających się na grupie Google, część z nich faktycznie miała do czynienia z systemami i jest to również mój mały grzeszek. Na głównej domenie zafiltrowanej strony emitowałam przez pewien czas linki systemowe, tym razem nie z e-weblinka tylko z linkme (jedyne systemy jakie skusiły mnie do tego, aby je przetestować). Druga sprawa jest taka, że strona ta przez jakiś czas służyła jako zwykły presell page, jednak było to dość dawno i nie sądzę, aby miało na to jakiś wpływ. Czy to oznacza, że Google ułatwia pracę nieuczciwej konkurencji, która zdecyduje się na mocne nietematyczne podlinkowanie naszych stron? W końcu problem dotyczy nie tylko stron emitujących takie linki, ale również takich, do których one prowadzą.
Co charakteryzuje ostatnie masowe filtry?
Charakterystyczne dla zafiltrowanych ostatnio stron jest to, że filtr dotyka wszystkich fraz (nie tylko tych pozycjonowanych) i nawet po wpisaniu w Google fragmentu tekstu z zafiltrowanej strony i jego występowania również na innych stronach, ta zafiltrowana pojawia się zawsze w ostatniej kolejności. Co dziwne, przy wyszukiwaniu adresu strony, pojawia się on w pierwszej kolejności tylko dla opcji „szukaj w Internecie„, jednak ciężko go znaleźć szukając na stronach w kategorii: język polski.
Zachęcam również do zapoznania się z artykułem na temat linkowania na zewnątrz strony, w którym poruszona została kwestia linkowania tematycznego, linków stałych oraz zastosowania nofollow.