Na forach głośno jest ostatnio o sporym zamieszaniu w SERPach i tradycyjnie zdania na temat jakości wyników są podzielone. Jedni twierdzą, że wyniki się zepsuły, a zdaniem innych Google zaczęło całkowicie ignorować linki systemowe. O zmianach w algorytmie pisał także Jacek Biernacki, którego bardziej przekonuje druga teza:
obniżenie wartości słabych (nietematycznych) linków – ta teza najbardziej do mnie przemawia. Zarówno w kontekście prawdopodobieństwa jak i obserwacji zmian na moich stronach. Zresztą o spamowaniu linkami Google cały czas mówi, więc mogli coś w tej kwestii wyrzeźbić.
Jeżeli rzeczywiście tak jest, że Google potrafi rozpoznawać takie linki (co nie jest znowu takie trudne – rotacja) to czekają nas ciekawe czasy w pozycjonowaniu, przynajmniej na rynku polskim.
A co na ten temat twierdzą Matt Cutts i Kaspar Szymański? Dzisiaj na polskim blogu Google pojawił się ich post na temat SWLi, w którym czytamy, że:
(…) są tacy, którzy wierzą, że możliwe jest pójście na skróty poprzez wykorzystanie systemów wymiany linków (tzw. SWLi) przekazujących PageRank, takich jak m.in. LinkMe™ lub e-Weblink™.
Przychodzące linki z SWLi nie mogą zaszkodzić reputacji Twojej witryny, ale jak tylko przestaną one być brane pod uwagę w naszym grafie linków, jedynie pozostałe wartościowe linki będą przyczynić się do widoczności witryny w indeksie Google, co oznacza, że czas, wysiłek i pieniądze włożone w SWLe są zmarnowane. Emitowanie linków z SWLi na swojej stronie natomiast może poważnie zaszkodzić jej reputacji i rankingowi.
Dotychczas dużo mówiono o filtrach za backlinki i osobiście jestem zdania, że czynniki zewnętrzne nie powinny wpływać na reputację strony. Dlatego też całkowite ignorowanie linków systemowych jest według mnie idealnym rozwiązaniem bez względu na to, czy stronę dopala jej właściciel czy konkurencja. Inną sprawą jest to, jak będzie to wyglądało w praktyce.
Jeśli zaś chodzi o negatywne skutki emitowania linków systemowych na swoich stronach, sama się o nich przekonałam i nie dziwi mnie, że Google ostro traktuje tego typu postępowanie. W końcu webmaster jest w pełni świadomy tego, co zamieszcza na stronie.
Publikacja wspomnianego posta właśnie teraz, kiedy tak wiele osób zwróciło uwagę na zmiany w SERPach sugeruje, że powodu należy się doszukiwać właśnie w źródłach linków. Pojawia się jednak pytanie – w jaki sposób Google będzie rozpoznawało, które z linków pochodzą właśnie z SWLi? Jacek Biernacki wspomniał o rotacji, którą faktycznie łatwo jest wyłapać, jednak w poście na blogu Google wymieniono reprezentantów zarówno statycznego, jak i rotacyjnego systemu.
A jak Wy oceniacie jakość SERPów w ostatnich dniach i możliwości wyłapania linków z systemów?