Filtr czy psikus Google cd

Ostatnio wspominałam już o głośnym od pewnego czasu temacie masowych filtrów w Google. Nagle z końcem lipca wielu pozycjonerów zauważyło drastyczne spadki pozycji ich stron i tak jak zazwyczaj dotyczyło to nowych zbyt intensywnie linkowanych stron, tak teraz w większości przypadków była mowa o mocnych kilkuletnich serwisach, które zadomowiły się na topowych pozycjach w Google. Ciężko było również znaleźć jakiś wspólny punkt, np. używanie SWL’i czy korzystanie z GoogleAdSense (niektórzy lubią tłumaczyć w ten sposób filtry czy bany) tym bardziej, że po lipcowym PR update wartość PR tych stron wcale nie spadła… ba, niektórym nawet wzrosła, więc można było sądzić, że ich wartość wzrosła.

Co mnie najbardziej zdziwiło w środowisku SEO to reakcja osób z dość długim stażem w tej branży. Chodzi mi konkretnie o próby tłumaczenia filtrów bugiem w Google (a Prima Aprilis w tym roku już minęło ;-)). Każdy, nawet początkujący pozycjoner zdaje sobie sprawę z tego, że jakiekolwiek próby manipulacji wynikami w Google naruszają wytyczne jakościowe tej wyszukiwarki, a tym samym jest się narażonym na poniesienie konsekwencji za to. Jak więc można starać się tłumaczyć to jakimkolwiek błędem? Szczerze mówiąc w pierwszej chwili (przed analizą stron i opierając się tylko na postach na PiO) mój wniosek był taki, że Google wyłapało po prostu kolejny element, dzięki któremu może sprawdzić czy strona jest pozycjonowana, a więc np. zbyt dużo linków z ładnie pasującymi do tematyki anchorami (linki naturalne zazwyczaj są wstawiane w formie adresu), z nietematycznych serwisów bądź z jednego rodzaju zaplecza (np. z katalogów czy precli).

Obecnie obserwuję tylko 2 zafiltrowane strony (jeszcze z początku czerwca), a na forach użytkownicy niechętnie dzielą się adresami podobnych stron, dlatego też ciężko było mi wyciągnąć jakieś konkretne udokumentowane wnioski. Zauważyłam jednak pewną prawidłowość. Okazało się, że obie z zafiltrowanych domen miały backllinki tylko i wyłącznie z katalogów i bardzo słabych stron, przy czym żadna z nich nie miała PR. Jedna z nich ma tylko 2 podstrony w indeksie głównym, a pozostałe kilkadziesiąt w uzupełniającym. Czemu więc się dziwić spadkom pozycji, skoro okazuje się, że dotychczasowe backlinki nie przekazują żadnej mocy?

KATEGORIE: Filtry i bany, Pozycjonowanie stron
Comments (1)

Zastanawiam się czy korzystać z SWL. Pozycjonowanie samo w sobie jest…manipulacją, ale są mniej i bardziej dozwolone techniki. SWL spada na te nie dozwolone lub raczej nie wykrywalne techniki a jak widać google się uczy rozpoznawać strony korzystające z SWL.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.