Powody filtrów w Google

Cały czas temat filtrów nie chce ucichnąć i na forum Google regularnie pojawiają się kolejne pytania o to, dlaczego strona spadła mocno w wynikach. Zazwyczaj już w pytaniu padają informacje o stosowaniu SWL’i (głównie o emitowaniu linków systemowych i dość często o dopalaniu strony w ten sposób) i chyba nie przesadzę jeśli napiszę, że w 80-90% stron prawdopodobnie właśnie one były problemem.

Wśród skarg są jednak także te dotyczące stron, w przypadku których ciężko znaleźć cokolwiek, co w większym stopniu naruszałoby wytyczne. Szczerze mówiąc sama nawet w przypadku najlepiej prowadzonych stron nie mam pewności co do ich „bezpieczeństwa” pod tym względem. W tej chwili filtr (z wyzerowaniem PR) mam tylko na jednej stronie, ale na niej mogłabym wyliczyć co najmniej 3 jego powody, chociaż żadnego nie uważam na zasługującego na filtr od wakacji 😉

Wracając jednak do rozmów na forum Google i pytań, jakie dostaję czasem na maila… brak jasności co do powodów filtrów i zbyt ogólne wytyczne sprawiają, że webmasterzy zastanawiają się nawet nad tym, czy do linków do statystyk nie dodawać nofollow. Obawa pojawia się również w przypadku zamieszczenia chociaż jednego linka do strony, która nie do końca jest tematycznie powiązana albo prowadzi do innego serwisu tego samego właściciela. Padają pytania o to, czy wstawienie w podpisie na forach linka do swojej strony nie będzie źle odebrane i nie grozi nałożeniem filtra.

Dlatego tym bardziej zachęcam do wypowiadania się na forum w temacie, w którym można zasugerować, na czym powinien się skupić zespół SQT w tym roku (np. na bardziej szczegółowych wytycznych i informowaniu webmastera o tym, co jest przyczyną filtra), a także do wypowiadania się w komentarzach na temat powodów Waszych filtrów oraz tego, jak i w jakim czasie sobie z nimi poradziliście.

Aktualizacja

Dotychczas nie zauważyłam na swoich stronach, aby Google rozdawało filtry na prawo i lewo jeśli tylko jakikolwiek detal nie zgadzał się z wytycznymi, więc głównie na forach czytam zapewnienia o tym, że zafiltrowane zostały m.in. serwisy nienaruszające wytycznych. Na wielu swoich stronach mam jakieś linki nietematyczne (zazwyczaj w niewielkich ilościach, czasem w stopce), nie wstawiam też nofollow do buttonów statystyk 😉 bo nie widzę takiej potrzeby. Nofollow wstawiam wyłącznie w linkach do stron, którym z jakichś powodów nie chcę przekazywać mocy, ale z pewnych względów chcę o nich wspomnieć.

Uważam, że skrajność w żadną stronę nie jest dobra i to, że Google filtruje często strony uczestniczące w automatycznej wymianie albo posiadające kilkanaście do kilkudziesięciu linków wychodzących wyglądających już na pierwszy rzut oka na kupione, wcale nie oznacza, że nie można mieć na stronie nawet 1 linka nie do końca zgodnego z jej tematyką. To samo dotyczy moim zdaniem kopiowania treści – co innego jeśli cały serwis oparty jest o zduplikowane teksty, a co innego jeśli raz na jakiś czas zamieści się na stronie artykuł znajdujący się już na wielu innych głównie po to, aby dostarczyć użytkownikom ciekawych treści.

Z tego co widzę, dopóki zachowuje się umiar, ryzyko filtrów jest minimalne i starając się trzymać takiego założenia, przynajmniej dotychczas nie miałam z nimi zbyt dużej styczności. Tak jak już pisałam, w ogromnej większości przyczynę filtra widać na pierwszy rzut oka, ale są także strony, których webmasterom przydałyby się jakieś podpowiedzi ze strony Google na temat tego, co należy poprawić.

KATEGORIE: Filtry i bany, Pozycjonowanie stron
Comments (13)

Ja tylko czekam aż jedynym prawidłowym linkiem na stronie będzie link do Google 😉
a tak serio, to lekka żenada z tymi pytaniami, o to czy i gdzie mogę linkować, ale nie będę wnikał już.

Wyobraź sobie, że ktoś mnie ostatnio pytał czy wstawianie linków w stopce jest Black, a wstawianie tych samych linków w boksie np. po prawej jest już White.

Filtry istnieją od X czasu, ale dopiero od niedawna obawa przed nimi doprowadza właśnie do pytań, o których wspomniałam. Pytanie dot. linków w podpisach na forach czytałam bodajże wczoraj.

Jak linki w stopce będą już black, to będziemy obserwować zmierzch wszelakich wordpressów, joomli! i drupali.. a co dopiero mają powiedzieć twórcy skórek 😉

W każdym razie po wyzerowaniu mi bloga przez szanowne google, usunąłem przebrzydłe boksy reklamowe które nie były nofollow (jak mogłem to wstawić?!) i napisałem requesta o przywrócenie.. i czekam, może sie zlitują 😉

być może linki w stopce które nie są powtarzane na każdej podstronie są black,
filtry były od zawsze ale dopiero od kilku miesięcy są nakładane hurtowo :\

Dobry wieczór Marta 🙂

Fajny post! Poruszyłaś kilka ważnych punktów. Zgadzam się że w przypadku wielu stron dyskutowanych na naszym forum problemy są ewidentne. Jeżeli tak nie jest to czasami po prostu pozycja witryny odbiega od tego gdzie webmaster by ją chciał widzieć w SERPach i tak naprawdę nie ma się czym martwić.

Wiele osób wspomina o skonkretyzowaniu naszych wytycznych i możesz być pewna że z Mattem o tym porozmawiam 🙂 Jednak nie zgadzam się ze stwierdzeniem co do braku jasności skąd się biorą spadki w SERPach. Myślę, że post o podejściu Google do SWLi przekazujących PageRank był jednoznaczny, nie sądzisz? 🙂

Guglarz

nie zgadzam się ze stwierdzeniem co do braku jasności skąd się biorą spadki w SERPach

Podejście Google do SWLi jest akurat dla mnie jak najbardziej zrozumiałe 🙂 Tutaj chodziło mi głównie o ten mniejszy procent skarg, w których notowane są spadki, a jednak jasnych powodów przynajmniej na pierwszy rzut oka nie widać.

BTW, dobrze Cię widzieć po tak długiej przerwie 😉

Jak zatem można wytłumaczyć zniknięcie z indeksu witryny, która nie ma zainstalowanego SWL’a, jest poprawna zarówno w kodzie jak i w treści. A czy była pozycjonowana swl’ami? na pewno tak – kto dziś tego nie stosuje? Aha, strona na kilka konkretnych fraz była wysoko przez kilka konkretnych miesięcy.
Jakie wnioski zatem ? jak się „pojawić” znowu w wyszukiwarce (niestety już jedynej czyli Google) na jakimkolwiek miejscu?

Mnie zastanawia kwestia ukrytego tekstu. Jak Google interpretuje sytuację, gdy na końcu strony umieszczona jest małą czcionką informacja o prawach autorskich itp.
Tak jak na Twoim blogu „Lexy’s SEO blog jest oparty na silniku WordPress. Wszelkie prawa zastrzeżone.”
Dostałem filtr i dowiedziałem się na forum Google, że tekst którym napisałem taką informację na końcu strony był za mały. Wszyscy piszą to małą czcionką ale ja wyraźnie przesadziłem w dół i filtr. Żadnych SWL’i i tym podobnych nie było.
Dla mnie niestety okazało się, że wytyczne Google są po prostu mało precyzyjne jeśli chodzi o nie które kwestie.
Miałem też jeden link do strony mojego taty, którą sam zrobiłem. Teraz zagadka: filtr za ukryty tekst czy za ten link? A Google nie napisze jasno. Przepraszam, że się tak rozpisałem. Pozdrawiam!

Tekst o minimalnie mniejszym rozmiarze niż standardowy zastosowany na danej stronie nie jest tekstem ukrytym 😉 Mimo, że to forum Google i chciałoby się na nim we wszystko wierzyć, niektóre aktywne tam osoby lubią przesadzać w różnych sprawach i do ich wypowiedzi lepiej podejść z dystansem.

Z tego co obserwuję z doniesień innych i na podstawie filtrów na swoich stronach widzę, że aby dostać filtr trzeba trochę bardziej przeskrobać i nie wierzę w filtr za jeden link nietematyczny albo przymały tekst na temat praw autorskich.

„A czy była pozycjonowana swl’ami? na pewno tak – kto dziś tego nie stosuje?”
Przyznaję bez bicia, że ze wszystkich pozycjonowanych stron tylko jedną dopalam lekko systemem + kilka zapleczówek. Bez systemów naprawdę da się sporo zrobić.

Staram się nie być ” pokemonem ” i bardzo dużo czytałem. Twój blog bardzo często, PIO i forum Google. Nauczyłem się robić strony z samouczka internetowego, pozycjonowania uczę się właśnie z forów internetowych.
Staram się jak mogę zrobić wszystko jak chce Google a dostałem filtr i jak sama widzisz ciężko mi stwierdzić za co. Ręce mi opadają, bo moja branża jest strasznie sezonowa i w czerwcu mogę praktycznie wyłączyć stronę a jej praktycznie nie ma.
Mam wrażenie, że Google ma do polskiego rynku podejście monopolisty. Po co mają się starać współpracować z webmasterami i pozycjonerami skoro są jedyną liczącą się wyszukiwarką w naszym kraju. Nie ma Cie w Google to nigdzie Cie nie ma i nikt Cię nie znajdzie. Chyba niestety nie czują zdrowego oddechu konkurencji na plecach.
Jak bym dopalał SWL’ami to bym chociaż miał jakąś pewność za co dostałem.
Dzięki za to, że jest taki blog jak ten.
Pozdrawiam.

Fajny blogasek 🙂

Co do filtrów jest bardzo różnie. Dostałem i za wyświetlanie i za stosowanie. Kilka dni temu również za o, że ktoś mnei nim zlinkował 🙁

Na szczęście rozpatrzenie (ponowne żądanie) wniosku przez Wielkie G przywróciło mi przynajmniej 1 serwis do życia 😀

… ja w sprawie filtru (przynajmniej tak mi się wydaje)

Czy mieliście taki przypadek, że Google ukarała Was za krzaczki?! (błędne kodowanie strony).

Ostatnio przebudowałem jeden z serwisów – wcześniej był to flash teraz czysty xhtml. Miałem problemy z serwerem tj. kodowaniem i nie zauważyłem, że strona jest czytana jako ISO, a nie UTF.

Po urlopie sprawdzam pozycje strony i trach… strony nie ma w indeksie (PR nadal równy 1).

Jakieś pomysły jak to odwrócić?!

Na jaki adres należy wysyłać zapytania o powód filtra i ile czeka sie na zwrotkę?

dziekuje

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.