28 ciekawostek na temat filtrów za nienaturalne backlinki

Temat filtrów za backlinki od lat był jednym z tych, które interesowały mnie najbardziej. Od początku mam o nim takie samo zdanie – linki przychodzące nie powinny szkodzić, a jeśli Googlowi część z nich nie odpowiada, powinny one być ignorowane. W końcu filtr nałożony dla porządnej strony to kara nie tylko dla jej właściciela, ale też użytkowników, którzy z dnia na dzień nie są w stanie znaleźć serwisu w wynikach wyszukiwania.

Dla Google nie jest to jednak opłacalne podejście i niestety nie widać tu już dbania o potrzeby internautów, ale bardziej chęć pokazania, kto tu rządzi. Ale na tym koniec mojego narzekania, bo nie o tym miał być wpis. Decydując się na zarabianie na SEO, w szczególności podejmując się zleceń dotyczących likwidacji filtrów, chcę działać możliwie szybko i skutecznie. A ponieważ od roku istnieje taki szybki (chociaż to pojęcie względne) i skuteczny sposób na zdejmowanie filtrów za backlinki, postanowiłam zebrać informacje na ten temat… i tak przechodzimy do konkretów.

  1. filtry to kary polegające na widocznym obniżeniu pozycji strony, przy pozostawieniu jej w indeksie. Są one nakładane z różnych powodów, m.in. w przypadku wykrycia tzw. nienaturalnych linków;
  2. przez wiele lat Google utrzymywało, że bardzo trudno jest zaszkodzić dobrej stronie linkami przychodzącymi. Wiele osób interpretowało ten zapis jako całkowity brak możliwości szkodzenia w ten sposób. Mimo wszystko pozycjonerzy już wiele lat temu uważali, że mieli do czynienia z filtrami za backlinki (ja również);
  3. przed kwietniem 2012 r. o potwierdzonych przez Google filtrach za backlinki było głośno od święta. Jeden z przypadków został opisany w tym artykule;
  4. w kwietniu 2012 r. wprowadzono aktualizację o nazwie Pingwin, która jest skierowana m.in. w serwisy z nienaturalnym profilem backlinków;
  5. istnieją 2 rodzaje filtrów – algorytmiczny i ręczny. Z filtrem algorytmicznym mamy do czynienia, jeśli spadek pozycji wynika z wprowadzenia zmian w algorytmie;
  6. najwięcej filtrów algorytmicznych jest nakładanych przy dużych aktualizacjach, w szczególności tych potwierdzonych przez Google. Ponieważ jednak wyszukiwarka wprowadza kilkaset aktualizacji algorytmu rocznie, nie wszystkie jesteśmy w stanie dostrzec, a zatem filtry algorytmiczne mogą zostać „aktywowane” także między tymi większymi zmianami;
  7. filtr ręczny jest nakładany przez pracownika SQT m.in. w wyniku otrzymania zgłoszenia spamu;
  8. wraz z wprowadzeniem Pingwin Update, wielu webmasterów otrzymało w GWT powiadomienia o wykryciu nienaturalnych linków przychodzących. Zgodnie z informacją uzyskaną od Kaspara Szymańskiego, jeśli powiadomienie dotyczy backlinków, to na 100% kara została nałożona ręcznie. Również z wyników ankiety przeprowadzonej przez SeoStation.pl widać, że w tym czasie nałożone zostały zarówno kary algorytmiczne, jak i ręczne;
  9. aby upewnić się co do rodzaju kary, można skorzystać ze zgłoszenia ponownego rozpatrzenia. W przypadku braku tzw. ręcznych działań, informacja o tym powinna przyjść w ciągu 2-3 dni. Jeśli natomiast powiadomienie będzie zawierało informację o tym, że strona nadal narusza wytyczne, lub cofnięto ręczne działanie, można na nie czekać od kilku dni do nawet 3 tygodni;
  10. filtry algorytmiczne mogą zostać zdjęte przy kolejnych aktualizacjach. Dotyczy to sytuacji, w których strona „nie załapie” się na obniżenie pozycji w wyniku nowszej zmiany;
  11. filtry algorytmiczne mogą zostać zdjęte po wzmocnieniu profilu backlinków;
  12. filtry algorytmiczne mogą zostać zdjęte szybciej po usunięciu szkodliwych linków i skorzystaniu z disavow links tool;
  13. filtry ręczne są nakładane na z góry określony okres (nawet ponad rok). Okres ten zależy od „stopnia przewinienia” strony;
  14. filtry ręczne, po ich wygaśnięciu, mogą zostać przedłużone jeśli nie podjęto żadnych działań w celu ich likwidacji;
  15. filtry ręczne mogą zostać zdjęte szybciej po usunięciu szkodliwych linków, skorzystaniu z disavow links tool i wysłaniu zgłoszenia ponownego rozpatrzenia;
  16. pierwsze efekty zdjęcia filtra algorytmicznego są zazwyczaj widoczne po ok. 1-1,5 tygodnia od momentu zgłoszenia linków przez narzędzie disavow links tool. W przypadku filtra ręcznego, jest to ok. tydzień od otrzymania od Google odpowiedzi na zgłoszenie z informacją o cofnięciu ręcznych działań;
  17. bardzo ważne jest zachowanie odpowiedniej kolejności działań przy korzystaniu z narzędzia disavow links tool: usunięcie linków, zgłoszenie pozostałych linków oraz (w przypadku ręcznego filtra) zgłoszenie ponownego rozpatrzenia;
  18. po zdjęciu filtra strona nie musi wrócić na poprzednie pozycje. Wynika to z tego, że zmniejszeniu ulega liczba linków branych pod uwagę przy ustalaniu pozycji;
  19. aby znaleźć przyczynę nałożenia filtra algorytmicznego, w pierwszej kolejności należy sprawdzić, czy data spadków pokrywała się z datą większego update’u, który najczęściej jest powodem problemu. Listy aktualizacji algorytmu Google w latach 2011-2013 są dostępne w bazie wiedzy serwisu SeoStation.pl;
  20. Pingwin Update nie dotyczy wyłącznie nienaturalnych backlinków. Innym powodem spadków pozycji w wyniku jego aktualizacji jest m.in. keyword stuffing;
  21. od kwietnia 2012 r. miały miejsce 3 aktualizacje Pingwina (1.0 w kwietniu, 1.1 w maju, 1.2 w październiku), a w okresie najbliższych kilku tygodni Google planuje Pingwin Update 2.0, który ma dotknąć większej liczby stron niż jego pierwsza wersja;
  22. otrzymanie powiadomienia o wykryciu nienaturalnych linków nie zawsze jest równoznaczne z nałożeniem kary. Powiadomienie takie może mieć wyłącznie charakter informacyjny i nie skutkować spadkami pozycji;
  23. wykrycie przez Google nienaturalnych backlinków może spowodować działania wyłącznie dla pojedynczej podstrony, a nie zawsze dla całego serwisu;
  24. najbardziej narażone na filtry za backlinki są strony, które w sposób masowy zdobywają linki z mało zróżnicowanych źródeł (m.in. z WP-Katów), korzystają z SWLi, Scrapeboxa, Xrummera, a także z przeoptymalizowanymi anchorami;
  25. istnieją podejrzenia o to, że strony często zgłaszane przez narzędzie disavow links tool mogą być analizowane przez pracowników SQT i w wyniku tego mogą ucierpieć. Na tę chwilę Google jednak temu zaprzecza;
  26. ze względu na poprzedni punkt, w zgłaszanym pliku nie należy zamieszczać linków do stron zaplecza, czy serwisów partnerskich (np. publikujących opłacone linki);
  27. przy korzystaniu z narzędzia disavow links tool bardzo łatwo jest o błędy – najczęstsze zostały opisane w jednym z poprzednich wpisów;
  28. linki zgłoszone przez narzędzie disavow links tool, po ich ponownym odwiedzeniu są ignorowane w sposób podobny do nałożenia na nie atrybutu nofollow.

Co jeszcze dopisalibyście do tej listy?

Na zakończenie zachęcam do zapoznania się z poradnikiem o filtrach Google.

KATEGORIE: !Wyróżnione, Filtry i bany, Linkowanie
Comments (21)

Pytanie: zgłosiliśmy listę plików przez disavow tool, mineło kilka dni, po czym plik z listą usunęliśmy z narzędzia aktualizując liczbę deprecjonowanych linków do zera. Czy zaczynają ponownie działać na nasz ranking?

PS. „Pingwin Update”? Niby po angielsku, ale jednak po polsku… Penguin Update! 🙂

Bardzo ciekawe zestawienie, powiedziałbym unikalne w kontekście tematu, o którym wypowiedzi można znaleźć jedynie w filmach Matta Cuttsa. Co do ciekawostki nr 25 mam pełen przekonanie oraz dowody na to, że tak jest. Disavow zabija zgłaszane domeny w 95% przypadków.

Możesz napisać coś więcej na ten temat? Celowo przeprowadzałeś na to jakieś testy, czy po prostu analizowałeś większą liczbę zgłoszeń i to, co później działo się z często zgłaszanymi domenami?

Pozycjonerze sami na siebie kręcą bata. Przekazując informacje Google, które strony są SPAMem. Jeszcze parę lat i będzie jak w stanach. Gdzie lokalni biznesmeni umawiają się na kolacje z dziennikarzami, żeby tylko wstawili linka na ich portalach.

Lexy – dobre usystematyzowanie wiedzy na temat filtrów. Niby temat jest powszedni, ale wciąż nie do końca zrozumiały.

Artur – zasiałeś ziarno ciekawości, czekamy na szerszą wypowiedź.

Każdy może takie sprawdzenie wykonać (no prawie). Zgłaszasz plik, po tym gdy zostanie on już przetworzony, po jakimś czasie sprawdzasz ile domen jest nadal w indeksie. To jedna sprawa. Druga polega na tym, że sam mam trochę takich domen, które nie są najlepszej jakości, zawierają linki do różnych stron i domeny padają ofiarą po zgłoszeniu tych linków. Co ciekawe linki są nofollow 🙂 ale jednak GWT je pokazuje.

Dobrze, że napisałaś że według ciebie przychodzące linki nie szkodzą stronie. Mam takie samo zdanie. Gdyby było inaczej, to każdej strategii SEO mógłby zaszkodzić człowiek wklejający link na jakiejś śmieciowej stronie.

Powiem tak – od ponad 2 lat obserwuję konkurencję (i to nie jedną ale kilka firm/domen), która stosuje wszelkie możliwe niedozwolone metody (widać to jak na dłoni), analizuję ich sposoby linkowania i wg tego co widzę, powinni mieć filtr niemal za wszystko , a tymczasem oni są w top10 a ja w top100. Ktoś mi kiedyś powiedział – do czasu, w końcu zlecą. Na razie to oni zarabiają, a ja tracę. Więc nawet jak zlecą, to mnie nie będzie, a oni się wyliżą. Tak to mniej więcej wygląda.

Ja niestety wysunę się przed szereg i powiem: „linki przychodzące mogą szkodzić!” Ale szybko dodam – stronom słabym, posiadającym niewiele backlinków lub też backlinki niskiej jakości. Spotkałem się z takim przypadkiem, gdzie uporczywe i intensywne linkowanie podstron i strony głównej na śmieciowych stronkach (absolutne dno katalogowe, strony dla dorosłych, marne precle) + SWLe doprowadziły do filtra dla całego serwisu.

Pozwolę sobie za Lexy zauważyć, że nic takiego (o nieszkodzących linkach) w tekście nie stoi. Jest natomiast opinia (którą podzielam), że nie powinny szkodzić, ze względu na fakt, że będzie to krzywdzące dla niektórych domen.

W praktyce nie wiem, bo nie sprawdzałam. Z tego co wiem to linki te są ignorowane dopóki lista jest wgrana, więc w każdej chwili można się z takiego działania wycofać.

Wczoraj sobie analizowałam pobieżnie niektóre zgłoszone pliki, ale nie trafiłam nawet na stronę zbanowaną po wgraniu pliku. Pewnie dopiero przy najbliższym Pingwinie będą na to patrzeć.

Linki szkodzą. O tym właśnie jest cały wpis 😉 Skąd tak skrajna interpretacja?

To a propos wypowiedzi Kajetana i return false 😉

Przy ostatniej aktualizacji wyleciała moja stronka i jako powód obstawiam linkowanie z setek badziewnych seokatalogów. Jest to filtr algorytmiczny

Teraz zmieniam w tych katalogach linki do mojej strony na http://www……pl czyli sam adres
Do dobre rozwiązanie, czy może usunąć stronę z tych katalogów całkowicie?

Czasami mam wrażenie, że po drugiej stronie za sterami google siedzi wiedźma z kostką do gry a liczba, która wypadnie oznacza pozycję w google 😉 ostatnio spada mi na następny dzień fraza z 1 na 5 pozycję po wykasowaniu 2 zdań w artykule. Co do filtra to po przeczytaniu wytycznych google dla webmasterów powinna go dostać każda pozycjonowana strona bo nikt się nie pozycjonuje jedynie naturalnymi linkami

Ja natomiast mam wrażenie że google nie ma już recepty na spam, i blokuje wszystkie strony które zostaną zgłoszone przez konkurencje, każda z moich stron które wbiły się w top 5 maja ten sam schemat a inne postawione na tym samym zapleczu i linkowaniu stoją jak głazy.

Obecnie jeśli strona ma złe linki to ciągną ją w dół, jak się takie linki zdejmuje to strona idzie do góry – takie podsumowanie 😉

Właśnie nie idzie do góry, ściągnąłem szkodliwe linki i strona wróciła na 120 pozycje!!! a była na 10.

Ja już przestałem czaić googla. Działania są od czapy i chyba nie mają nic wspólnego z pilnowaniem bałaganu w wyszukiwarce. Faktycznie to zaczyna być loterią. Dziś ty, jutro inny… wyleci poza setkę. W panelu nie pojawiło się nic – więc na razie tragedii nie ma 🙂 Ale kto wie, kiedy się przytrafi coś złego. Tym co szaleją z SWL’ami na masową skalę – faktycznie przyda się taki hamulec. Oczywiście jedynym słusznym „reklamodawcą” pozostanie Adsense 😀

Witam, mam do Państwa pytanie. Mam jedną stronę na jakiej dodaje systematycznie nowe artykuły ale wcześniej nigdy nie śledziłem jej oglądalności.

Niedawno zobaczyłem wyniki tej strony i okazuje się że od ponad roku bardzo mocno spada w wynikach i stale spada. W miarę moich małych możliwości sprawdziłem linki do strony i wiele jest z jakiś komentarzy blogowych i dziwnych stron, ale też jak na moje oko nie są takie tragiczne. Dawniej samemu miałem linki w sygnaturkach for, które w miarę możliwości usunąłem.

Strona w ciągu roku z około 3000 wyświetleń spadła do około 150 wyświetleń dziennie. Nie wiem co robić, nie mam powiadomień czy wykluczać jakieś linki czy inne działania. Podobno strony nie mogą być karane za linki, ale już nie wiem za co ona może być innego i skąd ktoś podczepił kiedyś na jakiś stronach śmieciowych do niej wiele linków oraz dlaczego – dodałem wszystkie co widziałem w GWT do wykluczeń mimo braku powiadomień o nienaturalnych linkach, to jednak nic nie pomogło a strona ciągle spada w wynikach/ Absolutnie nie wiem co z tym zrobić i jakie mogą być tego powody oraz działania aby ją ratować.

Strona http://www.open-youweb.com

Czy jest ktoś w stanie mi coś doradzić, z góry dziękuję za wszystkie pomoce wypowiedzi?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.