Czy Google filtruje strony za backlinki?

Google wielokrotnie starało się uspokajać webmasterów co do tego, aby nie martwili się działaniami konkurencji starającej się doprowadzić do ukarania ich stron. Na oficjalnym blogu wyszukiwarki wielokrotnie czytaliśmy, że nie powinniśmy zamartwiać się ewentualnymi linkami pochodzącymi ze słabej jakości źródeł:

Oficjalne stanowisko Google

Matt Cutts, a senior software engineer for Google, says that piling links onto a competitor’s site to reduce its search rank isn’t impossible, but it’s extremely difficult.

Źródło: Negative SEO is Possible, Yet Difficult, Says Matt Cutts (2007)

można by pomyśleć, że skoro SWLe przekazujące PageRank wychodzą poza zasady Google, to wykupując na przykład rotacyjne linki i zgłaszając raport spamu można zaszkodzić konkurencji. Ponieważ jednak bierzemy większą ilość sygnałów pod uwagę, takie działanie na niekorzyść innych webmasterów jest skuteczne wyłącznie w teorii.

Źródło: Jak Google postrzega linkowanie (2008)

Teoretycznie witryna o wysokiej jakości powinna być linkowana przez inne również wysokiej jakości strony. Podejrzane linki mogą jednak obniżyć reputację Twojej strony w oczach użytkowników, którzy przypadkowo na nie się natkną. O ile liczba takich linków nie jest zbyt duża i szanse na to, że zostaną usunięte są realne, to warto spróbować nawiązać kontakt z odpowiednim webmasterem i poprosić go o pomoc. (…)

Jeżeli prośby o usunięcie niechcianych linków nie pomogą, nie warto przejmować się tym problemem zbyt długo. Generalnie, webmasterzy nie mają tak dużego wpływu na to, kto do ich stron linkuje. (…) Jeżeli prośby o usunięcie niechcianych linków nie pomogą, nie warto przejmować się tym problemem zbyt długo. (…)

Nie należy również zapominać o tym, że linki niskiej jakości są bardzo rzadko emitowane przez dłuższy czas i raczej szybko znikają z obliczeń Googla. Możliwe, że nie są one już uwzględniane przez Google, nawet jeżeli sam link jeszcze istnieje. Jeżeli chcemy się upewnić, że Google wie o takich podejrzanych linkach, możemy również zgłosić je korzystając z formularza do raportu spamu lub z formularza do zgłoszenia płatnych linków.

Źródło: Co zrobić z niechcianymi linkami (2009)

Przychodzące linki z SWLi nie mogą zaszkodzić reputacji Twojej witryny, ale jak tylko przestaną one być brane pod uwagę w naszym grafie linków, jedynie pozostałe wartościowe linki będą przyczynić się do widoczności witryny w indeksie Google, co oznacza, że czas, wysiłek i pieniądze włożone w SWLe są zmarnowane.

Źródło: Dlaczego SWLe przekazujące PageRank mogą zaszkodzić pozycji Twojej witryny (2010)

Zerknijmy także do innych źródeł:

Bez obaw, słabe linki przychodzące nie zaszkodzą witrynie dobrej jakości.

Źródło: blog.seo-profi.pl/wywiad-z-guglarzem/ – pyt. 29 (2010)

Konkurencja niewiele może zrobić, aby pogorszyć miejsce Twojej witryny w rankingu lub usunąć ją z naszego indeksu. Jeżeli masz problemy z witryną zamieszczającą link do Twojej witryny, proponujemy skontaktować się z jej webmasterem.

Źródło: Czy konkurencja może zaszkodzić rankingowi mojej witryny? (2010)

Temat szkodliwości linków przychodzących został ostatnio poruszony przy okazji tematu witryny J.C. Penney:

do witryny J.C.Penney prowadzą tysiące linków z niezwiązanych tematycznie witryn, z których niektóre zawierają wyłącznie linki. Jednocześnie większość z tych linków ma bardzo nieprzypadkowe teksty zakotwiczenia (anchory). Wyglądają więc, jakby wszystkie przygotowywane były przez jedną osobę, w jednym, określonym celu: podbić pozycję jcpenney.com w Google.

Sam Matt Cutts potwierdził zarówno algorytmiczne, jak i ręcznie podjęte działania mające na celu ukaranie tej strony:

Na Twitterze Matt poinformował, że „algorytmy Google’a ruszyły do akcji; podjęliśmy też ręczną interwencję”.

Część tych wypowiedzi sugeruje, że konkurencja może zaszkodzić innym stronom i wszystkie dotyczą właśnie linków przychodzących. Widzimy tu skupianie się na informacji na temat tego, że Google bierze pod uwagę wiele czynników podczas ustalania rankingu, ale jakie inne czynniki oprócz zawartości witryny może brać pod uwagę, jeśli startujemy z nowym serwisem? Jeśli na taką stronę zostaną już na początku skierowane linki prowadzące ze stron słabej jakości i które mają „nieprzypadkowe teksty zakotwiczenia”, co wtedy?

Moje doświadczenia z filtrami

Z doświadczenia wiem, że kiedyś istniały filtry za linki przychodzące i dzieliły się na 2 rodzaje:

  • filtr na anchor – filtr dotyczył tylko jednej, zbyt mocno linkowanej frazy i w rezultacie stronę można było znaleźć na pierwszej stronie wyników od końca, przy czym reszta fraz nie uległa zmianie;
  • filtr na całą stronę – filtr dotyczył wszystkich możliwych fraz, zarówno tych linkowanych, jak i pozostałych. Bez względu na długość i konkurencyjność zapytania (mógł to być nawet fragment treści, który nie powielał się na innych stronach), strony mogliśmy szukać również na pierwszej stronie od końca.

Ponieważ od kilku lat nie miałam do czynienia z filtrami za backlinki, mogę jedynie stwierdzić, że kiedyś na pewno one istniały, ale nie wiem, jak sytuacja wygląda w tej chwili. Logiczne wydawałoby się zerowanie wartości podejrzanych linków w przypadku wykrycia przez Google, że coś jest nie tak. Kiedy jednak dochodzi do aż tak dużych spadków w pozycjach, a dotyczy to strony zoptymalizowanej pod kątem wyszukiwanych fraz, o unikalnej zawartości i bez podejrzanych linków wychodzących (mówiąc wprost – kiedy nie ma mowy o karze za działania on-site), nie ma możliwości, aby spadek wynikał wyłącznie z wyzerowania wartości podejrzanych linków. Wiemy, że każda nowa strona w indeksie otrzymuje pewien minimalny PR – być może po wykryciu nadużyć w linkowaniu dochodzi do jego kompletnego wyzerowania, stąd spadek na najdalsze możliwe pozycje?

Pytania do czytelników bloga

Czy kiedykolwiek dostaliście filtr za linki przychodzące? Jeśli tak, kiedy miało to miejsce po raz ostatni?

Z ostatnim tego typu filtrem spotkałam się ok. 3 lata temu i został on nałożony dość nowej stronie, która miała wtedy ok. 2-3 miesięcy.

Czy istnieje chociaż minimalne prawdopodobieństwo, że to, co nazywaliście filtrem za linki, wynikało z wyzerowania wartości podejrzanych linków, ale bez nakładania na stronę dodatkowej kary?

Nie ma najmniejszej możliwości, że w przypadku stron, na które nałożono mi filtr za backlinki, kara mogła dotyczyć innych czynników tym bardziej, że kilka lat temu takie filtry były normalką. Gdyby to był pojedynczy przypadek, który nie powtarzał się u innych i gdyby spadek nie powodował szukania strony na ostatnich stronach wyników, zapewne rozważyłabym inne możliwości. Nie można tego było również pomylić z Fresh Site Bonus, czyli z sytuacją, w której nowa strona dostaje bonusa i szybko ląduje na wysokich pozycjach, ale jeśli nie zostaną podjęte odpowiednie działania, po pewnym czasie strona spadnie na pozycje, na które faktycznie zasługuje. Gdyby podejrzane linki były zerowane, spadek strony byłby podobny do spadku po upływie FSB.

Ile trwały filtry za linki przychodzące i jak z nich wyszliście?

Z tego co pamiętam, filtr taki trwał maksymalnie pół roku, a pomogło w tym pozyskiwanie kolejnych linków, chociaż osoby początkujące w temacie pozycjonowania panikowały, odpinały wszystkie możliwe linki i wstrzymywały dalsze linkowanie, co tym bardziej wskazywało na nienaturalne zachowanie. Teoretycznie powinno się pozyskiwać wtedy linki jak najlepszej jakości, ale w jednym przypadku strona wyszła z filtra po podlinkowaniu jej z SWLa – wydaje mi się jednak, że filtr mógł być nałożony na z góry ustalony okres i linki te mogły nie mieć tu żadnego znaczenia.

Czy Google powinno karać strony za linki przychodzące?

Moim zdaniem nie. Nawet jeśli ewidentnie widać, że działania podejmowane są przez osoby związane ze stroną, może się okazać, że to działania konkurencji – wystarczy linkowanie na pozycjonowane anchory. Sama miałam nieprzyjemność spotkać się z takimi sytuacjami i w przypadku moich prywatnych stron dotyczyło to tylko jednego z serwisów (a przynajmniej tylko na nim to zauważyłam). Miał on wtedy już kilka lat, stabilną pozycję i mocne linki tematyczne, a skierowano na niego linki z SWLa z anchorami zgodnymi z tymi, na które serwis był już pozycjonowany. Na szczęście nie wpłynęły one na pozycje w żaden sposób – ani pozytywnie, ani negatywnie.

Zapraszam również do dołączenia do dyskusji na forum Google, bo widać na ten temat istnieją wręcz skrajne opinie.

KATEGORIE: Linkowanie, Pozycjonowanie stron
Comments (18)

Jeśli chodzi o filtr to z tego co pamiętam na samym początku przygody z SEO kiedy jeszcze nie wiedziałelm co można a czego nie otrzymałem filtr za ukrycie tekstu na stronie. Po jego usunięciu sytuacja wróciła do normy. Innych filtrów nie pamiętam. Notowałem spadki kiedy zerowana była wartość linków z SWLi rotacyjnych ale nie był to filtr tylko obniżenie dużej liczby linków prowadzących do strony. Po ponownym podlinkowaniu strony linkami stałymi wracała ona na pozycje więc filtrów jako takich nie kojarzę. Zawsze jesli coś spadało to wracało do poprzedniej pozycji po konsekwentnych działaniach SEO.

1. Tak, jakieś 2 lata temu.
2. Wątpię:)
3. 2-4 miesiące – kontynuacja przyrostu linków
4. W żadnym wypadku, byłaby to straszliwa broń w rękach konkurencji.

Wpadłem kiedyś w dziwny filtr,
strona była linkowana linkami z systemu stałego, wchodziła do top i nagle spadła na pozycje ok 500.
Podtrzymałem linkowanie ale zmieniłem źródło na wiarygodniejsze. Mimo tych zabiegów strona przez ponad 3 miesiące skakała od pozycji 2 do 498 (częściej była na tej 498). Ponieważ to była nowa domena po 4 miesiącach ją odpuściłem.

1. Tak w zeszłym miesiącu, strona główna wyleciała kompletnie z wyników wyszukiwania. Ze względu na to, że domena jest dwumiesięczna i podlinkowałem ją z SWL stałego. Niestety 🙂 na małą ilość linków wylosowali mi kilka stron z wysokim PR.
3. Cały czas trwa.

Strona główna została wyindeksowana czy spadła w wynikach? To mi wygląda na coś innego niż filtr za backlinki.

Jestem na tyle laikiem, że podlinkowałem główną z SWL’a, ale nie na tyle, że nie wiem co to ban. Strona jest cały czas w indexie. Filtr dotyczy tylko dwóch fraz i nie jest to filtr 101.

Napisałeś, że strona wyleciała w wyników, stąd moje pytanie. Nie dotyczyło ono jednak bana tylko samego wyindeksowania strony głównej. Dotychczas u mnie problem ze stroną główną pojawił się, kiedy Google zaindeksowało adres w formie domena.pl/index.php i uznało go za ważniejszy niż domena.pl

Napisałem tak, ponieważ zdarzało się, że stron podlinkowana wypadała np. poza pierwszą 100 wyników. Mojej nie ma w pierwszej 500 – dalej nie sprawdzałem. Problem, który wspominasz to problem większości cms’ów, które należy uprzednio zoptymalizować 🙂 – mnie nie dotyczy.

robiłem kiedyś test na konkurencji i nie jest to wielką sztuką wywalić stronę z indeksu na dobre. domena praktycznie nie linkowana, na początku około 30-50 BL, dowalamy 100 linków dziennie z linkme, dzień w dzień aż uzyskamy kilka (3-5) tysięcy = 30-50 dni, potem czekamy żeby chociaż znaczna część linków była zcrawlowana (70%+) i na raz wywalamy wszystkie odnośniki. efekt u mnie? z pozycji 5 strona spadła poza pierwszą setkę, potem po około miesiącu wróciła w okolice miejsca 11-15, aby ostatecznie znów zniknąć z pierwszej setki.

Lexy, mam szybkie pytanie, poniekąd w tematyce wpisu.
Czy stosujesz jako dodatkowe źródło linków pisanie tekstów i umieszczanie odnośników w serwisach takich jak artelis.pl ? Uważasz, że jest tego sens? Znasz ewentualnie serwisy podobne do artelis?

Przykład świeżego filtra który został nałożony na domenę 8 letnią z ruchem około 0,5 mln odwiedzin rocznie pozycjonowaną longtailowo dobrymi linkami i wspomagana SWL rotacyjny efekt top 3 na top 70 równe 3 miesiące filtr tylko na pozycje całość zachowywała się normalnie filtr zakończył się 21 lutego.

Mam wrażenie, że art to prowokacja 🙂 Nie mam w tym momencie czasu się rozpisywać z wyjaśnieniami tej tezy, więc kilka faktów:
– domena z historią, lecz z dłuższą przerwą parkingową
– 3-4 miesiące po ponownym uruchomieniu dopalona swl rotacyjnym (ilością zupełnie rozsądną – bez żadnych szaleństw).
Efekt: filtr +50 na 3 główne linkowane frazy. Stopniowe zdejmowanie swl (bez dodatkowego linkowania) i po 3 miesiącach nastąpił powrót pozycji.

Okazało się, że w moim przypadku to nie jest filtr. Strona zniknęła z wyników organicznych ponieważ pojawiła się w wizytówkach….
Coś nowego… tego jeszcze nie widziałem.

Dużo ciekawych informacji i wniosków.

Osobiście uważam, że nadal istnieją filtry za mocne linkowanie jednej frazy. Sam niedawno zostałem takim obdarowany.

Ciekawy artykuł. Chyba zrezygnuje z tej metody ( swl )

Witam, mam parę pytań, które myślę mogą pomóc nie tylko mi

Czy po usunięciu backlinków strona może powrócić na „normalne” pozycje a nie te z ostatniej strony?

Wrzucenie linka w header na dużym forum może być traktowane jak powielanie anchora? oraz czy jeżeli ze strony zostanie zdjęty tak duży filtr, że jest na końcu stron google to czy dobrze ją znowu podlinkować np na dużym forum, ale nie używać tego anchora na innych stronach?

Pozdrawiam

Damian jak najbardziej po usunięciu przyczyny filtra należy napisać do nich i filtr zdejmą, a nawet strona może się znaleść wyżej w wynikach wyszukiwania tak było w moim przypadku. Dobrze jest linkowac jak jest filtr, jak filtr ci zdejmą podskoczysz do góry. Tylko z umiarem

czemu google kara za backlinki ? nie rozumiem

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.