O tym, jak dostałam filtr za linki wychodzące z niezaindeksowanych stron

W ostatnim artykule o mitach SEO wspomniałam o tym, że Google zlicza linki z niezaindeksowanych stron (z metatagiem noindex). Ciekawiło mnie, czy takie linki są traktowane w identyczny sposób jak te z pozostałych stron i – jak się okazało – tak właśnie jest, a więc również za nie można dostać filtr.

Czy wiesz, że w ciągu 2 minut możesz uzyskać dostęp do poniższego materiału?
Szkolenie: Zarabiaj na audytach SEO

Sytuacja wyglądała następująco… na jednej ze stron wrzuciłam parę artykułów z Artelisa (7 tekstów na 101 łącznie). Jak można się domyślić, w większości takich tekstów znajdują się linki wychodzące wstawione w sposób typowy dla precli. Biorąc pod uwagę zarówno fakt powielania treści, jak i tego, że to nie ja wybierałam jakie linki chcę zamieścić w artykułach i jak one będą wyglądać, ustawiłam dla tych podstron metatag noindex (ale bez nofollow).

Wszystko było w porządku do początku września, kiedy na stronę został nałożony filtr za linki wychodzące. 6 września wszystkie frazy poleciały poza top 100 – na wykresie widać jedną z mniej konkurencyjnych zajmujących wcześniej 2 pozycję.
Spadek pozycji w wyniku nałożenia filtra
Dzień później otrzymałam powiadomienie w narzędziach dla webmasterów.
Powiadomienie o wykryciu nienaturalnych linków wychodzacych
W pierwszej kolejności usunęłam linki z sidebara, chociaż dziwiło mnie ukaranie strony właśnie za nie. Linków było niewiele, wszystkie tematyczne, prowadzące m.in. do kilku tematów na forum tematycznym. Rezultat – zgłoszenie odrzucone, strona nadal naruszała wytyczne. W dalszej kolejności zajęłam się podstronami z wpisami z Artelisa. Co prawda już wcześniej pamiętałam o tym, że dodałam na nich noindex, ale dopiero teraz dodałam także nofollow i wysłałam kolejne zgłoszenie.

19. października otrzymałam systemową informację o tym, że przyjęli zgłoszenie, 20. pozycje zaczęły wracać na stare miejsce, a 23. dostałam potwierdzenie zdjęcia filtra.
Potwierdzenie zdjęcia filtra
Zastanawia mnie, czy decydująca była tu jakość stron docelowych (były to zarówno porządne strony, jak i strony sklepów z PP albo z ofertami produktów) czy sam sposób linkowania typowy dla precla. Każdy z artykułów zawierał stopkę linkującą do Artelisa jako do źródła – akurat to jest moim zdaniem zupełnie naturalne działanie, które jest także zalecane przez samo Google w celu wskazania wyszukiwarce oryginału tym bardziej, że link kierował do konkretnego artykułu, a nie np. strony głównej. Oprócz tego w tekstach znajdowało się od 1 do nawet 6 linków z anchorami mocno zoptymalizowanymi pod kątem SEO. I stawiałabym bardziej na to.

Niektórzy właściciele precli po nałożeniu filtra na ich strony zastanawiają się nad tym, czy nie zmniejszyć liczby linków dopuszczalnych w jednym tekście, albo nie wprowadzić większej liczby artykułów bez odnośników dla większego zróżnicowania. Niestety mój przypadek pokazał, że filtr można dostać nawet mając dosłownie kilka takich tekstów z nienaturalnymi wg Google linkami – tylko w 5 na 7 tekstów znajdowały się linki wychodzące. Ciekawi mnie zatem, czy komukolwiek udało się odfiltrować precla innym sposobem niż całkowitym usunięciem linków lub dodaniem do nich wszystkich nofollow.

KATEGORIE: Case study, Linkowanie, Testy SEO
Comments (27)

Jak dla mnie wygląda raczej na to, że moderator nie przyglądnął się temu, że podstorny są wyłącozne z indeksu, zobaczył strone, do kodu nie patrzył, karę walnął i poszedł dalej. Full-wypas 🙁

Raczej nie. Już w zgłoszeniu wspomniałam o tym, że jedynymi linkami oprócz tych z sidebara są te z artykułów z noindexem. Dopiero jak napisałam, że dodałam tam nofollow, podziałało.

Zerknij sobie na wyniki testu z mitów, które podlinkowałam. Noindex powinno mieć nazwę nodisplay, bo nie zakazuje samej indeksacji strony tylko jej wyświetlania w SERPach :/

Weź poprawkę na to, że moderator nie musi być osobą techniczną i może mieć tylko podstawowe informacje na co zwracać uwagę. O „nofollow” mogli mu powiedzieć na szkoleniu (i może mieć wtyczkę podkreslającą taki parametr), a o noindex może nawet nie pomyśleć. Mógł np. dostać do zweryfikowania grupę witryn, w tym tą, o której mowa i zwyczajnie wejść na główną, a potem przeklikać kilka kolejnych podstron.

Ja odfiltrowałem jednego precla usuwając słabe artykuły, usuwając część linków z artykułów oraz pozmieniałem anchory na bardziej zgodne z tematyką strony do której prowadzą. Zostawiłem cześć takich typowych SEO prowadzących do porządnych stron. Zdjęli w ciągu dwóch dni.

Dobrze, że trafiłem na ten wpis bo właśnie chciałem umieścić u siebie kilka wpisów z Artelis.
Dotychczas sądziłem, że noindex na duplikatach z linkami całkowicie chroni stronę przed jakąkolwiek karą ze strony Google.

Możesz napisać, czy artykuły te były zgodne z tematyką Twojej strony?

@Wilk
Moderatorzy w Google to osoby techniczne. Patrz na wymagania o pracę w SQT.

„czy artykuły te były zgodne z tematyką Twojej strony?”
Oczywiście.

@Crosmi – kiedyś był przeicek dokumentu z intrukcją dla moderatorów i jakosć tego dokumentu sugerowała co innego, możliwe, że mają na rożnych stanowiskach i do różnych zadań różne osoby albo np. wspierają sie pracą zewnetrzną do wstępnej selekcji.

Spoko, fajna rozkminka. A po co odfiltrowywać prelca ? Ruch rozumiem jakiś miałaś czy co ?

Hej pozdrawiam Lexy za pracę jaką tu robisz na blogu 🙂 (kawał dobrej roboty). Jeśli chodzi o narzędzia google nie mam ich podłączonych uważam je za zbyteczne nie raz google wysyła „coś ” żeby ściągnąć linki w/g mnie to bzdura… Jesli to tylko presell pages filtrem bym się nie przejmował hehe chyba że coś źle zrozumiałem

Bartezz i adam – to nie precel 🙂

Google to ciekawa bestia:
– disallow w robots.txt na katalog zawierający podstronę testową, zapisującą odwiedziny
– podstrona testowa – noindex, nofollow (meta tag)
– noindex, nofollow (meta tag) ze strony zawierającej link w postaci samego tekstu (czyli nofollow) w treści.

WYNIK:
66.249.71.162 | Mozilla/5.0 (compatible; Googlebot/2.1; +http:// www. google. com/bot. html) x2

Tak z ciekawości chciałem sprawdzić, czy to powstrzyma Googlebota. Podstrona oczywiście nie jest zindeksowana, ale log jest, że czytał…nie wiadomo co dalej z nią zrobił. Ma ktoś pomysł jak skutecznie zablokować Googlebota, no oprócz zwracaniu mu błędu 404. Chociaż, ciekaw jestem, czy czyta treść strony po zobaczeniu, że zwraca ten błąd 😉

To mnie trochę zdziwiłeś, bo blokada w robotsach powinna na 100% uniemożliwić botowi wejście.

Wracając do podążania za linkami z noindex to nawet mój ulubieniec John Mueller na jednym z HO pokazał taki rysunek – http://panel.seostation.pl/images/posts/83/linki-google.png Tylko tam gdzie jest przekreślone, link nie przekazuje żadnej mocy.

Lexy, Google we własnym opisie robots.txt napisało, że:
„Nie można narzucić bezwarunkowego przestrzegania zapisów pliku robots.txt” – dotyczy to głównie innych wyszukiwarek, ale:

„Google nie będzie pobierać ani indeksować zawartości stron zablokowanych w pliku robots.txt, ale może indeksować te URL-e, jeśli zostaną znalezione na innych stronach w sieci.” Co dokładnie zrobił Googlebot, nie wiem. Strony w indeksie, nie ma, ale widzę tylko, że na niej był. Poza tym, z założenia, link (nofollow) prowadził właśnie z innej strony w sieci i mógł po nim przejść.

Precle lecą głównie za wielotematyczność i stosowanie tych samych skórek. Jeśli precel jest tematyczny, to tylko ręczna moderacja może go załatwić, bo na pewno nie działanie automatyczne.

Lexy mogłbym prosić o aktualizację tego:
„John Mueller na jednym z HO pokazał taki rysunek – http://panel.seostation.pl/images/posts/83/linki-google.png Tylko tam gdzie jest przekreślone, link nie przekazuje żadnej mocy.” Bo już nie działa

Ja mam filtra takiego samego jak ty od 3 miesięcy na stronie bankowe-konta.info.pl , pousuwałem wszystkie linki ze strony usunąłem treść wstawiłem nową, itp, pousuwałem linki do strony z ostatnich 3 miesięcy, i nie zdjęli mi filtra, nadal jest niezgodna ze wskazówkami… bardzo problematyczne to google jest.. nie wiadomo oco im chodzi… powinni wytłumaczyć co jest problemem

To w końcu usunąłeś linki Z czy DO Twojej strony? Ja nadal widzę wychodzące linki dofollow.

Odpowiem jak typowy programista – u mnie działa 😉

tak usunąłem ale jak nie zdjęli mi filtra to wstawiłem z powrotem 🙂 bo wydaje mi się że zawsze jakąś moc przekaże strona na inne strony, a co do filtra to nie mam już pomysłów jak to naprawić.. może problemem jest strona że po prostu przekierowuje na strony banków

słowa kluczowe które były na pozycjach 1,2 i 3 czy wyleciały poza 50-tke w google, czy jak będę normalnie linkował to strona podniesie swoje pozycje? czy przez ten filtr już nie ma szans na top3 dopóki nie zostanie zdjęty??

@adrian Pytanie retoryczne… im więcej czytam o filtrach, stwierdzam, że to naprawdę staje się jak wróżenie z fusów. Przeczytałem blog zgreda, ale w niektórych przypadkach wychodzi na to, że trzeba usunąć 90% linków. Tylko pytanie, czy jest sens, jak część fraz się trzyma.

Wydaje się że warto dawać linki do stron mocnych i z takich zdobywać. Google ostatnio bardzo dziwnie traktuje wszystko. Strach jest nawet pozycjonować.

Ostatnio popularną formą pozycjonowania są linki masowo tworzone z profili popularnych stron społecznościowych. Myślę, że takie profile utworzone pod sam link bez żadnego contentu są tak samo spamem, jak linki z małowartościowych niezaindeksowanych stron. Jeden dobry link jest dużo bardziej wartościowy niż sto niskiej jakości

Ja akurat o każdym masowym sposobie na linki wypowiem się tak samo – nie warto 😉

Trzeba byc ostroznym w działaniach SEO

Zawsze mnie trochę dziwi brak precyzji w wytycznych Googla, mam wrażenie, że czasem nie są do końca precyzyjne, a kary dotkliwe, ale cóż, to ich specjalność, więc nie nam oceniać.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Copyright 2017 Lexy's SEO blog. All Right Reserved.