Google wypuszcza narzędzie do oznaczania niechcianych linków

Pamiętam, jak na początku utworzenia polskiego forum Google proponowałam wprowadzenie narzędzia do zgłaszania niechcianych linków. Wtedy nie było dużego zainteresowania tym tematem, ale od kiedy Google oficjalnie przyznało się do nakładania kar za tzw. nienaturalne linki, takich pytań było coraz więcej. Już kilka miesięcy temu narzędzie „Disavow links” pojawiło się w narzędziach dla webmasterów Bing. Pracownicy Google, pytani o wypuszczenie takiego samego narzędzia, nie zawsze byli zgodni w odpowiedziach – podczas gdy Matt Cutts wspomniał już o pracy nad tą opcją, John Mueller twierdził, że nie widzi potrzeby dla takiego udoskonalenia narzędzi dla webmasterów. Ale przejdźmy do konkretów…

W poniższym filmiku znajdują się szczegóły na temat opcji „Disavow links” w Google:

W dużym skrócie, aby przesłać żądanie zignorowania linków, należy:
1. zalogować się na swoje konto narzędzi dla webmasterów;
2. przejść do wybranej strony;
3. wejść w zakładkę Ruch -> Linki do Twojej witryny -> Źródła największej liczby linków -> Więcej, a następnie pobrać listę linków klikając w link „Pobierz listę”;
4. listę należy przejrzeć, zostawiając na niej wyłącznie te linki, których chcemy się zrzec, jak to nazywa samo Google;
5. mając gotową listę linków do zignorowania, wchodzimy na stronę www.google.com/webmasters/tools/disavow-links-main i wybieramy jedną ze stron.

6. klikamy „Linki zrzeczenia się”, a następnie „Wybierz plik”;

7. czekamy na reakcję. Może to potrwać nawet kilka tygodni, ponieważ wyszukiwarka musi najpierw odwiedzić zgłaszane strony. Matt ostrzega przed nieuważnym stosowaniem tego narzędzia, co może doprowadzić do zignorowania wartości wszystkich linków. Ewentualne późniejsze anulowanie zgłoszenia może również zająć trochę czasu.

Korzystanie z tego narzędzia jest zalecane osobom, które otrzymały powiadomienia o wykryciu nienaturalnych linków albo mają obawy o spadek pozycji w związku z Pingwinem. Po zgłoszeniu niechcianych linków i odczekaniu tych kilku tygodni, w czasie których Googlebot przeindeksuje zgłaszane adresy, należy dodatkowo wysłać zgłoszenie ponownego rozpatrzenia. Odpowiedzi na dodatkowe pytania o narzędzie „Disavow links” znajduje się w tym wpisie.

Przyznam szczerze, że mimo że sama kiedyś nalegałam na taką opcję, w tej chwili mam obawy co do tego, że brak zgłaszania „nienaturalnych” linków może być dla Google potwierdzeniem, że faktycznie sami je pozyskaliśmy i tym samym zasłużyliśmy na filtr. To jednak taka wstępna refleksja… czas pokaże, jak to będzie wyglądało. Tak się złożyło, że mam na czym przetestować nową opcję, bo kilka SEO blogów (w tym mój) zostało przez kogoś wybrane do testów na skuteczność zafiltrowania strony przez dopalenie jej śmieciowymi linkami.

A co Wy o tym myślicie?

//edycja:
Przygotowano już poradnik dotyczący korzystania z narzędzia disavow links w Google. Na jutro planowany jest również hangout na Google+ poświęcony temu tematowi. Jego organizatorem, jak również autorem poradnika, jest Dan Petrovic.

KATEGORIE: !Wyróżnione, Filtry i bany, Narzędzia SEO
Comments (34)

Linki jak linki, ale zgłoszenia od webmasterów dostarczą Google listę spamerskich stron i o to moim zdaniem im chodzi.

W tym momencie mamy ogromną przewagę nad „zwykłymi” webmasterami, dla których współpraca z GWT to czarna magia.

Odnośnie dopalania Twojego bloga to nie jesteś sama. Na „audyt seo” było dopalane co najmniej kilka blogow: moj, twoj, sebastiana i pewnie inne z top 10. Zauważyłaś jakiekolwiek zmiany pozycji w związku z tym dopaleniem? Bo ja nie.

Nie, pozycja ani drgnie 🙂

Zupełnie przypadkowo wszedłem tutaj po raz drugi i się niestety zawiodłem. Jak rozumiem, potraktowałaś mnie, jak i bloga (nowy, nie ma historii, ale jest tematyczny) jako niepewne źródło, oznaczając je nofollow. Rozumiem, że traktujesz moją osobę, tak samo jak tych, co chętnie zamiast imienia i nazwiska wpisują „adwokat Poznań”. Bez odbioru.

Kamil rządzisz 😉 Jeszcze nie testowałem tego rozwiązania, ale na pewno sprawdzę o co dokładnie w nim chodzi.

Fajne narzędzie. Szkoda tylko, że nie wiem które linki są dobre a które złe? Czy jest jakiś poradnik do tego albo czy powstanie?

Co do tego narzędzia, martwi mnie jednak opóźnienie z jakim może działać. Wg informacji, jego skutki możemy odczuć dopiero po 6 miesiącach. To trochę długo.

Kamil, nie wiem czy wiesz, ale WP automatycznie dodaje nofollow do linków w komentarzach. Żeby zdjąć nofollow, trzeba napisać większą liczbę komentarzy, ale wszystko odbywa się automatycznie.

PS Komentujesz wpisy u mnie tylko dla linka dofollow? Może złym pomysłem była wtyczka umożliwiająca zdobycie tutaj takich linków.

Tak Marta, jedyne o czym myślałem, to, aby zacząć zdobywać na twoim blogu linki dofollow, tak jakbym nie miał nic innego do roboty, a twój blog czytał od deski do deski.

Niestety, nie miałem pojęcia, że masz wprowadzone ustawienia, które dla często czytających dodają link bez nofollow. Nie wmawiaj mi proszę, że moim zamiarem było tylko „wykorzystanie” tego bloga, dla podniesienia rankingu mojego serwisu. Nie mam parcia na szkło. Wypraszam sobie.

Pozdrawiam.

Nie musiałeś wiedzieć o wtyczce. Wystarczy, że znaczna większość WordPressów automatycznie dorzuca nofollow do linków.

„nie miałem pojęcia, że masz wprowadzone ustawienia, które dla często czytających dodają link bez nofollow”
To skąd ten zarzut o nofollow w Twoim linku?

Kamil jest miszczem 😉 Na razie czekam z testowaniem tego narzędzia. Jakoś nie chce mi się wierzyć, aby to działało hop-siup, ale jestem bardzo ciekaw efektu…

„Nie musiałeś wiedzieć o wtyczce. Wystarczy, że znaczna większość WordPressów automatycznie dorzuca nofollow do linków.”

– sądzisz, że po 3 latach nie wiem o tym?

„To skąd ten zarzut o nofollow w Twoim linku?”

– Wypowiedziałem się gdy spostrzegłem, że jeden z panów pod moim komentarzem miał link dofollow, co mi się osobiście nie spodobało, dlatego wyraziłem SWOJĄ opinię. Wyjaśniłaś już DLACZEGO on ma dofollow natomiast ja, czy inni już NIE. Przyjmuje twoją argumentację – twój cyrk twoje małpy.
Nie denerwuj się, miałem ochotę to napisać, ponieważ udostępniasz możliwość komentowania twoich postów. Zatem korzystam z tego i wyrażam swoją opinię. Jeżeli dyskusja o zabarwieniu negatywnym jest u ciebie nie mile widziana, szczególnie pod TWOIM adresem to przepraszam ciebie bardzo.

Kamil, robi się niepotrzebny offtopic , czekamy na wyniki testu. Czy nowe narzędzie spełnia zadania przed nim postawione i nie jest to kolejny koń trojański

1. Tego typu testy będą potrzebne w najbliższym czasie. Narzędzie jest nowe i tak naprawdę do końca nie wiadomo jaki będzie skutek jego działania. Możemy być pewni że za jakiś czas na forach i blogach będą się mnożyć tematy w których pojawią się jakieś wnioski. Na razie lepiej niech ktoś inny potestuje 🙂

2. Po wprowadzeniu narzędzia nasuwa się oczywisty wniosek: Google oddaje większą kontrolę nad stronami użytkownikom. Dlaczego? Dane zebrane w ten sposób na pewno zostaną prędzej czy później uwzględnione w algorytmie. Internet zacznie się sam czyścić…

Chciałbym zwrócić uwagę na ciekawą kwestię odnośnie zamieszczonego poradnika do tego narzędzia: skąd roboty Google mogą wiedzieć, które artykuły są słabej jakości, które linki są płatne, które profile są fałszywe itd. Oraz co najważniejsze skąd my mamy wiedzieć, co z powyższego Google uznało właśnie za szkodliwe?

Mnie to wygląda na to, że google chcę na użytkowników zrzucić „czarną robotę” odnośnie badania jakości linków.
Teraz mogą testowo – dać filtra na KAŻDĄ witrynę, nawet bez względu na to czy łamała jakieś zasady czy nie. Np. taki random filtr dla 0,001% witryn. I potem biedni ludzie będą „na siłę” usuwać jakieś linki – a oni sobie będą analizować to co ludzie dają im na tacy.

Ogólnie filtr za linki to jest nieporozumienie i daje googlowi możliwość manipulowania tym jakie strony są w topie do woli.

witam.

Czy ktoś kto zgłaszał o ponowne rozpatrzenie po zrobieniu tych linków, mógłby napisać czy google coś odpowiedziało i jeśli tak to co ? 😉

Czy jezeli zostal wyslany raport kilka dni przez wprowadzeniem mechanizmu „disallow links”
to bedzie on rozpatrzony wg starego trybu?

@yb
Tak, w tym przypadku nic się nie zmienia.

W zasadzie rzadko kiedy będzie można z pełną świadomością powiedzieć czy ściąganie linków ma wpływ na pozycję, chyba, że robimy to na stronach, na których nic poza dodaniem linków i ich ściągnięciem się nie zrobi (od początku). Zawsze może być i powinno podejrzenie, że dany skok pozycji może pochodzić od innych działań, wcześniejszych.

Ja podzielam obawy @Tester, że skorzystanie z disavov (idea sama w sobie dobra) sprowadzi uprzejmą uwagę „ekspertów google od obiektywnego i sprawiedliwego rankingu” na pozostałe linki właściciela strony. Chyba jakoś trustrank firmy google spada. Korzystanie z tego narzędzia to wg mnie ostateczna ostateczność.

@Lexy, czy sama próbowałaś korzystać z tego narzędzia? Przyznam, że mam do czynienia z jedną stronę, w której przypadku pojawił się komunikat w narzędzia dla webmasterów, że ma nienaturalne linki. Disavow niestety nie pomógł w tej sytuacji i po ok. dwóch tygodniach przyszła informacja, że wciąż te nienaturalne linki są. Czy mogłabyś podpowiedzieć, jak wyjść na prostą z taką stroną? Czy budowanie nowych, wartościowych linków i dobrej treści wystarczy?

Tak, korzystałam już z tego narzędzia i obawiam się, że bez niego nic się nie zdziała.

Budowa nowych linków nie wystarczy? Wiem, że ciężko to przewidzieć, ale pytam o opinię:)

Tak jak napisałam, bez skorzystania z narzędzia nie da rady,.

A czy zdarzało Ci się korzystać z tego narzędzia bez zgłaszania wniosku o ponowne rozpatrzenie strony? Wg opini z PiO to nie ma sensu i nie zadziała ale logiczne wydaje się że w przypadku gdy kara jest nałożona algorytmicznie lub gdy chodzi o profil linków to wniosek o ponowne rozpatrzenie jest bezsensowny skoro nikt ręcznie sajta nie odstrzelił?
Mam taką sytuację że na pewne hasło podstrona z tej domeny z kilkunastoma linkami na inne niż pozycjonowane hasło przegania stronę głowną która ma kilkaset linków… i około 30-40 %. Nie było żadnych powiadomień z GWT.

Właśnie zgłosiłem kilka linków (około 10) dla domeny, która od 5 miesięcy ma założony filtr.
Jeśli zobaczę jakieś zmiany, to dam znać.

30 maja strona zaczyna się pojawiać w wynikach. Zniknęła z nich około połowy stycznia.
Strona była całkowicie przerobiona i została dodatkowo podlinkowana.
Ruchy w wynikach są na razie niewielkie ale rzędzie pomogło.
Dzięki

10 linków, nawet kupionych, nie mogło jej tak szkodzić żeby decydować o filtrze ;). No chyba że wogóle było ich ze 20 :D. Raczej to zasługa przerobienia i podlinkowania albo po prostu filtr był czasowy i przestał działać. Przy filtrach algorytmicznych dużo dobrych linków pomaga nie mniej niż usuwanie starych. A zgłaszałeś witrynę do ponownego rozpatrzenia?

Nie wiem tylko po co wskazywać pojedyncze linki zamiast całe domeny. Po pierwsze trudniej znaleźć podstrony z linkami, niż dowiedzieć się na jakich stronach ogólnie to jest. Po drugie jak może na jakiejś domenie być link, którego nie chcemy a na innej podstronie link ma być już fajny i się go nie pozbywamy..
myslę, że najłatwiej zrobić to tak, że w GWT mamy wypisane wszystkie domeny z linkami do naszej strony, następnie lecieć tak:
domain: strona1.com
domain: strona2.com

A strony, które wybieramy, to wszystkie precle i katalogi o wartości n/a, precle to też z page rank = 0 katalogi o wartości PR = 0 też usuwać, bo nie ma dużego ryzyka w ich utracie, gdyż nawet jeśli nie szkodzą, to należą do linków o tych najniższych jakościach.
Kilka wpisów na forach i blogach nadrobi utratę dwustu katalogów nie posiadających page rank.
A co do swl, to trzeba wiedzieć osobno, gdzie i ile linków było kupowanych. Zwykle nie ma ich tak dużo, gdyż one kosztują. A lista zakupów powinna być nam znana

Marto, zastanawiam, się czy to w ogóle ma znaczenie – aktualizuję właśnie plik disavow z ubiegłego roku. Wielu spośród zgłoszonych wówczas stron nie ma już w sieci. Pozostawić ich adresy w pliku, czy lepiej usunąć, by był krótszy?

„Pozostawić ich adresy w pliku, czy lepiej usunąć, by był krótszy?”
Jeśli nie istnieją i zostały usunięte także z danych o linkach z GWT, to można usunąć. Chociaż wygodniej będzie to zignorować i po prostu dodać do pliku nowe adresy.

A jak jest z powrotami z złej pozycji po zrzeknięciu się takich linków. Zauważył ktoś zmiany w jakimś sensownym czasie powiedzmy do 5 miesięcy? Pamiętam na jednej stronie pozbyłem się tysięcy syfu do czysta i nawet po roku nic nie drgnęło. Strona dobrze działała, potem ktoś ją oblał linkami i mimo ich wykluczenia nic się nie zmieniło po ponad roku.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.