Jak może przebiegać procedura RR?

Czas na kolejny wpis z serii SEO refleksji. Wynika on z rozmowy na FB, w której to padły stwierdzenia m.in. na temat tego, że SQT nie czyta w ogóle treści zgłoszeń o ponowne rozpatrzenie, że nawet usunięte linki należy dopisać do disavowa, zamiast np. spingować itp. – mniejsza o szczegóły. Napiszę, jak ja podeszłabym teraz do tematu analizy linków i wysłania RR.
Pozytywna odpowiedź na zgłoszenie o ponowne rozpatrzenie

Etap 1 – analiza linków

Niektórzy upierają się przy tym, że do analizy linków wystarczą dane z GWT. Są wśród nich jednak osoby, którym zdjęcie filtra zajęło wyjątkowo dużo czasu i prób, dlatego dla mnie jest to sugestia, że takie postępowanie może nie być do końca prawidłowe. No dobrze, sami Guglarze sugerują opieranie się tylko na ich danych, ale wyobrażacie sobie, że mogliby wskazać komercyjne narzędzie, z którym nie współpracują? 😉 Pamiętajmy, że w przykładach nienaturalnych linków, jakie podaje nam Google, można czasem znaleźć te spoza bazy w GWT. To z kolei sugeruje, że dane widoczne dla nas w GWT to tylko ułamek danych gromadzonych przez wyszukiwarkę. Zresztą wyciągnijmy sobie raporty z kilku narzędzi i zobaczmy, jak z tygodnia na tydzień do GWT dochodzą linki, których część znalazły już inne softy.

Czemu zatem nie podejść do analizy bardziej kompleksowo, uzupełniając te dane raportami z narzędzi takich jak Majestic SEO czy Ahrefs? Oba posiadają opcję wygenerowania darmowego raportu dla zweryfikowanych domen – w Majesticu jest to trochę zagmatwane, dlatego tu można znaleźć instrukcję, w Ahrefsie wystarczy ta zakładka.

Niedocenianą przez wielu zaletą tych narzędzi jest to, że od razu dają nam pełne dane na temat strony docelowej, anchora i wiele innych parametrów, których nie dają nam dane z GWT. Dlatego aby przygotować plik do analizy, zalecam zgromadzić wszystkie te dane w 1 pliku, dodać kolumnę z nazwą domeny (będzie potrzebna do sortowania), skopiować do niej kolumnę z adresami linków, a następnie skorzystać z funkcji Excela pozwalających na skrócenie adresów stron z pełnych na same domeny.
excel
excel-2
Usuńmy też „www” z linków, a http:// zamieńmy na domain:, żeby po skończonej analizie można było część linków wrzucić do osobnego pliku disavow.

Na podstawie tak przygotowanych danych, wystarczy analizować po dosłownie 1 linku na domenę, nie musząc nawet odwiedzać wielu stron (anchory często mówią same za siebie, a na niektórych linkowanych podstronach można od razu wrzucić 404 i pominąć analizę linków prowadzących do nich), co musielibyśmy robić mając dane wyłącznie w postaci adresów stron. Szczegóły na temat sposobu analizy linków opisałam już w artykule „Jak rozpoznać toksyczne linki„, dlatego przejdźmy dalej.

Etap 2 – Działania

Z doświadczenia wiem, że odrzucane są zgłoszenia, w których analiza została wykonana prawidłowo, ale ograniczono się do zgłoszenia pliku przez narzędzie do zrzekania się niechcianych linków. Kilkakrotnie bazowałam na tym samym pliku, bez dorzucania nowych linków wyłapanych przez narzędzia, ale dopiero po usunięciu części z nich udawało się zlikwidować filtr. Dla mnie było zatem jasne, że muszę pokazać próby naprawienia sytuacji, zamiast ograniczyć się do analizy i disavowa. Fizyczne usunięcie jest wg mnie ważniejsze, a sam disavow to tylko ostatnia deska ratunku w przypadku linków, których nie da się zlikwidować.

Dlatego aby mieć szansę na pozytywne rozpatrzenie zgłoszenia, należy pokazać swoje próby uporządkowania profilu linków, a nie wyłącznie wgrać plik i liczyć na załatwienie sprawy w ten sposób. Pamiętajmy, że po drugiej stronie stoi osoba zafiksowana na punkcie wytycznych, która chce mieć przynajmniej nadzieję na to, że wyciągniemy wnioski z naszej wpadki. Postawmy się na jej miejscu – czy chcąc osiągnąć jakiś cel, np. doprowadzenie do zmiany strategii linkowania, odpuścilibyśmy ten temat lekko, czy chcielibyśmy zostać zapewnieni o planowanej zmianie? Tak tak, to coś na zasadzie wyspowiadania się ze swoich grzechów i obiecania poprawy 😉

Etap 3 – kolejka moderacji

To punkt, w którym większość opieram na zasadzie „wydaje mi się”.

Zacznę od tego, że Guglarze zapewniają o tym, że zgłoszenia są faktycznie czytane i dlatego należy się do nich przyłożyć. Jednak gdzieś kiedyś trafiłam na wypowiedź dotyczącą tego, że niektóre zgłoszenia są odrzucane automatycznie i pewnie większość z nas na miejscu Google próbowałaby całość przynajmniej częściowo zautomatyzować.

Moim zdaniem procedura rozpatrywania zgłoszeń może się odbywać w sposób półautomatyczny. Jak miałoby to wyglądać? Na przykład tak, że w momencie otrzymania przez Google naszego zgłoszenia, następuje jego automatyczna weryfikacja i sprawdzane jest, czy podjęto jakiekolwiek działania, a jeśli tak, to czy są one wystarczające do tego, aby zgłoszenie trafiło do pracownika – w końcu automat może się mylić. Wtedy też pracownik ocenia, czy może zdjąć filtr, czy nie.

Automat nie musi działać już przy pierwszym zgłoszeniu, bo wtedy nie dałoby się poinformować np. o tym, że linki dodała konkurencja, albo że kupiło się używaną domenę – takie zgłoszenia non stop byłyby odrzucane. Być może działa on albo przy kolejnych zgłoszeniach oprócz pierwszego, albo przy stronach lub na kontach, które już wcześniej w jakiś sposób podpadły, np. na danym koncie jest podpiętych wiele zafiltrowanych, a nawet zbanowanych stron, albo jest to konto dość świeże.

Jeśli jednak takiego automatu nie ma, to z czego miałoby wynikać odrzucanie części zgłoszeń bez ich czytania? Nie chciałabym wierzyć w losowość takich działań. Co myślicie na ten temat?

KATEGORIE: Filtry i bany, SEO refleksje
Comments (14)

a co uważasz o komunikacie: Przeanalizowaliśmy Twoją prośbę o ponowne rozpatrzenie zgłoszenia witryny? W działaniach ręcznych nadal widnieje informacja o: Nienaturalnych linkach do Twojej witryny.

Informacji o komunikacie mało, z tego co widzę część osób uważa, że wniosek jest ciągle w rozpatrzeniu?

ogólnie trochę to słabe, wole standardowe: tak zdjęliśmy, nie – masz ciągle filtra.

Z doświadczenia wiem, że niestety usunięcie ręczne linków nie zawsze daje przewagę. Jedna ze stron została oczyszczona ręcznie ze znacznej części szkodliwych odnośników, reszta została wpisana w disavow.txt. Na reakcję czekam 3 tydzień. Z kolei strona, z której filtra pozbyłam się w kilka dni, bazowała wyłącznie na disavow.txt bo ręcznie nie dało się usunąć ani jednego pliku (w spadku po poprzedniej firmie pozycjonującej, dostałam setki linków z precli i zapleczówek, nie do ruszenia).

Ja też wolę jasne komunikaty 😉 To co opisujesz, to może być opóźnienie w odświeżeniu informacji w GWT w zakładce „Działania ręczne”, ale pewności co do tego nie mam. Sprawdzałeś tę zakładkę po upływie co najmniej doby?

Tak, minęło już nawet trochę więcej niż doba.

Dzięki, kolejny przepis na lodówkę 🙂
A serio to wspomniałaś o pewnym drobiazgu którego niedawno nie brałem pod uwagę przy pisaniu listu do Google. Chodzi o stworzenie nowego konta i wysłanie z niego prośby o rozpatrzenie. Odpowiedź była „z automatu” lub przynajmniej tak wyglądała. Po odczekaniu 2-3 tygodni i przesłaniu ponownego zgłoszenia – odpowiedź pozytywna (to był przypadek z zakupem domeny nowej domeny).

Tak się zastanawiam, czy nie lepiej w niektórych przypadkach np takich o jakich pisze Ewelina wyżej kupić nową, niezanieczyszczoną domenę i zacząć pracę od nowa. Przecież z tego co piszecie, to wyjście z jakiegoś grubszego bagna jest drogą przez mękę z brakiem pewności na sukces.

Najbardziej denerwuje mnie to, że obrywamy nawet wtedy kiedy nie stosujemy żadnego linkowania. Mam kilka stron, których nie linkowałem. Chuchałem, dmuchałem i wydawać by się mogło, że są bezpieczne i co? Ano wielkie google uważa, że do stron prowadzą nienaturalne linki. I teraz muszę udowadniać, że nie jestem wielbłądem i wysyłać co chwilę nowy disavow.txt

Inna sytuacja – użytkownicy na forach dodają linki do jednej z moich stron najczęściej w postaci adresu. Sami dodają, bo uważają, że strona jest przydatna. Oczywiście google uważa, że są to nienaturalne linki.

Kolejna sytuacja – google uważa, że do stron prowadzą nienaturalne linki – tylko może sprawdziliby swoje bazy przed wysłaniem takiego komunikatu. Dlaczego? Bo kiedy sprawdzam linki widzę, że albo są z atrybutem nofollow albo strony, na których mają występować zwracają 404 lub ich po prostu nie ma. I co wtedy?

Co ciekawe – strony spamowe, które intensywnie linkuję z różnego śmiecia trzymają się jak złoto. Zero komunikatów, zero spadków, nawet delikatne wzrosty.

I bądź tu mądry. Pluje sobie w brodę, że sami to sobie zgotowaliśmy. Nie ma alternatywy. Tak się zachwyciliśmy kilka lat temu google, że nasze rodzime produkty upadły. I teraz cierpimy. Nawet jeśli jesteśmy niewinny.

Czy dobrze napisany RR ma prawo być odrzucony ? Mam na myśli sytuację taką, w której zgłoszę wszystkie śmieciowe linki, a google i tak będzie miało to gdzieś ?

Niestety google zaczyna nas powoli doprowadzać do lekkiej paranoi ze swoimi działaniami. Zgadzam się z Tobą Axel niestety.

Nie pojmuję po co zgłaszać linki ?
Kiedyś nie było narzędzia do zgłaszania toksycznych linków i dawało się wyciągnąć strony z bana.

A więc po co zgłaszać, Przestań zajmować się domeną a sama wróci na pozycje.

Pytanie kiedy wróci? Z jednym serwisem czekam ponad 6 miesięcy i nie wraca 😉 Nic nie robię i czekam. Pytanie jak długo?

Mam pytanie o kolejne zgłaszanie pliku DT. Czy umieszczam w nim poprzednio zgłoszone linki oraz nowe czy tylko nowe?

Po ilu dniach ściągnięcia filtra pozycje powinny się polepszyć?

Ja w sprawie excell. Gdy robię w ten sposób co napisałaś: zamień \* to obcina mi url’e do http:
co robię źle ?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.