Filtry Google – wywiad z Bartkiem, Eweliną, Mariuszem, Mikołajem i Pawłem

Temat filtrów nie schodzi z tapety, od kiedy Google oficjalnie przyznało się do ich nakładania i zaczęło je rozdawać masowo. Bo, jak pamiętamy, 5 czy 10 lat temu Google – wg oficjalnego stanowiska – nie stosowało kar tego typu, nie licząc kilku wyjątków głośnych akcji, np. kary za SWLe dla J.C.Penney. Postanowiłam zatem przeprowadzić krótki wywiad z kilkoma osobami, które na co dzień mają styczność z filtrami, pomagając przy ich likwidacji.

Z jednej strony możecie dzięki temu dowiedzieć się, na ile powszechnym problemem są filtry i jak trudną pracą są dotyczące ich konsultacje. Z drugiej strony będziecie wiedzieli, do kogo odezwać się w przypadku problemów ze swoimi stronami.

Marta Gryszko:
1. Kiedy po raz pierwszy mieliście styczność ze zdejmowaniem filtrów?
Bartosz Góralewicz
Bartosz Góralewicz:
Kiedy pracowałem nad klientami na „pozycjonowanie z rozliczeniem za top 10” jakiś czas temu, pomagaliśmy klientom w wyjściu z Manual Penalty. Było to raczej proste, ponieważ najczęściej znaliśmy historię klienta i mogliśmy łatwo mu pomóc.
Ewelina Szczecińska
Ewelina Szczecińska:
Na potrzeby nowo pozyskanego Klienta, który przyszedł do mnie ze stroną potwornie zaniedbaną – i pod względem wizualnym, jak i treści czy linków. Wiedziałam, że serwis w tym stanie otrzyma filtr ręczny i jest to tylko kwestia czasu, zaczęłam więc od razu działać, usuwając najszkodliwsze (w mojej ocenie) linki, przebudowując całą stronę (pod kątem użyteczności – miała też cieszyć oko i powstrzymywać przed „uciekaniem” z niej, co się udało). W trakcie prowadzenia prac przyszło powiadomienie o filtrze, ale byłam już w połowie działań, więc po ich zakończeniu opisałam całą sytuację i przesłałam odwołanie.
Mariusz Kołacz
Mariusz Kołacz:
Pierwszy raz z kwestią zdjęcia filtru miałem do czynienia w 2011 roku, gdzie jedna z prowadzonych przeze mnie stron została zaatakowana przez nieuczciwego konkurenta. Wtedy zdjęcie kary ze strony dotkniętej depozycjonowaniem było praktycznie niemożliwe, nie można było nawet skorzystać z narzędzia do zrzekania się szkodliwych linków, albowiem jeszcze nie powstało. Pierwsze starcie z filtrem zakończyło się porażką, która jednak była dla mnie dużą nauką i pozwoliła opracować a następnie wdrożyć w życie nowe skuteczne procedury (skrypty/programy) związane między innymi z monitorowaniem witryn.
Mikołaj Szczepaniak
Mikołaj Szczepaniak:
W kwietniu 2012 roku ok. 5% pozycjonowanych stron ucierpiało w związku ze zbyt agresywnym linkowaniem. Od tego czasu sporo się zmieniło. Pojawił się Disavow Tool, Google bez pytania informuje o nienaturalnych linkach przychodzących itd. Od półtora roku mam do czynienia niemal wyłącznie z filtrami ręcznymi.
Paweł Gontarek
Paweł Gontarek:
Pierwszy raz miałem styczność z filtrami, na ile moja pamięć Mnie nie myli, w 2007-2008 roku kiedy zajmowałem się pozycjonowaniem swoich własnych stron finansowych. Były to algorytmiczne za upychanie słów kluczowych, programy stowarzyszeniowe. Wtedy „karę” dostawały tylko moje własne strony. Dopiero od mniej więcej 2012 roku zaczęła się zabawa z filtrami algorytmicznymi, których zleceniodawcami byli klienci. Wtedy też pierwszy grubszy „ręczny” – trwał 10 miesięcy.
Marta Gryszko:
2. Jak obecnie wygląda Wasz dorobek w zakresie zdejmowania filtrów?
Bartosz Góralewicz
Bartosz Góralewicz:
Obecnie nie pracuję już na rynku polskim, jako nasz największy sukces, po 3 miesiącach udało nam się ściągnąć Manual Penalty dla lendera „Payday Loans” w UK (odpowiednik polskiego Providenta). Dla osób „wtajemniczonych” jest to jedna z trudniejszych nisz co opisałem chociażby tutaj. Niestety pozycje po tych 3 miesiącach spadły dość znacznie i aktualnie pracujemy nad ich poprawą.
Ewelina Szczecińska
Ewelina Szczecińska:
Najtrudniej jest skontaktować się z administratorami starych katalogów czy precli i wyprosić/wymusić na nich usunięcie linka. Przy dużych, zafiltrowanych stronach, powstaje istna korespondencja seryjna, która często trafia w próżnię. Męczące jest też oczywiście ocenianie samych witryn linkujących (nie każda na pierwszy rzut oka wygląda na farmę linków czy słabe zaplecze, trzeba mocniej „wgryźć się w temat” i podjąć decyzję).
Na tę chwilę mam na koncie usuniętych kilkanaście filtrów ręcznych. Zauważyłam, że z czasem powrót fraz na wyższe pozycje (po zdjęciu filtra) wydłużył się – przynajmniej w przypadku witryn, którymi się zajmowałam. Na początku była to kwestia 2-3 tygodni. Teraz na powrót na właściwe miejsce czeka się (też nie zawsze, widać kwestia branży) do kilku miesięcy. Trudno to precyzyjnie oszacować, ponieważ pomimo zdjęcia jednego filtra, mogły pojawić się dodatkowe działania Google (niewidoczne w narzędziach), które odbiły się na stronie.
Mariusz Kołacz
Mariusz Kołacz:
Każda witryna jest inna, każda z nich ma inny profil linków, w związku z czym były i sukcesy i porażki – o ile można to tak nazwać. Klienci chętni na odfiltrowywanie oczekują przeważnie efektu w postaci wzrostu pozycji, tylko nikt z nich nie zdaje sobie sprawy z jednej rzeczy – jeżeli strona była od samego początku źle prowadzona, były używane SWLe, blasty rumakowe czy masowe katalogowanie – po usunięciu spamerskich linków wzrostów w ogóle może nie być lub będą dotyczyły wyłącznie części fraz. Istotna jest jakość profilu linków, jego zróżnicowanie. Jeśli wszystkie linki z anchorami sprzedażowymi pochodzą ze spamów – sorry ale jest takie powiedzenie, które często powtarzam – „z pustego i Salomon nie naleje”.
Do powyższej sytuacji idealnie nadaje się również powiedzenie naszego skoczka Piotra Żyły – „aby móc odlecieć, to trzeba mieć z czego”. W przełożeniu na SEO – aby strona odzyskała pozycje, musi mieć zróżnicowany profil linków. Dotyczy to w szczególności filtrów algorytmicznych, które niejednokrotnie można wyciągnąć samym Disavow Tool (o ile strona posiada zróżnicowany profil linków).
Jaki jest mój dorobek? Od wystartowania z kampanią darmowego sprawdzania profilu linków licząc do dnia dzisiejszego wykonałem grubo ponad 500 analiz, część z tych analiz była związana z odfiltrowywaniem domen, zarówno filtry algorytmiczne jak i ręczne.
Dane za zeszły rok:
– 16 zdjętych filtrów ręcznych i 5 algorytmicznych.
– Najkrótszy czas, po którym zdjęto filtr ręczny ze strony – 5 dni (1 wniosek).
– Najkrótszy czas, po którym zdjęto filtr algorytmiczny – 1 dzień.
W 2014 roku 17 zdjętych filtrów ręcznych i 10 algorytmicznych (stan na 08.06.2014).
– Najkrótszy czas, po którym zdjęto filtr ręczny ze strony – 4 dni (1 wniosek).
– Najkrótszy czas, po którym zdjęto filtr algorytmiczny – 2 dni
Dodam jeszcze, że w tym roku ani razu nie zdarzyło się, by analiza wyłącznie linków z GWT wystarczyła do zdjęcia filtru ręcznego, nie wspominając już o algorytmicznym, gdzie bez dodatkowych danych nie mamy najmniejszych szans. Zawsze musiałem posiłkować się dodatkowymi danymi. W zeszłym roku odfiltrowania (tylko kary ręczne) na podstawie linków z GWT były normą, w tym – bez pozyskania dodatkowych danych nie ma szans. Być może trafiają mi się same trudne realizacje, z drugiej strony tylko tak można nauczyć się czegoś nowego.
Aktualnie mam tylko lub jak kto woli aż 10 realizacji na głowie – 7 filtrów ręcznych, 3 algorytmiczne. Jedna z realizacji dot. kary ręcznej należy do najtrudniejszych w mojej karierze, ciągnie się od końca stycznia, zostało wysłanych już 9 wniosków, strona z totalnie zmasakrowanym profilem linków. Google wynajduje coraz to nowe linki, których nie ma w żadnych systemach monitorowania, gdzie domeny nie są nawet zaindeksowane w Google – tego typu linków nie da się znaleźć w żaden możliwy sposób, a jednak dzięki tej realizacji nauczyłem się jak znajdować takie linki, które nigdzie nie figurują i o których istnieniu wie tylko Google. Często tak jest, że tylko trudne realizacje mogą nauczyć czegoś nowego. Czy 9 wniosek do Google będzie ostatnim i czy nowa metoda analizy okazała się skuteczna – przekonam się o tym już wkrótce.
Mikołaj Szczepaniak
Mikołaj Szczepaniak:
Udało nam się zdjąć filtry ręczne za nienaturalne linki przychodzące z kilkudziesięciu serwisów (głównie e-commerce). Kilka dni po zdjęciu filtra zawsze notujemy powrót na pozycje sprzed nałożenia kary (czasem nieznacznie gorsze). W przypadku sklepów internetowych spadek ruchu związany z filtrami zwykle nie przekracza 10-20% (sytuację ratuje długi ogon), ale jeśli dotyczy najlepiej konwertujących fraz, przekłada się na wyraźny spadek wsp. konwersji.
Paweł Gontarek
Paweł Gontarek:
Ogólnie zawsze jest na plus i udaje się filtr zdjąć. Niestety nie zawsze zajmuje to 2-3 miesiące. Zdarzają się witryny (obecnie mam dwie takie), gdzie praca jest iście syzyfowa – to już chyba 7my miesiąc zabawy w kotka i myszkę ponieważ co odrzucenie podania od Google to mamy lekką zmianę linków w panelu GWT i tak wkoło Macieju. Niestety Majestic i Ahrefs są bezradne … sporo napsuli sami klienci ale i pozycjonerzy, którzy zdobywali linki czymkolwiek i jak popadnie.
Marta Gryszko:
3. Lepszy filtr ręczny czy algorytmiczny? Ile czasu zazwyczaj zajmuje Wam likwidacja wspomnianych rodzajów filtrów?
Bartosz Góralewicz
Bartosz Góralewicz:
Zdecydowanie wolę Manual Penalty niż obniżenie pozycji związane z Pingwinem. Przy karach ręcznych przy usunięciu danego „schematu” linków, często udaje się dużo linków „zachować” i szybciej uzyskać powrót do poprzednich pozycji.
Ewelina Szczecińska
Ewelina Szczecińska:
Zajmuję się tylko ręcznymi. Pozbycie się filtra to teraz średnio 3-4 miesiące, ale bywają i prostsze przypadki, gdzie wystarczą 2 tygodnie.
Mariusz Kołacz
Mariusz Kołacz:
Zarówno jeden jak i drugi potrafią sprawić wiele trudności. Witryny z karami ręcznymi w dopasowaniu do całej witryny, przeważnie trudniej odfiltrować – tym realizacjom trzeba poświęcić więcej czasu, zaangażować się na 100%. Z kolei są też przypadki stron z dopasowaniem częściowym choćby w branży pożyczkowej, które równie trudno odfiltrowuje się jak te z dopasowaniem ogólnym. Po dotychczasowych realizacjach zarysowuje się, że im bardziej konkurencyjna branża (spamerska), tym czas odfiltrowywania wydłuża się.
Filtr algorytmiczny – jeden z najgorszych typów kary, wymaga jeszcze więcej pracy, szczególnie na etapie wstępnym, gdzie należy dobrze zdiagnozować przyczynę. Tutaj jest podobnie jak z diagnozą choroby przez lekarza, jeśli lekarz źle zdiagnozuje pacjenta, ów pacjent będzie leczony nieefektywnie. Dlatego często śmieje się z osób, które na podstawie jednego wykresu chcą wmówić właścicielowi strony, że jego witryna ma karę za linki przychodzące czy niskiej jakości treść na stronie. Wszystko trzeba dogłębnie przeanalizować i dopiero mając pełny obraz sytuacji wyciągnąć odpowiednie wnioski.
W każdym typie filtru bardzo ważną rolę odgrywają informacje przekazane od klienta. Jeśli klient dostarcza danych o sposobie linkowania strony, podaje konkretne raporty z linkowania – wtedy czas odfiltrowania diametralnie skraca się. Pamiętać trzeba, że to co widzimy w raportach backlinków w GWT, Ahrefs czy MajesticSEO często nie stanowi nawet 25% wszystkich linków. Prosty przykład z ostatniej analizy, gdzie na podstawie dostarczonych raportów od firmy pozycjonerskiej na domenę klienta poszło prawie 80 tysięcy linków, a ile linków zarejestrowało GWT? Zaledwie 1600, Ahrefs niespełna 8000 a Majestic niecałe 11 tysięcy. Jak dodamy do tego inne systemy monitorowania, udało się pozyskać 38 tysięcy linków – to niespełna 48% wszystkich. Pozostałe można odkryć w drodze zaawansowanych analiz w trakcie procesu odfiltrowywania. Tutaj widać jak ważna jest kwestia posiadania raportów z linkowania. Niestety zdecydowana większość klientów nie posiada żadnych raportów – i to jest najgorsze, szczególnie przy filtrach algorytmicznych.
Mikołaj Szczepaniak
Mikołaj Szczepaniak:
Zdecydowanie ręczny – prawie wszystko zależy od nas, a odrzucenie RR praktycznie zawsze wynika z braku pełnej listy linków, czyli niedostatecznej mocy przerobowej narzędzi typu Ahrefs czy MajesticSEO oraz braku pełnych danych w WMT. Wychodzenie z filtrów ręcznych zajmuje od 2 tygodni do (rzadko) 2 miesięcy. Filtry algorytmiczne mają tę wadę, że w wielu przypadkach trzeba czekać na kolejną aktualizację bez gwarancji wyjścia z filtra.
Paweł Gontarek
Paweł Gontarek:
To zależy. Czasem filtr algorytmiczny widać jak na dłoni i jest dość łatwo wskazać jego przyczynę. Niestety jednak najczęściej jest to szukanie igły w stogu siana – robota strasznie niewdzięczna – bardzo jej nie lubię. Ręczny jest łatwiejszy do ogarnięcia ponieważ jest wprost napisane jaka jest jego przyczyna. No chyba z wyjątkiem ręcznego z dopasowaniem w całej witrynie i oznaczeniem SPAM – wtedy to już zmiana domeny (ale to trafiło mi się osobiście – klienta z takim przypadkiem jeszcze nie miałem).
Marta Gryszko:
4. Ile filtrów sami dostaliście? Mieliście okazję uczyć się na własnych błędach?
Bartosz Góralewicz
Bartosz Góralewicz:
Akurat w przypadku naszych stron affiliacyjnych (black hatowych), mieliśmy więcej pecha z Pingwinem. Kary ręczne zdarzały się nam stosunkowo rzadko, właśnie kiedy przesadziliśmy z bardzo widocznym schematem linków.
Ewelina Szczecińska
Ewelina Szczecińska:
Odpukać, żadna z moich stron filtra nie dostała, ale nie czyniłam też starań w tym kierunku. Akurat w tym temacie uczę się na błędach osób, które przychodzą do mnie po pomoc.
Mariusz Kołacz
Mariusz Kołacz:
Pozycjoner bez filtra to jak uczeń bez oceny niedostatecznej w szkole. Oczywiście, że były takie sytuacje i będą z uwagi, że pozycjonowanie jest w istocie działaniem niezgodnym z wytycznymi Google, pozycjoner może zminimalizować ryzyko otrzymania kary poprzez stosowanie bezpieczniejszych metod, jednakże ryzyka otrzymania kary w 100% nigdy nie wyeliminuje.
Muszę też zaznaczyć, że trudne sytuacje hartują, budują charakter, dzięki filtrom i analizom człowiek wie, co wolno, ile wolno – gdzie znajduje się granica, jakie schematy prowadzą do kar etc. Jako, że algorytm Google ciągle jest ulepszany, to i granica ciągle przesuwa się, w związku z czym filtry są częścią pracy pozycjonera. Wiele osób, które na co dzień wyciągają strony z filtrów wie doskonale, ile trzeba by zafiltrować domenę, gdyby Google nie modyfikowało algorytmu mielibyśmy otwartą drogę i praktycznie każde realizowane przez nas zlecenie pozycjonowania kończyłoby się pełnym sukcesem. Niestety świat zmienia się, algorytm Google również, my także musimy zmieniać swoje strategie, obserwować co dzieje się i szybko reagować na ów zmiany.
Mikołaj Szczepaniak
Mikołaj Szczepaniak:
Pierwsze aktualizacje algorytmu oczywiście były dotkliwe. Teraz nieporównanie częściej zdejmujemy filtry po poprzednikach lub te spowodowane przez „życzliwych” użytkowników SWL-i.
Paweł Gontarek
Paweł Gontarek:
Ile ? Oj … kilka z naciskiem na „naście”. Najwięcej było banów (bodajże w 2011 roku za precle – poszło ponad 500 sztuk). Nauka była na własnych błędach oraz na stronach klientów. Najlepsza praktyka to były zlecenia od klientów.
Marta Gryszko:
5. Usuwanie i zgłaszanie (disavow) czy przykrywanie słabych linków mocnymi lub po prostu bardziej zróżnicowanymi? Którą strategię preferujecie?
Bartosz Góralewicz
Bartosz Góralewicz:
Strategia radzenia sobie ze złym profilem linków jest u nas bardzo jasna. Pełen audyt i ręczne przejrzenie wszystkich linków, a następnie usunięcie lub disavow wszystkich niezgodnych z wytycznymi Google. Po tym dopiero budowanie nowych linków i walka o jakościowy ruch.
Ewelina Szczecińska
Ewelina Szczecińska:
Wszystko po trochu. Disavow uważam za narzędzie przydatne i wręcz niezbędne w sytuacji, w której link wisi na stronie typowo spamerskiej, a kontaktu z właścicielem tej witryny brak. Jednocześnie warto poprawić jakość odnośników i je zdywersyfikować. Google chyba zawsze lubiło różnorodność, tylko branża nie zwracała na to uwagi, bo lepiej działały łatwiejsze metody.
Mariusz Kołacz
Mariusz Kołacz:
Wszystkie wymienione, zarówno usuwanie/zgłaszanie szkodliwych linków, jak również może nie przykrywanie lecz uzupełnianie profilu linków o nowe wartościowe odsyłacze. Tylko łącząc strategie jesteśmy w stanie ugrać więcej.
Mikołaj Szczepaniak
Mikołaj Szczepaniak:
Jedno i drugie – w przypadku filtrów ręcznych Disavow Tool w zasadzie w zupełności wystarcza, ale trzeba jakoś odbudować ruch po wyeliminowaniu linków ze spamu. W przypadku filtrów algorytmicznych usunięcie wszystkich starych linków z precli i katalogów jest niewykonalne, więc także warto skorzystać z DT. Oprócz tego warto oczywiście poprawiać profil linków (różne źródła, gołe URL-e itp.).
Paweł Gontarek
Paweł Gontarek:
To zależy. Nie twierdzę, że nie da się przykryć złych linków dobrymi – to kwestia czasu (vide mój blog, który był pozycjonowany spamem a obecnie jakoś tam w tych topach się pojawia – to było 1,5 roku pracy i linkowania). Ogólnie staram się najpierw wyszukać te linki, które da się usunąć – pisząc do właścicieli grup katalogów, systemów. Dopiero to czego rzeczywiście nie da się usunąć trafia do disavow. Staram się jak najmniej umieścić w pliku DT.
Marta Gryszko:
6. Z jakich narzędzi do analizy linków korzystacie? Niektórzy twierdzą, że wystarczy ograniczyć się do danych z WMT, z drugiej strony w przykładach nienaturalnych linków często padają takie, które da się wykryć dopiero po skorzystaniu z zewnętrznych narzędzi.
Bartosz Góralewicz
Bartosz Góralewicz:
Jako Link Research Tools Certified Expert, stoje twardo przy Link Research Tools. Pracuję na ponad 20 źródłach linków, w tym też Google Webmaster Tools. Pozwala mi to w parę kliknięć wykryć link networks itd. Wg mnie jednak najważniejsze jest aby narzędzia traktować jako gigantyczne ułatwienie, które jednak nie zastąpi ręcznego audytu linków. Ostateczna decyzja zawsze musi należeć do człowieka. Np. Link Detox Genesis bardzo to ułatwia.
Ewelina Szczecińska
Ewelina Szczecińska:
Staram się nie być „mądrzejsza od Google”. Jeśli o jakimś linku nie wie Google, to niby skąd ja czerpię o nim dane? Reprezentuję przeciętnego użytkownika, który został ukarany – przeciętny user nie korzysta z ahrefs, majestica. Strony z linkami przeglądam przy pomocy SiteCondition i seo_odkurzacza, podpieram się kilkoma wewnętrznymi rozwiązaniami i czasem, z ciekawości, sprawdzam co o domenie co do której mam wątpliwości, „myśli” audyt www.seomastering.com.
Mariusz Kołacz
Mariusz Kołacz:
W przykładach bardzo często pojawiają się takie odsyłacze, których nie znajdziemy w żadnym systemie monitorowania. Co wtedy począć? Pozostaje zaawansowana analiza na podstawie podanych przykładów. Nie będę wnikał w szczegóły na czym to dokładnie polega, lecz dzięki tym analizom można zmniejszyć czas odfiltrowywania domeny nawet o kilka miesięcy.
Odnośnie danych z WMT (GWT), w zeszłym roku miałem pełno realizacji, gdzie analiza linków z narzędzi dla webmasterów w zupełności wystarczała do zdjęcia filtru ręcznego. W styczniu 2014 roku na 6 realizacji ani raz nie udało się zdjąć filtra analizując same linki z GWT, stąd też od lutego analizuję pełne spektrum linków z kilkunastu systemów monitorowania, mimo to systemy monitorowania jak już wcześniej wspomniałem nigdy nie dostarczą nam wszystkich danych – wszystkie dane może dostarczyć jedynie klient, który był na tyle sprytny, że wymagał od agencji raportów z linkowania.
Narzędzia z jakich korzystam – większość dostępnych na rynku systemów monitorowania backlinków, specjalne skrypty napisane w C# .NET, iMacros lub Zennoposterze do wyodrębniania dodatkowych backlinków, aplikacje desktopowe SEO Odkurzacz plus mój własny soft wspomagający pracę przy analizach – Detoxer, do tego arkusz kalkulacyjny, aplikacje do filtrowania danych, programy do pozyskiwania danych z Whois, aplikacje do walidacji danych kontaktowych, programy do pozyskiwania darmowych proxy pod Google i wiele innych drobnych toolsów, które oszczędzają czas i energię.
Mikołaj Szczepaniak
Mikołaj Szczepaniak:
WMT na pewno nie wystarczy. Do zbierania danych o linkach przychodzących dodatkowo używam Ahrefs i MajesticSEO.
Paweł Gontarek
Paweł Gontarek:
Korzystam TYLKO z danych zawartych w GWT. Do tej pory dwa razy korzystałem z narzędzi zewnętrznych (majestic oraz ahrefs). Powyżej wymieniłem jeden serwis – i to chyba będzie trzeci przypadek gdzie będę musiał użyć raportów z Majestica….
Marta Gryszko:
7. Czy będąc jedną z osób decyzyjnych, poparlibyście karanie za tzw. nienaturalne backlinki zamiast ich zwykłego ignorowania?
Bartosz Góralewicz
Bartosz Góralewicz:
Tak. Według mnie, manual penalty nie jest łatwe do dostania dla osób z dobrą znajomością podstaw SEO. Pozwala to odsiać naprawdę najgorszy SPAM z wyników wyszukiwania. Więcej na ten temat można dowiedzieć się na naszych warsztatach – SEO Done Right.
Ewelina Szczecińska
Ewelina Szczecińska:
Trudne pytanie, bo nie wiadomo czym i jak dokładnie Google posługuje się w związku ze stosowaniem kar. No i wciąż otwarte pozostaje pytanie „co Google rozumie przez nienaturalny backlink”. Gdybym jednak miała usiąść wśród osób decyzyjnych, skłaniałabym się do zbalansowania sytuacji „punktami karnymi”. W skali 1-10 (1 ewidentny link łamiący wszelkie
wytyczne; 10 link który niekoniecznie musi być nienaturalny) te od 1 do 5 traktowałabym jako „do ukarania”, te lepsze byłyby ignorowane.
Mariusz Kołacz
Mariusz Kołacz:
Zdecydowanie nie jestem za karaniem witryn z prostego powodu – zjawiska nieuczciwej konkurencji, które jest coraz bardziej powszechne. Wiele razy spotykałem się z osobami i stronami, które zostały brutalnie zaatakowane przez konkurencję. Patrząc przez pryzmat tych doświadczeń, jestem zdecydowanym przeciwnikiem, aby karać witryny za linki przychodzące – Google powinno je flagować i automatycznie neutralizować.
Mikołaj Szczepaniak
Mikołaj Szczepaniak:
Ignorowanie nienaturalnych linków byłoby dużo bardziej sensowne – wyeliminowałoby problem depozycjonowania, które niestety dość często się zdarza.
Paweł Gontarek
Paweł Gontarek:
Google prezentuje postawę karania właściciela serwisu linkowanego. Byłbym za zmianą tego podejścia – wolałbym aby karane były serwisy linkujące (czyli np. precle, katalogi) oraz odcinania ich mocy. Dzięki temu uniknęlibyśmy wielu sytuacji określanych mianem depozycjonowania. Ale do tego chyba żadna ze stron nie dorosła.
Marta Gryszko:
8. W jaki sposób możecie aktualnie pomóc klientom, którzy mają problem z filtrem?
Bartosz Góralewicz
Bartosz Góralewicz:
Klientom korporacyjnym proponujemy kompleksowe rozwiązania pomagające przywrócić poprzednią widoczność. Oferujemy również szkolenia, jak np. najbliższe 10 lipca 2014: goralewicz.co/seodoneright
Ewelina Szczecińska
Ewelina Szczecińska:
Z uwagi na dużą ilość zleceń ciężko mi przyjmować kolejne strony walczące z filtrem, rozważam jednak napisanie krótkiego ebooka odnośnie moich doświadczeń, z którego skorzystać będzie mógł każdy zainteresowany.
Mariusz Kołacz
Mariusz Kołacz:
Mogę pomóc w następujących kwestiach:
– Analizach wstępnych (konsultacje) – szybka analiza sytuacji witryny (z jakim typem kary mamy do czynienia, oszacowanie czasu potrzebnego na zdjęcie kary, wyodrębnienie najbardziej prawdopodobnych powodów otrzymania kary – często człowiek tylko zerknie na przekrój profilu linków czy na witrynę i już wie, czego kara może dotyczyć np. sprzedaż linków, udział w systemach wymiany linków, upychanie słów kluczowych etc.),
– Analizy profilu linków przychodzących oraz audyty SEO (w przypadku kar ręcznych i algorytmicznych, w zależności od sytuacji, w ramach współpracy może być przeprowadzany zarówno audyt linków jak i podstawowy audyt SEO w celu wyodrębnienia wszystkich potencjalnych problemów z witryną),
– Zbudowanie strategii promocji (w tym linkowania) serwisu po zdjęciu filtru, a także instrukcje jakich schematów unikać, by zmniejszyć ryzyko ponownego nałożenia kary na stronę.
Mikołaj Szczepaniak
Mikołaj Szczepaniak:
Dość często trafiają do nas klienci z nałożonym filtrem ręcznym i oczywiście przyjmujemy zlecenia tego typu. Wiele agencji nie podejmuje żadnych działań w związku z filtrami ręcznymi swoich klientów (część nawet o tych filtrach nie wie). W lutym br. opublikowaliśmy dość obszerny materiał opisujący procedury wychodzenia z filtra ręcznego: Wycofywanie działań ręcznych krok po kroku. Artykuł jest dostępny także w formie e-booka.
Paweł Gontarek
Paweł Gontarek:
W przypadku gdy klient chce uzyskać pomoc może wysłać mejla z pytaniem lub wypełnić formularz na blogu – zawsze staram się udzielić odpowiedzi. Może też zapytać na forum Google dla Webmasterów, gdzie kilka osób udzieli mu stosownej odpowiedzi.
Marta Gryszko:
Dziękuję Wam wszystkim za rozmowę i życzę jak największej skuteczności w walce z filtrami.

KATEGORIE: Filtry i bany
Komentarze (26)

Dobry wywiad. Dużo można sie dowiedzieć i dobrze wiedzieć, ze nie tylko ja mam takie beznadziejne przypadki 😉

Ciekawy wpis. 😉

Mariusz normalnie zrobił content marketing 🙂

No właśnie coś za bardzo rozpisałem się – pewnie to wynik mojej 4 miesięcznej przerwy w pisaniu artykułów na bloga 😉

Aż Akismet zaprotestował, bo odkopałam ten komentarz ze spamu 😉 Musiałeś przeskrobać.

+1 hihihihi 😉

Bardzo treściwy wywiad. Czekam na kontynuację tematu, czyli co jeśli już działania ręczne zostały wycofane i chcemy wrócić do walki o pierwsze pozycje.

Na poczatku czytania stwierdzilem ze bedzie kiepsko i lipa ale na szczescie pozniej bylo calkiem dobrze:) ciekawie i sensownie.

Tak to czytam i nieźle się zdziwiłem, bo patrzę na ich liczby i w sumie wychodzi na to, że osoby odpowiadające na pytania mają jeszcze dość nikłe doświadczenie jeśli chodzi o ściąganie filtrów. Nie spotkałem się jeszcze z sytuacją, żeby ściąganie filtra trwało dłużej niż 3 prośby o usunięcie filtra, przy czym te 2-3 prośby to było potrzebne gdy się dopiero zgłębiało temat w tamtym roku, gdy nadeszła plaga filtrów od Google, a od już bardzo dawna ściągnięcie filtra to zwykle góra godzina analizy, a nie uważam, żebym pracował przy małych stronach z niewielką linków i jakoś od wielu miesięcy jest 100% ściągalność filtra za pierwszym razem. Ale może ja jakiś inny jestem:)

Świetny wywiad i dużo przydatnych informacji. pozdrawiam

wg mnie mało wnoszący wpis – jak już, to spóźniony o co najmniej kilka miesięcy…

Przebrnąłem. Tak jak napisał shypo – dobrze wiedzieć, ze inni też miewają beznadziejne przypadki 😉

Od siebie jeszcze dodam, że kary ręczne to pikusie przy algorytmicznych. Przy karach ręcznych realnie można ocenić ile pracy, jakich nakładów czasowych i środków moze zająć ściągnięcie kary. W przypadku filtrów algorytmicznych w 95% jest to wróżenie z fusów.

😉 Treść na plus, brawa za chęci.

Z filtrami ręcznymi jest tka sprawa, że nikt nie czyta tych zgłoszeń i tak naprawdę jest to kwestia losowa … przykład:
1) kilka domen odfiltrowanych z ręcznego przez wysłanie tekstu: Proszę odfiltrować domenę 🙂 0 jakichkolwiek działań związanych z usuwaniem linków, czy disavow.
2) kilka domen z usuniętymi wszystkimi linkami (to co się nie dało – disavow) – 8 zgłoszeń i nic, oczywiście jako przykładowe linki podawane są również te 100 % naturalne 🙂

Rewelacyjny przegląd największych fachowców w branży o jednym z trudniejszym i tajemniczym temacie jakim są filtry. Dziękujemy Lexy za super robotę.

Bardzo ciekawy wpis oby jak najwięcej osób go przeczytało. Może klienci dowiedzą się dlaczego wychodzenie z filtra to nie zajęcie na tydzień 🙂

Wywiad ciekawy i prezentuje różne podejścia do tematu.
Osobiście uważam że dla małych stron firmowych nie posiadających brandu zdejmowanie filtra można wrzucić na drugi plan – po pierwsze z reguły filtr idzie na frazy biznesowe a nie brandowe, po drugie : ściągniecie filtra nie przywróci pozycji – lepiej w tym czasie pozycjonować nową domenę lub wykupić na czas nieobecności Adwords. W przypadku dużych serwisów gdzie spory % ruchu generowany jest z długiego ogona – faktycznie ma to sens.

Pozdrawiam.

Michal wniosek jest prosty, sa 3 opcje:
– sciagales tylko stara, wylaczona dawno temu rotacje
– wrzucales wiekszosc do DT
– kilka stron wyciagnales z recznego w wariancie jednym z powyzszych

A profile linków tych stron były mocno zaśmiecone? Zdarzało mi się trafiać na przypadki, gdzie najlepiej byłoby wszystko zlikwidować i zacząć od nowa.

Sama próbowałam też podejścia na raty, tj. rozpoczęcia od usuwania tylko części najgorszych linków i w przypadku odrzucenia przeprowadzenie większych czystek. Ale to podejście okazało się dużo mniej skuteczne, niż kiedy od razu bardzo krytycznie podchodziłam do analizy.

Mógłbyś rozwinąć swój komentarz?

„W przypadku filtrów algorytmicznych w 95% jest to wróżenie z fusów.”
Problemem jest też to, że nigdy nie ma pewności, czy pomocne okazały się działania podjęte w celu oczyszczenia profilu, czy i bez nich kolejna aktualizacja Pingwina odpuściłaby danemu serwisowi.

Wywiad ciekawy, choć ciężko było o tej porze dobrnąć do końca. Zgodzę się z tym, że GWT przy dużej ilości linków nie wystarcza. Pocieszam się tym, że niektórzy mają trudniejsze przypadki 🙂

Ja osobiście narazie miałem tylko jednego bana. Ale po wysłaniu formularza z listą linków, które się same usunęły(domeny katalogów z allegro nie zostały przedłużone) od razu pozytywnie rozpatrzyli. Obecnie domena trzyma się w topach a katalogi z allegro omijam szerokim łukiem;)

Ja już walczę 3 miesiące. Usunięte zostało niemal 90% linków – a google – ba na 100% automat dalej swoje. Podaje takie linki jako nieprawidłowe, że ręce mi opadają. Najbardziej denerwuje mnie to, że niby nie można depozycjonowac strony. Połowa katalogów jakie mam (miałem) to działanie konkurencji (faktycznie sam spam i śmieci). Bez bicia się przyznaje że nie pilnowałem tego w GWT. Google pokazało mi tylko jedno. Nawalić komuś linków + katalogi z allegro multicode i filtr dla konkurencji gotowy. Nowe zmiany to jakaś patologia i porażka. Wytyczne praktycznie sprowadzają się do tego, że żadnego linku nie można mieć bo każdy jest bee. A jak masz to ma być nofollow. Ale jak za dużo nofollow to co … Beee!

Ktoś wstawił link do mojej strony na znanym forum w dyskusji dotyczącej produktu – w 100% naturalny a dla google bee!. Mam tematyczną unikalną stronę prowadzoną od lat (dla użytkowników) i tam znalazł się mocno powiązany jeden link do produktu w moim sklepie … dla google Bee! i tak praktycznie od 3 miesięcy w kółko bee, bee, bee linki skąd by nie były są Bee

Dziś dostałem znowu odmowę (po raz enty!), więc chyba zrobię jak już pojawiło się wyżej – dam Disalow All! I zobaczmy co mi odpiszą … może, że linki wewnątrz witryny też są Bee!

Patalogia!

Bardzo ciekawy wywiad i to z kilkoma fachowcami.
A z innej beczki, to najbardziej mnie cieszy to, że strony, dzięki nowym rozwiązaniom google’a, które pozyskują ruch w naturalny sposób faktycznie potrafią się wybić bez konieczności kupowania linków i wsparcia. Wiadomo, że tam gdzie pieniądze to i sposoby promocji się znajdą ale dużo dobrych stron nie miała wcześniej okazji wybicia. Google w gruncie rzeczy chce przecież dobra użytkownika i chwała mu za to.

Lexy, dobra robota. Szkoda, że jesteś niedostępna obecnie, napisałem do Ciebie w sprawie filtra algo. filolodzy. Jakbyś spojrzała, pozdrawiam
Zdzich

Zdzich, jestem niedostępna w sprawach zawodowych i niestety nie mogę robić wyjątków od tego.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Copyright 2017 Lexy's SEO blog. All Right Reserved.