(Nie)świadome depozycjonowanie – o co chodzi?

(Nie)świadome depozycjonowanie - o co chodzi?Temat depozycjonowania poruszałam ostatnio w artykule sprzed roku, jednak postanowiłam po raz kolejny zwrócić uwagę na dość istotną – przynajmniej w moim odczuciu – kwestię związaną z nieświadomymi działaniami i ich rezultatem.

Do ponownych przemyśleń na temat depozycjonowania skłoniła mnie rozmowa na FB (a raczej afera wywołana przez Sebastiana, który zarzucał rozmówcom brak zrozumienia tematu i brak własnego zdania). Kontrowersje wokół tematu (zarówno we wspomnianej, jak i w wielu innych rozmowach) depozycjonowania wiążą się z 2 sprawami:

  • aspekty prawne – co prawda sama uważam, że jeśli podejmuje się jakiekolwiek działania, które mają na celu zaszkodzić innym (w tym linkowanie), to jest szansa aby podciągnąć je pod działania nieuczciwej konkurencji. Problem w tym, jak w praktyce wyglądałaby sprawa przeciwko depozycjonowaniu… ale nie na tym chciałam się skupić w tym wpisie tym bardziej, że o tym mógłby się wypowiedzieć prawnik, a nie ja;
  • odmienne zdania na temat skuteczności depozycjonowania – dla mnie sprawa jest prosta: Czy linki przychodzące mogą szkodzić? Mogą, więc nie ma znaczenia, kto je zdobywa – czy osoba związana z serwisem, czy konkurencja. Tu nie ma nic więcej do zrozumienia.

Tyle słowem wstępu, bo to, na czym chciałam się skupić, to nieświadome działania mogące nam zaszkodzić.

Tak bardzo nagłaśnia się temat celowych prób zaszkodzenia konkurencji (które – przynajmniej w moim odczuciu – zdarzają się od święta), że zapominamy o realnym problemie, z którym może się spotkać każdy z nas i którego już raczej nie podciągnie się pod działania niezgodne z prawem.

Każdy, kto prowadzi serwis z tzw. user-generated content, jest potencjalną ofiarą. Nasi użytkownicy chcąc sobie „pomóc” pozycjonując profil na forum, ofertę w serwisie ogłoszeniowym lub artykuł, zdobywając linki z wszelkich możliwych źródeł. Niezależnie od tego, czy są to osoby, które poczytały tylko trochę o pozycjonowaniu czy takie, które siedzą w temacie już dość długo, wśród nich znajdą się tacy, który postanowią dopalić swoje podstrony SWLem czy Scrapeboxem. Ba, teraz wystarczy dodać linka do swojego artykułu na Wikipedii, aby zarówno treść materiału, jak i link, pojawiły się w setkach kopii.

Proponuję, aby każdy z nas zajrzał teraz do narzędzi dla webmasterów albo innego narzędzia do analizy linków i sprawdził najmocniej podlinkowane podstrony. Czy są wśród nich podstrony z dużą liczbą domen linkujących? To właśnie po nich najszybciej można sprawdzić, czy w profilu nie mamy podejrzanych linków.
Analiza linków
Zerknijmy w szczegóły i sprawdźmy, skąd pochodzą te linki. Zapewne w dużej części będą one znajdowały się na stronach, których Google wolałoby w ogóle nie mieć w indeksie. Czy jednak na pewno wygląda to na próbę depozycjonowania naszego serwisu, czy właśnie na próbę wzmocnienia podstron należących do naszych użytkowników? Założę się, że w większej części padnie druga odpowiedź i to właśnie to jest działanie, którego możemy doświadczać na co dzień. Na domiar złego jest to działanie podejmowane przez cały czas istnienia strony, a nie tylko od święta, kiedy ktoś postanowi „dopalić” stronę masowo pozyskanymi linkami i kiedy wyszukiwarki faktycznie mogą to uznać za próbę zaszkodzenia stronie, ignorując te linki.

I teraz pytanie – co zrobić? Wg starej zasady Google, nie powinniśmy skupiać się na wyszukiwarkach, tylko na dostarczaniu ciekawych treści. Tyle że obecna polityka Google nie pozwala nawet, aby trzymać się tej zasady. Mamy bowiem do wyboru:

  • zignorować duże ilości podejrzanych linków i wrócić do pracy nad ulepszaniem i rozwijaniem strony, ryzykując nagłą utratę ruchu w wyniku filtra;
  • zapomnieć o rozwijaniu strony, a zamiast tego spędzić kilka godzin na szczegółowej analizie linków, próbie oczyszczenia profilu, a nawet zgłoszeniu części przez disavow… ewentualnie zapomnieć o finansowaniu rozwijania strony na rzecz sfinansowania zlecenia komuś takich działań.

Do tego oczywiście dochodzi systematyczne monitorowanie nowych backlinków. Czy to nie paranoja? Osoby siedzące w temacie wiedzą, że muszą mieć rękę na pulsie i pilnować wszystkiego, starając się znaleźć złoty środek pomiędzy zaproponowanymi wyżej działaniami. Ale już przeciętny Kowalski nie musi tego wiedzieć, a z kolei duża firma również wolałaby płacić za konkretne działania mające na celu podniesienie pozycji, a nie za tracenie czasu na ciągłe monitorowanie linków zdobywanych przez osoby niepowiązane z serwisem i działania zabezpieczające przed szkodliwością cudzych linków, z którymi Google sobie nie może poradzić.

Podsumowując – linki przychodzące mogą szkodzić, a szkodliwe działania mogą być podejmowane nie tylko przez konkurencję, ale także przez przypadkowe osoby, które nie zdają sobie sprawy z konsekwencji.

Na zakończenie dam tylko małą wskazówkę, aby usuwać podstrony podlinkowane z podejrzanych źródeł i zostawiać na nich 404. Teoretycznie powinno to całkowicie wyeliminować wpływ tych linków na serwis. Jak jest w praktyce? Mogę jedynie powiedzieć, że sama stosuję to rozwiązanie na swoich stronach bez dodatkowych zabezpieczeń w postaci próby usuwania czy zgłaszania linków do usuniętych podstron i jak na razie nie miałam problemów z filtrami na tych stronach. Nie mam jednak 100% pewności, że to zawsze wystarczy.

Jeśli nie da się ustawić 404, wtedy wyciągamy backlinki do danej podstrony i podejmujemy standardowe działania polegające na oczyszczeniu profilu linków… można też po prostu skontaktować się z użytkownikiem naszego serwisu z prośbą o usunięcie linków, ale w moim przypadku to nie działało (właściciel strony zlecał pozycjonowanie i nie rozumiał kompletnie, o czym do niego piszę). Na pewno nie zalecam pozostawiania sprawy samej sobie i czekania, czy uda się ominąć filtr. Więcej szczegółów na temat zabezpieczania się przed opisanymi tu działaniami znajdziecie we wpisie Zauważyłeś próby depozycjonowania? Reaguj szybko.

KATEGORIE: Linkowanie
Comments (18)

„aby usuwać podstrony podlinkowane z podejrzanych źródeł i zostawiać na nich 404.”

W USA daja 410 zamist 404 w takim przypadku 🙂

Tak, może być albo 404 albo 410, przy czym drugie ponoć ma szybciej działać.

Zapomniałaś dodać, że warto monitorować takie frazy w GWT jak viagra, pills itp. Dzięki nowym filtrom jest to łatwiejsze do wyłapania, a i może poniekąd uratować skórę właścicielowi witryny. Mówię tutaj o sytuacji, w której ktoś chce Nam realnie zaszkodzić, albo choćby próbuje. Wtedy łatwo namierzyć takie linki i wrzucić do DT.

Do tego idealnie nadają się narzędzia takie jak MajesticSEO i Ahrefs, które w raportach wyświetlają anchory. Faktycznie, nawet sama na jednej ze stron mam przypadki fraz XXX i w ten sposób byłam w stanie je wyłapać.

Ktoś mnie podlinkował „dobrymi” seokatalogami. Oczywiście nie chcą usunąć wpisu. Zgłaszać od razu do disallow tool?

A czemu nie chcą? Może nie mają pewności, czy w sprawie usunięcia pisze do nich osoba upoważniona do tego. Najlepiej jest przygotować plik typu „osoby upoważnione do zgłaszania próśb o usunięcie linków: (i tu lista maili)”, wgrać go w domenie strony i pokazać w ramach weryfikacji.

Dzięki

@Lexy
„celowych prób zaszkodzenia konkurencji (które – przynajmniej w moim odczuciu – zdarzają się od święta” Zdarzały się od święta jeszcze 2 lata temu, teraz przy bardziej konkurencyjnych frazach ludzie w ogóle się nie bawią, tylko walą z automatów i baz publicznych w konkurencje ile wlezie. Oczywiście nie jest to jeszcze nagminnie stosowane ale jak tak dalej pójdzie to Google dzięki swojej polityce zafunduje nam jeszcze więcej śmieci, bo spam służący depozycjonowaniu będzie tworzony na potęgę, tak jak kiedyś precle były tworzone bo pozycjonowały.

Często jest tak, że tego typu śmieciowate katalogi nie wiadomo czyje są i nie wiadomo jak trafić do właściciela.

Apropos usuwania podstron – można usuwać podstrony podlinkowane z podejrzanych źródeł – gorzej gdy linkują do strony głównej.

Jest jeszcze jedna kwestia o której nie wspomniałaś… te linki do profili…. często pomagają dopalanej stronie. Popatrzcie jak sprytnie wykorzystują to najwięksi gracze na rynku, serwisy informacyjne, tabloidy…

Poza tym, z tego co obserwuję po swoich stronach, jak i słucham wypowiedzi Google, od połowy stycznia widać osłabienie wpływu profili…

Taki problem nie istnieje.

Z pomocy Google:
Sekcja Dopasowania częściowe zawiera interwencje, które wpływają na pojedyncze URL-e lub części witryny. Strony w popularnych witrynach często podlegają ręcznym działaniom, szczególnie wtedy, gdy witryna stanowi platformę, na której użytkownicy lub firmy tworzą i udostępniają treści. Jeśli problemy wyglądają na odosobnione, interwencje dotyczą tylko pojedynczych stron, sekcji lub prowadzących do nich linków.

A ja powiem tak 😛 depozycjonowanie jest możliwe, a google twierdzi, że nie 🙂 Można im by sprawę za to wytoczyć, udowodniając to że się da :)) iż wprowadzają w błąd

Jakie narzędzia do analizy linków może Pani polecić?

Problem depozycjonowania jest coraz bardziej powszechny w Internecie. Niestety samo Google doprowadziło do takiej sytuacji, jeszcze bardziej podkręcając algorytm. Obecnie dla nowych domen nie trzeba wiele, aby strona poleciała w odchłań..

Tak jest to niestety problem. Dodatkowo jeśli ktoś robi to celowo, to raczej też nie jest na tyle głupi aby dawać powód do ukarania go. Najczęściej ukrywa się za wszelkiej maści proxy, lewymi kontami email na publicznycgh domenach itp. Sam miałem przypadek, że mi w 2010 roku poleciała strona bo jakiś pajac przywalił jej kilkaset tysięcy linków ze spamu na 5 jednakowych fraz i praktycznie nie było rzadnego punktu zaczepienia kto mógłby to zrobić. Kij ma jednak dwa końce, zwsze możesz odpłacić pięnym za nadobne calemu top20 🙂

Niestety, ale depozycjonowanie stron jest możliwe i chociaż Google oficjalnie temu zaprzecza, coraz częściej można się spotkać z sytuacją kiedy konkurencja depozycjonuje rywali. Jak się przed tym bronić? Na pewno warto na bieżąco śledzić zmiany odnośników prowadzących do naszej strony w gwt i narzędziach tj. majesticseo czy ahrefs.

Tak, jeśli ktoś nie blokuje Ahrefs i Majestic, aby uniemożliwić konkurencji analizę tych linków :] Inaczej pozostaje GA, tam jednak nie zawsze wsze wszystkie BL są widoczne.

Jeśli nie zmieniam adresu podstrony do której linkują z doplaczy, tylko w nagłówku daję 404 i wczytuję specjalną podstronę, kilka zdań + logo podlinkowane do strony głównej to to jest poprawne? Czy lepiej na 404 nie linkować do strony głównej?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.