fbpx
Bezpodstawna nagonka na Google czy pokazanie prawdy o monopoliście?

W sieci znowu jest gorąco o sprawie Nokautu i kilku innych porównywarek, które ponad 2 lata temu dostały od Google kopniaka za stosowanie SWLi. A wszystko zaczęło się od artykułu w serwisie natemat.pl, w którym czytamy:

Czy wiesz, że w ciągu 2 minut możesz uzyskać dostęp do poniższego materiału?
Szkolenie: Zarabiaj na audytach SEO

7,7 mln złotych strat, zwolnienie 30 ze 120 zatrudnionych pracowników i internetowy serwis, na który po interwencji wielkiego brata Google nie zajrzał pies z kulawą nogą. Tak wszechwładny Google może pogrywać ze swoimi przeciwnikami.

Notowana na giełdzie spółka do dziś nie może wyjść z opresji, w jaką wpędził ją internetowy gigant z USA.

Kara Google była surowa. (…) Efekt? Spadek ruchu w polskim serwisie, brak transakcji, spadek przychodów i jasne przesłanie: nie podskakujcie, bo możemy zadusić wasz biznes, o tak.

Brzmi brutalnie, nieprawdaż? Z drugiej strony jednak mamy komentarz ze strony Google:

Google nie chce zamykać biznesu nikomu, a witryn internetowych nie traktuje jako przeciwników. Cel Google jest jeden, dostarczyć użytkownikom jak najlepsze wyniki wyszukiwania – ripostuje Piotr Zalewski z Google Polska.

Problem ze sprawą wspomnianych tu kar dla porównywarek jest jednak nieco bardziej skomplikowany i ciężko jednoznacznie odpowiedzieć na pytanie zadane w tytule tego wpisu.

Google to prywatna firma, która może dyktować zasady działania swojej wyszukiwarki i wyciągać konsekwencje w przypadku naruszania ich wytycznych – to jest fakt.

Google wręcz nienawidzi SWLi i za ich stosowanie nakłada ostre kary zarówno na małe, jak i większe serwisy internetowe – to również fakt. I mimo że ich wytyczne są często mało precyzyjne, to jednak w temacie systemów wymiany linków przekaz jest prosty – nie używaj ich, bo oberwiesz!

Jednak jako pozycjonerzy, doskonale zdajemy sobie sprawę z tego, jak łatwym do pozyskania ruchem jest ruch z Google i że obecnie absolutnym obowiązkiem jest zadbanie o widoczność w tej wyszukiwarce. Jesteśmy również świadomi tego, że decydując się na podejmowanie działań podbijających pozycje, musimy liczyć się z pewnym ryzykiem. Ale…

to nie zwalnia nas z myślenia i odpowiedzialności za efekty naszej pracy.

Jak można pozwolić na to, aby komercyjny serwis (np. taki zatrudniający 120 osób) był pozycjonowany najgorszym z możliwych źródeł linków?! Przy takim zespole aż się prosi o połączenie działań promocyjnych z SEO, o działania z rozmachem, o kreatywne podejście do tematu. Sama często powtarzam, że działania i ich stopień ryzyka należy dostosować do potrzeb danej strony i że przy konkurencyjnych branżach trzeba liczyć się z większym ryzykiem, ale to nie znaczy, że trzeba działać bezmyślnie i sięgać po najgorsze z możliwych narzędzi.

Ilekroć konsultowałam sprawy filtrów za backlinki, w większości widać było jechanie po bandzie, wyciskanie z SWLi czy SEO katalogów tyle, ile się dało. Firmy często podzlecały działania wielu różnym firmom (podlinkowanie z profilów lub katalogów jednej firmie, piramidki drugiej, jeszcze innej dopalenie systemem) i brakowało osoby mocno siedzącej w temacie, która by to wszystko ogarnęła. Każdy z podwykonawców odwalał swoją robotę, a o efektach najbardziej dotkliwie przekonywali się właściciele tych stron. Oczywiście zdarzały się przypadki, kiedy działania takie były podejmowane z pełną świadomością ryzyka (zgodnie z zasadą „Kto nie ryzykuje, ten nie pije szampana„), albo ktoś lekko przesadził ze schematycznością linków, był też przypadek skutecznego depozycjonowania. Jednak zdecydowanie przeważały sytuacje zbyt małej świadomości na temat tego, że pozycjonowanie to bardziej wymagające działania, niż nastawienie na szybki efekt dzięki skupieniu się na 2-3 źródłach słabych linków.

No dobrze, naskoczyłam trochę na porównywarki, które i tak już mocno oberwały. Ale to dlatego, żeby przestrzec przed stosowaniem drogi na skróty i pokazać, że filtry za backlinki to codzienność i nikt nie powinien wychodzić z założenia, że jakoś mu się uda. W szczególności jeśli używa się narzędzi, które od lat są na celowniku. To jednak nie znaczy, że całkowicie usprawiedliwiam Google za sposób działania – po prostu napisałam JAK JEST. A teraz przejdę do tego, JAK moim zdaniem POWINNO BYĆ.

Zacznę od pytań – ilu z Was ocenia przydatność czy jakość strony po prowadzących do niej linkach? (nie pytam o audyt SEO) Ilu przeciętnych internautów (niezwiązanych z naszą branżą) pomyśli w ogóle o analizie backlinków? W jaki sposób backlinki (nawet te z SWLi) wpływają na jakość stron, które odwiedzamy? Doprecyzuję – nie pytam o wpływ linków na ranking, a jedynie na odbiór strony przez przeciętnego Kowalskiego.

Gdyby Google faktycznie dbało tak bardzo o jakość prezentowanych wyników, patrzyłoby głównie na zawartość stron, a nie czynniki zewnętrzne, które nie mają związku z jakością samej strony ani jej przydatnością dopóki wyświetlają wyniki trafne dla danego zapytania. Gdyby Google dbało o jakość wyników, nie stosowałoby filtrów, w wyniku których ukarane strony przestają się wyświetlać nawet na frazy brandowe. Czy przeciętny internauta, wpisując nazwę produktu z dopiskiem „Nokaut”, będzie zadowolony jeśli nie trafi od razu na tę porównywarkę? I w końcu – gdyby Google nie zależało na pokazaniu, kto dyktuje zasady, czy utrzymywałoby kary przez rok lub dłużej?

Moim zdaniem polityka karania stron przez Google mocno kuleje, a przez zmianę podejścia wyszukiwarki do takich kar (dawniej Google wiedziało, że webmaster nie ma pełnej kontroli nad backlinkami i kary były zazwyczaj nakładane po cichutku, w małych ilościach, z kilkoma głośnymi wyjątkami), sama zmieniłam nieco podejście do Google. Z jednej strony filtry nakładane są za czynniki zewnętrzne, które nie wpływają na jakość strony ocenianą przez internautów. Z drugiej strony, otwiera to furtkę konkurencji, która może sprawdzić skuteczność depozycjonowania. To z kolei powoduje strach właścicieli stron przed nieuczciwą konkurencją i przed tym, że w przypadku kary, pozostanie im rozmawiać z automatem odpowiadającym na zgłoszenia (nie nazwałabym tego korespondencją z pracownikiem Google, nawet jeśli może on dopisać krótką notkę od siebie) albo – co gorsza – spadek w wyniku aktualizacji Pingwina (potocznie zwany filtrem algorytmicznym), przy którym już w ogóle nie można liczyć na jakikolwiek kontakt ze strony Google.

Karani powinni być głównie wydawcy, bo tylko w takim przypadku jest pewność co do tego, że świadomie zdecydowali się oni emitować linki czy to z SWLa czy innych nielubianych przez Google źródeł. Poza tym, są to zazwyczaj tak słabe strony, że aż dziwi mnie brak szybkiego usuwania ich z indeksu, zanim linki znajdujące się na nich zostaną zliczone przez Google. Dziwi mnie, że Google dotąd nie potrafiło rozwinąć się w tak dużym stopniu, aby zdawać sobie sprawę z tego, iż najbardziej skutecznym działaniem będzie działanie u źródła przez dosłowne wybicie spamu i brak zliczania linków z niego. A tak, dopóki odnośniki z SWLi czy giełd linków będą skuteczne i dopóki emitujące je strony będą się łatwo wbijały do indeksu, dopóty Google będzie musiało się bawić w filtry, a spam w sieci będzie się powiększał zgodnie z zasadą „Jak Google zbanuje mi 10 stron, postawię 100 kolejnych„. To Google przyjęło złą politykę działania, która nakręca rozwój spamerskich stron zamiast je hamować zanim staną się skuteczne. I tylko Google może tę politykę zmienić jak tylko zrozumie, że nie wystarczy chwalenie się statystykami stron usuniętych z indeksu albo robienie głośnych akcji filtrów dla popularnych serwisów, bo przez nagłaśnianie tego Google jedynie pokazuje, że problem spamu w sieci czy spamerskich linków z roku na rok narasta w gwałtownym tempie.

Podsumowując, Google aktualnie stosuje kulawy system kar, ponieważ powinno skupić się na karaniu źródeł w postaci stron wydawców i karać je naprawdę dotkliwie. Z kolei dopóki Google nie zwalczy źródła spamu i będzie musiało walczyć z tzw. nienaturalnymi backlinkami przez stosowanie kar dla dopalanych w ten sposób serwisów, powinno zmienić nieco zasady kar i przede wszystkim nie powodować spadku widoczności ukaranych stron dla fraz brandowych, ponieważ to odbija się negatywnie na potrzebach internautów, o które Google ponoć tak dba.

KATEGORIE: Filtry i bany, Linkowanie
Comments (20)

Prawda jest taka, że wielki G uwala także strony, które mają po kilka BL naturalnych. Za to w topach siedzą strony, które w treści mają po kilka zdań w ogóle nie na temat. No ale jak nie wiadomo o co chodzi to chodzi o $$$. Pozdrawiam i życzę jak najmniej kar od od G 🙂

pozostaje się podpisać pod tym obiema rękami… kiedyś tam jeszcze Googlersi zarzekali się, że nie można witrynie zaszkodzić linkami, dziś mamy disavow :]

Myślę się, że ta polityka odzwierciedla ogólną strategię Google, gdzie optymalizacja zasobów stoi przed maksymalizacją jakości. Łatwiej przecież ukarać jedną docelową witrynę niż tysiące spamowych serwisów ją linkujących. To drugie byłoby oczywiście daleko bardziej eleganckie i dokładniejsze, a przy tym rozwiązałoby problem depozycjonowania. Niemniej tak jest szybciej, a jak webmaster ma problem, to niech klika disavow albo pisze maile do ruskich spamerów, żeby linki usunęli 🙂

Ja dostałem bana bo ktoś wrzucił moją stronę do automatu, który wstawia na strony kilkadziesiąt linków do różnych stron z losowymi anchorami. A najgorsze jest to, że podstrony na których jest ten spam siedzą sobie spokojnie w indeksie np forum. trf19region. org/viewtopic.php?f=2&t=277

Google chyba chce pokazać kto rządzi i przykrywa sie „dbaniem o internautów”, niestety czasem na tym oni dużo bardziej cierpią. I z jednej strony trzeba walczyć ze źródłem, jednak z drugiej warto też ukarać tych co stosują ostre pozycjonowanie (jednak dla nich dałbym lepsze kary).

Nokaut sobie zasłużył, wiedzieli co robią używająć SWL-i. Tytuł „„Jak Google chciało zamknąć biznes Polakom” trzeba przyznać chwytliwy ale nikt się nie zastanowił ile polskich stron straciło ruch bo taki Nokaut używał SWL-i Nikt też nie pisze o sklepach internetowych które musiały płacić porównywarką bo te „pożyczały” SWL-ami ruch od Google.

W 100% zgadzam się za to, że kar w Google nie powinno być. Strony spamowe i linki z nich powinny mieć wartość 0, wtedy depozycjonowanie nie byłoby możliwe i w Internecie byłoby znacznie mniej spamu niż teraz.

Dokładnie.
Nokaut sobie zasłużył, bo po jaką cholerę ryzykować SWLami? Przecież tu wystarczy trochę wyobraźni by wiedzieć, że tak ryzykowne podejście może skończyć się źle…
Google to Google, to prywatna firma, więc im wolno. Takie jest moje zdanie, a skupianie się tylko na tej wyszukiwarce to ogromny błąd.

Google może i stara się dbać o jakoś prezentowanych wyników ale po ostatniej Pandzie na pierwsze pozycje w niektórych branżach wypłynęły takie kwiatki które z jakością miały raczej mało wspólnego (i niektóre z nich są tam po dziś dzień). Krótki przykład – na pierwszej pozycji strona zawalona reklamami a treści może z 2,3 zdania. Więc z tą jakością to nie do końca tak, choć z drugiej strony domyślam się że nie tak łatwo opanować cały internet i pokazać w pierwszej kolejności te strony które najbardziej na to zasługują.

W jaki sposób backlinki (nawet te z SWLi) wpływają na jakość stron, które odwiedzamy?

To chyba oczywiste – dobre, naturalne backlinki do strony sugerują, że inni webmasterzy uznali ją za wartościową.

Z drugiej strony, otwiera to furtkę konkurencji, która może sprawdzić skuteczność depozycjonowania

Skuteczność jest zerowa, nie trzeba jej sprawdzać.

automatem odpowiadającym na zgłoszenia

Na zgłoszenia nie odpowiada automat.

Dziwi mnie, że Google dotąd nie potrafiło rozwinąć się w tak dużym stopniu, aby zdawać sobie sprawę z tego, iż najbardziej skutecznym działaniem będzie działanie u źródła przez dosłowne wybicie spamu i brak zliczania linków z niego.

Google zdaje sobie z tego sprawę, ale moc obliczeniowa kosztuje więcej niż myślisz. Zwiększenie liczby komputerów nie wystarcza, bo nie każdy kod można zrównoleglić. Jeżeli uda się zrównoleglić 95% całości a 5% dalej wymaga synchronizacji pomiędzy komputerami, nie jest to aż tak duży sukces jak się wydaje, bo przyspieszenie będzie maksymalnie 20-krotne względem wykonania na pojedynczym komputerze, niezależnie ile masz komputerów:
http://upload.wikimedia.org/wikipedia/commons/thumb/e/ea/AmdahlsLaw.svg/640px-AmdahlsLaw.svg.png
http://pl.wikipedia.org/wiki/Prawo_Amdahla

Jak Google zbanuje mi 10 stron, postawię 100 kolejnych

To się nie skaluje, nawet jeżeli po każdym banie zamierzasz tylko podwoić liczbę stron.

„dobre, naturalne backlinki do strony sugerują, że inni webmasterzy uznali ją za wartościową.”
Tyle że przeciętny Kowalski nie sprawdzi backlinków.

„Skuteczność jest zerowa, nie trzeba jej sprawdzać.”
Skoro można samemu sobie zaszkodzić backlinkami, to można to samo zrobić konkurencji.

„Na zgłoszenia nie odpowiada automat.”
Nie doczytałeś do końca zdania 😉

Może i Nokaut oraz inni dostali karę za SWLe, ale dużo osób wtedy ich używało, więc biadolenie że jaki Nokaut to jest zły jest bezsensu…

Google jest „prywatną” firmą i może robić co żywnie im się podoba, a to my Pozycjonerzy wybrlismy sobie taką branże, i pownniśmy zadbac też o inne wyszukiwarki żeby była jakas alternatywa dla Google….

Podpisuję się wszystkimi kończynami pod Twoimi tezami. Moim skromnym zdaniem G na jakości wyników przestało zależeć ładnych kilka lat temu. Teraz liczą się tylko przychody z AdWords, które można wytransferować do Irlandii – w ten sposób w Polsce nie ma ani pieniędzy webmasterów, ani przychodów z podatków, ani nawet porządnych wyników wyszukiwania. Prywatnie przestawiłem się już na Bing. Zapewne postępowano by tam tak samo, w przypadku osiągnięcia niemal całkowitego monopolu, ale trochę konkurencji na ten moment jest niezbędne.

Ja wogóle się zastanawiam jaki sens ma indeksowanie stron na podstawie ilości linków na innych stronach. przecież to jest bez sensu. Ostatnio szukałem konkretnej strony wiedziałem czego szukać ale jednak strony w google nie mogłem znależć. Zastanawiałem się jak to możliwe skoro podałem nawet miejscowość i dalej nic, a w pobliżu tylko jedna taka firma. Ale teraz już rozumiem, skoro indeksowanie stron jest takie bez sensowne.

Od zawsze SWL-e były na cenzurowanym i ktoś kto pozycjonuje swój serwis linkami z SWLi powinien zdawać sobie sprawę, że to może być „one way ticket” i o ile robią to prywatne osoby i dotyczy to stron, które nie mają jakiegoś większego znaczenia i potencjału to w przypadku serwisu Nokaut zatrudniającego seowców na etacie dziwi takie podejście do seo. Dysponując sporym budżetem oraz zespołem ludzi można naprawdę przecież nie używać SWLi do budowania linków do strony pozycjonowanej. Drugą sprawą jest to, że kary jednak są bolesne i faktycznie gdyby wartość linka oznaczonego jako ryzykowny nie wpływała na pozycje tylko po prostu jej nie podnosiła nie mielibyś również ryzyka depozycjonowania, które w ostatnim czasie jest naprawdę zbyt proste. Najśmieszniejsze jest to że e-weblink życzy sobie płatności za zablokowanie możliwości linkowania do strony, co dla mnie jest nonsensem, bo dlaczego niby właściciel witryny musi płacić 10 kredytów na rok, aby zablokować możliwość linkowania z e-weba. To chyba właściciel witryny ma prawo decydować o tym czy chce mieć możliwość korzystania z takiego „dobrodziejstwa” i taka blokada powinna być zdecydowanie bezpłatna (jak chociażby w gotlinku).

Nie tylko Nokaut oberwał. Ucierpiały prawie wszystkie porówywarki. Nie ma co biadolić, a rozwijać bardziej content. W grunci rzeczy sklepy i porównywarki mają olbrzymi problem. Opis produktów wygląda u wszystkich identycznie. Nie można usunąć całego internetu, chociaż google by chciało aby każdy miał autorskie opisy i wartościowe zdjęcia.

Natomiast warto wziąć pod uwagę to, że google samo zamierza sprzedawać usługi i to jest sporym zagrożeniem dla polskiego internauty – bo małego nie będzie stać na promocję.

Można powiedzieć, że Google jest jak polski rząd. Jak na wiejskiej zmieniają przepisy to firmy zwalniają ludzi. Taki jest świat. Mówią, że w niebie będzie sprawiedliwiej.

Na wielu forach prosiłem o pomoc w znalezieniu wyników badań społecznych, które dowodzą że dobre i wartościowe strony nagradzące są linkiem przez czytelnika. Nigdy nikt nie wskazał takiego badania. Podstawowy czynnik oceny strony jakim jest ilość linków to demagogia G. W ocenie wielu osób miała ona chyba służyć łatwej manipulacji wynikami w wyszukiwarce. Pod tym płaszczykiem można eliminować internetowych konkurentów reklamowych, można zniechęcać firmy do wydawania pieniędzy pozycjonowanie.
Niestety ten system giganta oparty na linkach nakręcil w internecie gigantyczny spam, powstanie milionów nikomu nie potrzebnych stron, zaśmiecanie wartościowych witryn itd. Na dodatek miliony złotych zarobione na polskich firmach w adwordsie wypływają za granicę i pomnażają fortunę. Może warto promować inne wyszukiwarki – dla naszego wspólnego dobra ? Czesi potrafili oprzeć się G – spróbujmy i my. Ja korzystam z wyszukiwarki https://duckduckgo.com/ i namawiam do tego innych. Przynajmniej nie jest ona tablicą reklamową !

[…] wkład do dyskusji wnieśli już Gdaq i Lexy, których świetnie się czyta w tym kontekście. Dyskusja w komentarzach pod ich artykułami jest […]

To taki trochę zamknięte koło – z jednej strony za linki można oberwać po łapach (czyt. pozycjach), zaś z drugiej strony bez linków pozycjonowanie bardziej konkurencyjnych fraz raczej nie jest możliwe. Pozycjonowanie robi się coraz trudniejsze i trzeba coraz więcej pracy, czasu i pieniędzy inwestować, aby pozyskiwać linki z „dobrych” miejsc.

Nokaut swego czasu był liderem co do ilości zakupowanych spam linków. Śmieszne skargi u śmiesznej firmy.

O ile można zrozumieć walkę ze spamem w celu poprawy wyników wyszukiwania, to coraz gorszy bajzel w serpach i wręcz odwrotny trend do tego co pisze Google jest już mocno zastanawiający. Coraz częściej jest problem ze znalezieniem interesujących nas tematów mimo, że zapytania konstruowane są poprawnie i dość konkretnie.

Jeszcze rok temu tego problem nie był był widoczny w takim stopniu jak jest obecnie. Często jest tak, że wyniki są tylko częściowo dopasowane, zgodne w sumie z branżą tematu jaki wyszukujemy. Jednak nie znaczy to, że takie wyniki internautę satysfakcjonują. Mam jakieś nieodparte wrażenie, że trend ten jest ściśle powiązany z Adwords, który wręcz odwrotnie, jest coraz bardziej dopasowany do wyszukiwanych fraz.

Po prostu ludzie maja częściej klikać w reklamy, a nie znajdować szybko i bezproblemowo interesujące ich tematy w wynikach organicznych. Jak sądzę Google nie powie o tym w prost i stąd mamy ich ciągłe zapewnienia o coraz lepszych algorytmach z korzyścią dla internauty, a pogorszenie wyników zrzucane jest na pozycjonerów. To jest oczywiście moje zdanie ale po pytaniach jakie internauci do mnie kierują sądzę , że nie jest to tylko moje własne widzi mi się 🙂

Na zakończenie podam taki przykład z przed dwóch dni. Jeden z internautów pisał z pretensjami do mnie, że znalazł mojego bloga o pozycjonowaniu stron na zapytanie „tonery do drukarki” 🙂 pytając jaki jest sens pozycjonować na takie frazy? Oczywiście nie ma żadnego sensu i blog ani nie był nigdy pozycjonowany na ta frazę, ani nie był nigdy pod taką frazę optymalizowany, ani nie zawierał w treści wspomnianej frazy. To taka ciekawostka.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2017 Lexy's SEO blog. All Right Reserved.