Czy Pingwin może poprawić jakość wyników w Google?

pingwinMój ostatni wpis różnił się dość mocno od poprzednich swoją formą i podejściem do tematu. Również kilka najbliższych postów na blogu będzie odbiegało od starej formy, ponieważ przedstawię w nich swoje zdanie (często „na czuja”) do niektórych tematów i będę zachęcać Was do podzielenia się swoimi opiniami. Zacznijmy od następującego pytania:

Czy Pingwin (biorąc pod uwagę 1 z jego 2 celów: linki przychodzące) i ręczne kary za backlinki mają szansę poprawić jakość wyników w Google?

Moim zdaniem: NIE.

W wyniku aktualizacji Pingwin oraz ręcznych kar za tzw. nienaturalne linki przychodzące bardzo często cierpią duże, popularne serwisy o wysokiej jakości. Są to często sklepy istniejące od wielu lat, czy serwisy ogłoszeniowe (do mnie np. trafiły przypadki kilku serwisów turystycznych). Są to zatem serwisy komercyjne, a skoro utrzymują się na rynki przez lata, muszą cieszyć się dużym zainteresowaniem i tym samym muszą być wysoko oceniane przez ich użytkowników.

Skoro zatem pozycje porządnych serwisów obniżają się, kary te odbijają się negatywnie na 3 grupach:

  1. na właścicielu strony i jego pracownikach – utrata ogromnej części ruchu dosłownie z dnia na dzień, w skrajnych przypadkach może zakończyć się zwolnieniami. W końcu nagle zmienia się budżet, a jeśli serwis nie radził sobie dotychczas wystarczająco dobrze i filtr trafi w momencie podejmowania strategicznych decyzji, może zajść potrzeba likwidacji serwisu;
  2. na internautach – w szczególności na tych, którzy już odwiedzali stronę, a teraz nawet po wpisaniu fraz brandowych mają utrudniony dostęp do niej;
  3. na Google – jeśli internautów irytuje widoczna zmiana w wynikach wyszukiwania, przez które ciężko im dotrzeć do ulubionych stron, cierpi na tym sama wyszukiwarka. Nie da się ukryć, że większość z nas nie lubi nagłych, niezapowiedzianych zmian. Jesteśmy przyzwyczajeni do obecnych wyników i jeśli nagle coś je mocno zaburzy, nie będziemy z tego zadowoleni.

A na kim odbija się to pozytywnie? Na właścicielach nowych stron, lub tych, które nie miały wystarczającego budżetu na zlecenie SEO, albo źle trafiły z wyborem pozycjonera. W końcu spadające strony ustępują miejsca innym, czy jednak na pewno tym lepszym? Pominę tu wszelkie teorie spiskowe na temat skłonienia poszkodowanych serwisów do wykupienia reklam, chociaż nie zdziwię się, jeśli pojawią się komentarze na ten temat.

Podsumowując, jakość linków nie zawsze ma przełożenie na jakość strony, a to przecież ona jest najważniejsza i to ona powinna mieć największy wpływ na ranking. Dlatego kary za backlinki to dla mnie jakaś abstrakcja, której nie jestem w stanie pojąć, ale… nie mam wyjścia i jeśli coś jest nie tak z profilem linków moich stron, muszę zapomnieć o starej (ponoć nadal aktualnej) zasadzie Google:

„Twórz strony z myślą o użytkownikach, a nie wyszukiwarkach.”

i przez chwilę myśleć tylko o wyszukiwarkach (a raczej tylko jednej wyszukiwarce – Google), i siedzieć godzinami na porządkach w działaniach off-site, zamiast poświęcić je na rozwój strony. Czy do tego miało to doprowadzić?

KATEGORIE: Filtry i bany, SEO refleksje
Comments (29)

Ja zaobserwowałem jako efekt działąnia ostatniego wydania Pingwina pewną rzecz. Na kilku serwisach wypadły z TOP10 strony główne serwisów a na ich miejsce weszły delikatniej linkowane podstrony. W jakimś stopniu nastąpiła „zamiana miejscami”. Efekt końcowy był niemal na zero. Ciekawa sytuacja nastąpiła przy jednym z serwisów – wyniki dla słów kluczowych, które siedziały w okolicach 30 pozycji nagle weszły do TOP10. A te które były w TOP10 – strona gółówna została zastąpiona podstroną, a strona główna poleciała w kosmos.

Generalnie sporo zamieszania, z punktu widzenia moich stron efekt końcowy bliski zera.

Jest to o tyle śmieszne, że w topy wbijają się strony, które składają się z obrazu i dwóch linijek tekstu. Gdzie tu jakość strony? To chyba wiedzą tylko ludzie z G.

doprowadzić to miało jak zwykle do zamieszania/przemieszania/wymieszania i wzmocnienia adwords, czasami szukając czegoś w sieci – tu czytaj google, dziwie się jak mało wartościowe strony trafiają teraz do top10

Zgadzam się, niestety każda kolejna aktualizacja wprowadza w wynikach bardzo dużo zamieszania i nie daje o wiele lepszych wyników. Można dojść do wniosku, że przetasowania nie oznaczają polepszania – bo przecież jedne spamki spadają, inne wypływają.

Zastanówcie się dobrze i odpowiedzcie sobie na pytanie ile razy podaliscie komus adres strony w anchorowej postaci, a ile razy było to kopiuj wklej czystego linka. Sami się wkopaliśmy w aktualna sytuacje, twarzac od poczatku google „kontent” oparty na anchorach.

Druga strona jest taka że to my tworzymy wyniki wyszukiwania, jeżeli google na podstawie swoicha analiz miałoby serwować wyniki, to w topach na każdą frazę mielibyśmy „czołowe polski portale”. Chcesz cos kupić: allegro, ceneo. Szukasz firmy remontowej: gumtree, tablica. To właśnie te strony maja mase naturalnych linków bez anchora, i maja topy jakich wczesniej nigdy nie mieli.

Czy Google ucierpi? Duży może sobie pozwolić na więcej. A jeśli chodzi o rewolucyjne zmiany w serwisach, to wiele osób na to narzeka, a potem przyzwyczaja się do nowego stanu rzeczy. Poza tym tak jak wspomniałaś, poszkodowane serwisy nie chcąc tracić klientów korzystają z płatnego sposobu pojawienia się na 1 stronie (AdWords) i tutaj Google zdecydowanie nie jest poszkodowanym.

Obserwuje rynek „wynajem samochodów” + miasto. To co się tam stało z wynikami to zgroza. Najgorzej, że strony znikaja całkowicie, dlaczego po zmianie algo wywala jakiś wynik – można go tylko cofnąć miejsca jest sporo w 1000 wynikach

„…w szczególności na tych, którzy już odwiedzali stronę, a teraz nawet po wpisaniu fraz brandowych mają utrudniony dostęp do niej”

myśle, że internauci nie odczują zbyt wielkiej różnicy w stronach które często odwiedzają, za racji personalizacji wyników

Myślisz, że przy filtrze algorytmicznym czy nawet ręcznym wystarczy personalizacja? Ja po sobie widzę, że ciężko jest mi trafić na strony, które dawniej odwiedzałam. Ale nie jestem w stanie określić, która z aktualizacji miała na to wpływ i czy to się odbywało stopniowo, czy z dnia na dzień.

Myślę, że poniekąd tak, mówię tak ponieważ kilku moich klientów ale także znajomi którzy często odwiedzają te same strony z tych samych przeglądarek wchodząc na nie z wyszukiwarki nie widzą różnicy mimo, że monitor pozycji pokazuje inaczej, oczywiście nie generalizuje.

W Polsce gdzie google ma koło 98% rynku wyszukiwania raczej nie ucierpi. Niech nawet 1% użytkowników odejdzie. Zrekompensuje sobie to zwiększeniem liczby reklam w adwords. Część lub nawet większość stron wspomnianych w artykule zdecyduje się na emisje reklam. Prawdopodobnie google zwiększy się przychód z adwords i tyle.

@Lexy, jak najbardziej się zgadzam z Twoimi obserwacjami. Jednak wydaje mi się, że wszystko zależy od specyfiki strony. Mam stronę o tłumaczeniach, w jej ramach prowadzę bloga – staram się, żeby to były wartościowe treści, regularnie dodaję wpisy etc. Strona prowadzona zgodnie z zasadami optymalizacji, stale monitorowana, backlinków nie ma specjalnie dużo. Jeśli już coś dodaję, staram się, żeby było w miarę możliwości wartościowe. Nie miałam też specjalnie parcia, żeby tę stronę jakoś specjalnie pozycjonować (na istotne dla mnie frazy była gdzieś na 20-30 pozycji). Tymczasem po zmianie algorytmu poszybowała w górę i na kilka fraz trzyma się mocno w TOP10. I to chyba jest przykład na działanie wprowadzonych zmian – mało backlinków i wartościowa treść. Ale oczywiście to tylko przypadek jednej z moich stron 😉

[…] dni temu Lexy napisała na blogu, że aktualizacja Google Pingwin w połączeniu z ręcznymi karami nakładanymi na wartościowe […]

Największy problem jest z klientami. Mało, który chce wkładać permanentną pracę w stronę. Więc pozycjonujemy od paru lat ciągle to samo.

Moim zdaniem Pingwin nie poprawia jakości wyników, powoduje tylko zamieszanie. Wystarczy tylko popatrzeć na wyniki hasła pozycjonowanie. Na pierwszych pozycjach jest kilka firm, które ewidentnie mają zaspamowany profil linków. Koreańskie i chińskie strony z księgami gości mają być dobrym miejscem do zdobywania linków? Zgadzam nie, że dobre strony korzystają na pingwinie ale niestety wypływa też wiele spamu, zbyt wiele …

Ja do końca się nie zgodzę z tym wpisem. Od początku Google mówiło by nie zdobywać linków sztucznie, ale trzeba było bo inaczej nie mieliśmy pozycji. Teraz został zrobiony porządek i nagle płacz. Ktoś pisze, że jakaś byle jaka strona weszła do top, osobiście nie zauważyłem, ale nawet jeśli to nie będzie tam długo, za chwilę znowu ktoś się tam wbije. Taka po prostu jest ta branża.

To czy pingwin może poprawić jakość wyników, widać dogłębnie po tym co się ostatnio wyświetla w organikach. Tak poprawili wyniki, że zacząłem korzystać z konkurencyjnej szukajki prywatnie, aby znaleźć interesujące mnie strony. Teraz to się wyświetla dopiero syf 🙂 No ale podstawowy cel został osiągnięty, czyli dokopać pozycjonerom ku uciesze gawiedzi.

Ja zauważyłam, że w topie w google uk na mało popularne frazy lokalne są nawet strony, do których prowadzi zaledwie kilka beznadziejnych linków. Domeny mają np ponad 2 lata, ale i tak nie ogarniam tego zjawiska:/

Nie da się nie zgodzić, że każda aktualizacja sieje czasami większy, czasami mniejszy zamęt. Właścicieli stron dotyka to w różny sposób, ale tak jak zaznaczasz w artykule, wiele czynników wskazuje na to, że zmiana algorytmu nie poprawia jakoś wyników Google. Być może kiedyś to się zmieni…

Nie ma co narzekać, tylko trzeba szybko przestawić się na nową rzeczywistość.
Co do jakości to na pewno się poprawia, w końcu kiedyś byle jaką stronę można było SWL’em dość łatwo wcisnąć w top10. Teraz trzeba się więcej napracować, a to generuje koszty. Skoro już właściciele stron wydają pieniądze to chcą je odzyskać, a niskiej jakości treścią raczej nie przekonasz do siebie użytkowników. Czyli musisz stale poprawiać jakość, bo przy braku konwersji wysoka pozycja nic nie daje.

A mi się wydaje, że nasze polskie wyniki są zbyt przelinkowane i jak się pojawia ktoś w wynikach nie pozycjonowany to jest to dziwne. Popatrzmy na wyniki innych krajów (Szwajcaria np.) – tam nikt linków nie zbiera

Z tym przelinkowaniem to chyba coś jest na rzeczy. Ostatnio widzę w topie dawno zapomniany blog z jednym postem nigdzie nie linkowany a docelowa strona gdzieś daleko:)
Docelowa strona też nie była linkowana mocno.
Ciężko wyczuć co w tej chwili google docenia bo czasem w topie są „śmieci” .
Chyba stał się przewrażliwiony nasz wielki brat:)

Właśnie tam, gdzie google będzie sobie mogło pozwolić na rąbanie użytkownika, będzie to robić. Moim zdaniem tylko szukarka made in poland, która stanie się konkurencją, będzie mogła zmienić podejście googla.

Pingwin czy koliber 🙂 teraz to dopiero po 8-9 stycznia śmietnik w TOP jest.

Tak, olewanie usera to pierwszy krok w tworzeniu konkurencji. Oby coś się pojawiło. Ja osobiście zaglądam częściej do Binga.

No to dostaniesz od miłej konkurencji porcję linków nienaturalnych i się skończy rumakowanie 🙂

Jakoś niewiele się zmieniło. A konkurencja, jeśli w ogóle taka istnieje, raczej nie miałaby żadnego interesu robić coś takiego, bo akurat tę stronę prowadzę hobbystycznie.

Kluczowe jest dostarczenie użytkownikowi unikalnych informacji, których potrzebuje. Taka strategia poza minimalizacją ryzyka otrzymania kary od wyszukiwarek pomoże zaangażować internautę i przekształcić go w klienta. Znacznie zmniejsza to szanse na ukaranie witryny również przy kolejnych aktualizacjach i pozwala kreować wizerunek eksperta, a więc znacznie zwiększyć wiarygodność naszej marki w sieci.

Ja nie wiem jak to działa ale widzę, że strony, które zdobywają spamerskie linki często złożone z kilkunastu podstron są bardzo mocno wypozycjonowane do top 10

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.