Dostosowanie stron pod Panda Update

Tyle się od dawna pisze o Pandzie, że aż wstyd dopiero teraz publikować pierwszy wpis na jej temat 😉 Dla niezorientowanych podaję kilka najważniejszych informacji. Panda Update (lub Farmer Update) to aktualizacja algorytmu Google, która w pierwszej kolejności (w połowie lutego 2011 r.) dotknęła serwisy ze Stanów Zjednoczonych, później (11 kwietnia 2011 r.) w pozostałych anglojęzycznych krajach, a co do tego, czy dotarła już do Polski, nie ma oficjalnego potwierdzenia, ale są już przypuszczenia wielu osób z branży SEO. Jeśli chodzi o mnie to w pierwszych dniach maja zauważyłam nagłe skoki w pozycjach niektórych stron i wyglądało to tak, jakby wzrosła wartość contentu i optymalizacji strony w stosunku do linków przychodzących.

Głównym celem Pandy mają być strony z treścią o niskiej jakości i tym razem mowa nie tylko o serwisach kopiujących treść od innych, ale także o tych, których zawartość (mimo jej unikalności) może zostać przez Google oceniona jako niewystarczająco przydatna. Jak podaje Sprawny Marketing we wpisie Panda/Farmer coraz bliżej Polski:

„Google wprowadził też dalsze ulepszenia do Pandy. Do tej pory uderzała ona wyłącznie w farmy treści, tj. poza słabą jakością spełniony musiał być jednocześnie warunek znacznej wielkości witryny (liczonej liczbą podstron). Od teraz ofiarą Pandy paść mogą też nieduże witryny; wystarczy, że zamieszczana na nich treść zostanie zakwalifikowana jako słaba jakościowo.”

Co gorsza, zawartość pojedynczych podstron może wpłynąć na widoczność całego serwisu. Oczywiście nie wiemy, gdzie jest granica i czy ciosu od Pandy nie mogą spodziewać się np. właściciele forów dyskusyjnych, jeśli niektórzy użytkownicy postanowią wkleić na nich mniejsze bądź większe ilości tekstów opublikowanych już w sieci albo bardzo krótkich, niewiele wnoszących do tematu. I właśnie temu chcę poświęcić dzisiejszy wpis – minimalizacji ryzyka, że zawartość pojedynczych podstron wpłynie negatywnie na widoczność całego serwisu.

Sposoby ochrony przed Pandą

  1. Rozbudowa niewielkich witryn
    Skoro Panda lubi jeść i jest wybredna przy wyborze, co jej smakuje a co nie, mniejsze stronki trzeba będzie po prostu rozbudować. Niestety mam obawy o to, że można będzie zapomnieć o jednej z ważniejszych (moim zdaniem) wskazówek jakościowych Google, która mówi:

    „Twórz strony z myślą o użytkownikach, a nie wyszukiwarkach.”

    ponieważ to, co doceni użytkownik, nie musi zostać dobrze ocenione przez algorytm. Rozbudowa stron może się zatem coraz częściej odbywać tylko pod kątem wyszukiwarek.

  2. Blokada indeksacji nowych podstron do momentu uzyskania przez nich wystarczającej ilości treści
    W serwisie searchengineland.com czytamy m.in. o 2 przykładach serwisów:

    • serwisy z opiniami o firmach, które początkowo na poszczególnych wizytówkach zawierają wyłącznie opis firmy, często w formie identycznej, w jakiej wykorzystano go na wielu innych stronach;
    • strony typu Q&A, gdzie na nowych podstronach początkowo znajdują się tylko krótkie pytania.

    W powyższych przypadkach zaleca się użycie metatagu noindex na nowych podstronach, które nie mają jeszcze żadnych opinii lub odpowiedzi na zadane pytania. Jeśli serwis jest wyjątkowo rozbudowany, lepszym rozwiązaniem może się okazać użycie blokady wspomnianych podstron za pomocą wpisu w pliku robots.txt – dzięki temu Googlebot nie będzie tracił czasu na odwiedzanie mało wartościowych podstron i skupi się na tych, na których znajdują się już jakieś opinie czy odpowiedzi. Podsumowując, niektóre rodzaje stron będą musiały się postarać o jak największe zaangażowanie ich użytkowników nawet tylko po to, aby móc spać spokojnie indeksując poszczególne podstrony. Generalnie jednak wszelkie działania angażujące społeczność w rozwój strony czy też jej reklamę, mogą okazać się korzystne z punktu widzenia SEO.

  3. Usunięcie lub wyindeksowanie powielonych treści
    Tutaj sprawa jest jasna i jak najbardziej zrozumiała, chociaż niektóre serwisy są przez to skazane od razu na porażkę (np. serwisy z informacjami prasowymi). Jeśli na stronie publikujemy treści skopiowane z innych serwisów, powinniśmy albo te teksty całkowicie usunąć, albo zostawić z metatagiem noindex jeśli zależy nam na tym, aby były one dostępne dla użytkowników, ale nie spowodowały obniżenia pozycji całego serwisu. Kolejnym rodzajem podstron blokowanych przed indeksacją powinny być wyniki wyszukiwania oraz sortowania (powodują one generowanie nowych podstron z tą samą treścią, tyle że w innej kolejności).
    Dla stron WordPressowych polecam wtyczkę Robots Meta, która oprócz ogólnych ustawień (np. wspomnianej blokady indeksacji wyników wyszukiwania) umożliwia indywidualne ustawienia dla wybranych podstron. Do tego dorzuciłabym wtyczkę Exclude Pages from Navigation, dzięki której można usunąć linki do niektórych podstron z menu.

Vanessa Fox, autorka wspomnianego już artykułu na searchengineland.com sugeruje, aby przeglądać logi serwerów pod kątem tego, które podstrony są odwiedzane przez Googlebota najrzadziej. Dzięki temu można będzie dowiedzieć się, które z nich wymagają naniesienia poprawek, a później obserwować, czy zmiany wpłynęły korzystnie na częstotliwość tych odwiedzin. Oprócz tego doskonałym źródłem informacji na temat (nie)zadowolenia użytkowników z zawartości naszych stron, są statystyki (np. Google Analytics). To dzięki nim sprawdzimy, które z podstron nie generują ruchu lub ruch ten jest mało wartościowy (np. mają krótki czas odwiedzin lub wysoki wskaźnik odrzuceń).

Ciekawostki na temat Pandy

Podsumowując informacje z różnych anglojęzycznych źródeł, pojawiło się jeszcze kilka ciekawostek na temat Panda Update, z tym że część z nich nie została oficjalne potwierdzona przez Google albo została wywnioskowana przez pojedyncze osoby, które pokusiły się o dokładne analizy sytuacji. Nie traktujmy ich więc jako pewne informacje:

  • analiza serwisów, które spadły oraz tych, których pozycje się utrzymały wykazały, że spadek zanotowały strony o praktycznie takiej samej długości artykułów na wszystkich podstronach – taki opis pasuje m.in. pod precle, na których większość osób trzyma się minimalnej granicy, więc teksty często mają podobną objętość;
  • inne analizy wykazały, że bardziej odporne na Pandę okazały się być strony często reklamowane w serwisach społecznościowych, o znanej marce i z dużą ilością głębokich, także te znajdujące się w Google News;
  • zamiast typowych działań typu Article Marketing postarajmy się o publikację gościnnych wpisów na wartościowych serwisach, przy czym dla każdego z nich przygotujmy unikalną wersję zamiast rozsyłać ten sam tekst na wiele stron;

    „(…) Matt said that articles syndicated hundreds of times across the web just don’t provide valuable links and in any case, they aren’t editorially given. (…)

    He suggested contacting an authority site in your space to see if they would publish a guest article that you write particularly for them. If the authority site finds your content valuable enough to publish, that’s a completely different situation from article hubs that allow anyone to publish anything.”

    Wniosek – zamiast stawiać kolejne precle, róbmy blogi tematyczne umożliwiające od święta publikację gościnnych wpisów z linkami.

  • ponoć linki z materiałów prasowych nie liczą się do PR, chyba że…

    „Matt clarified that the links in the press releases themselves don’t count for PageRank value, but if a journalist reads the release and then writes about the site, any links in that news article will then count.”

    Wiem z doświadczenia, że znaczna większość serwisów z informacjami prasowymi publikuje je w identycznej wersji, w jakiej zostały im one przesłane. Ciekawi mnie więc, czy Panda Update doprowadzi do zmiany zasad publikacji na tego typu stronach.

  • sygnałem dla Google, przez który moderatorzy mogą się przyjrzeć stronie, są zgłoszenia spamu oraz usuwanie stron z wyników wyszukiwania za pomocą wtyczki „Personal Blocklist”;
  • nie warto przesadzać z reklamami na stronie, przez które użytkownicy mogą gorzej ocenić dany serwis – generalnie powinniśmy zadbać o jak najlepszy odbiór strony przez użytkowników, a ten zależy nie tylko od jej zawartości, ale także prezentacji, sposobu pisania, błędów w artykułach itp.;
  • nie należy przesadzać z linkowaniem wewnętrznym;
  • należy używać taga „canonical” w razie dostępności tej samej treści pod kilkoma adresami;
  • serwisy uczestniczące w programach stowarzyszeniowych powinny zadbać o jak najlepszą „wartość dodaną„, dzięki czemu użytkownicy będą chętnie powracać na taką stronę.

Dodam jeszcze, że w przypadku gdy naszej stronie dostanie się od Pandy, po naniesieniu odpowiednich zmian należy wysłać zgłoszenie ponownego rozpatrzenia.

Panda nie doszła jeszcze do Polski

Według ostatnich informacji Matt Cutts zapowiedział opóźnienie we wdrażaniu Pandy w krajach pozostałych niż anglojęzyczne.

zmiana algorytmu Google, znana pod nazwą „Panda”, wciąż wpływa wyłącznie na wyniki wyszukiwania pokazywane użytkownikom anglojęzycznym.(…)

Matt nie chciał oczywiście podać żadnych konkretnych dat, ale stwierdził, że jest to kwestia raczej „kilku miesięcy” niż „kilku tygodni”. (…)

(…) w różnych miejscach świata i różnych językach stosuje się różne metody spamerskie, a Panda dostosowana jest na razie do tych stosowanych na witrynach anglojęzycznych. Np. „w Polsce (…) witryny mają zupełnie inny profil linków niż witryny w innych krajach”.

PS Ostatnio dodałam na blogu wtyczkę umożliwiającą mailowe informowanie o nowych komentarzach do wpisu. Zachęcam do korzystania z niej i oczywiście do dodawania komentarzy 😉 Jakie macie doświadczenia i obawy związane z Panda Update?

KATEGORIE: Pozycjonowanie stron
Comments (27)

Nie mamy obaw 🙂
Panda = Pic na wodę.

Wypozycjonować się można contentem na stronie, w mniejszej ilości brane są pod uwagę linki przychodzące. jeśli się jest właścicielem strony/bloga jest łatwiej, dopisujemy treści i z czasem podstrony z treścią są widoczne wszędzie.
Trudniej jest wypozycjonować klienta, do którego strony brak dostępu.

Sporo interesujących ciekawostek ale odnośnie jednej mam pytanie do autorki. W artykule znajduje się teza jakoby podobnie objętościowo wypełnione tekstem podstrony mogły szkodzić, że google widziałoby podobieństwo do precli. Czy względem subdomen zachodzi podobne prawdopodobieństwo, gdy subdomeny nie są preclami, tylko tekst znajdujący się na nich, przez specyfikę tematu zajmuje podobną objętość na każdej z nich?

A ja na stronce firmowej dodałem trochę contentu w postaci artykulików-poradników.
Głupi błąd z przeszłości- udostępniłem te artykuły także w serwisach do przedruku materiałów.
No i teraz te same teksty hulają po necie. Dają także oczywiście linki prowadzące do mojej strony, ale jednak 10/20 podstron jest zduplikowanych.

Z drugiej strony domena nie jest już nowa, całkiem dobrze podlinkowana… powinno być ok 🙂

Pozytywny, tekst o preclach to tylko moja luźna refleksja 🙂 Musisz więc sam odpowiedzieć sobie na to pytanie.

Co do przedruku artykułów to coraz częściej spotykam się z odrzucaniem duplikatów, nawet jeśli zgłaszany tekst został opublikowany wcześniej dosłownie na 1 stronie. Najbardziej dziwi mnie to, jeśli unikalności wymagają serwisy zezwalające na przedruk, które z założenia i tak nie będą miały unikalnych tekstów. Takie serwisy co prawda wymagają podania źródła przy wykorzystaniu tekstów z nich, ale dopóki ma ono prowadzić do strony głównej, a nie bezpośrednio do kopiowanego artykułu, raczej nie pomoże to Googlowi w rozpoznaniu oryginału od kopii.

Zastanawiałam się nad tym, chociaż tamte strony dostały bana na początku kwietnia, a wtedy według oficjalnych informacji Panda wchodziła dopiero do anglojęzycznych krajów. Mimo wszystko przez tę sytuację upewniam się w przekonaniu, że teraz zalecenie Google co do tworzenia stron z myślą o userach straci ważność, bo strony trzeba będzie rozbudowywać tylko po to, żeby szukarka się nie przyczepiła.

Dochodzę do jeszcze jednego wniosku, że na zmianach opisywanych w tym artykule mogą najbardziej ucierpieć osoby spoza branży. Zwykli właściciele stron w życiu nie pomyśleliby o tym, żeby np. zablokować indeksację wyników wyszukiwania, albo żeby wymagać unikalnych tekstów (lub dodawać noindex) na stronach, na których zezwalają na tworzenie treści przez społeczność. O takich detalach jak np. możliwość zaszkodzenia całemu serwisowi przez pojedyncze podstrony, wiedzą tylko osoby śledzące nowinki w branży.

Panda = dalsza walka z black hat seo.

Ogólnie Google stara się ciągle czyścić swoją wyszukiwarkę od syfu, a tym samym polepszyć wyniki wyszukiwania.

Czasami jak szukam informacji u wujka G to wchodzę na czyjeś zaplecze i tam właśnie znajduję pożądaną informację, właśnie tego google żąda od webmasterów.
Pozdrawiam serdecznie.
PS. Fajny artykuł, ale tłumaczenia cytatów także mogłyby się znaleźć.

Nie masz wrażenia Lexy, że ten artykuł to odpowiedź na pytanie postawione w jednym z Twoich ostatnich postów dotyczących stron migrenowych, a który to temat wywołał też sporą dyskusję na Forum Google?

Tak…. Chociaż moim zdaniem jak serwis będzie dobry, to nawet i kilka „kiepskich” stron mu nie zaszkodzi.
A że będzie trudniej?
No cóż – domu nie potrafię budować, biorę od tego ekipę – może i czas, aby SEO zaczęło być normalną branżą? Bo na razie jest to „wielka piaskownica”…
Czytałem gdzieś wypowiedź Matta, że Panda do Niemiec ma wejść „na tygodniach”/”paru miesiącach” – czyli ja obstawiam, że nas to jeszcze nie dotknęło – ale jak już to się stanie, to wejdzie u nas jednocześnie z innymi krajami Europy

Zaktualizowałam artykuł o ostatni podpunkt, w którym znajduje się cytat ze Sprawnego. W takim razie mamy jeszcze trochę czasu na przygotowania do Pandy, chociaż to co będzie dotyczyło tylko polskich wyników wyjdzie dopiero po jej wdrożeniu.

No ja niestety odczułem Pandę i to bardzo konkretnie, wiele stron mi pospadało z tym że uważam że te informacje odnośnie jakości tekstu to nie to co miało ostateczny wpływ a zasadzie bardziej sposób linkowania. Pospadały strony które były pozycjonowane na proste frazy równie prostymi metodami jak precle, itd. Strony linkowane z zaplecza nawet się nie ruszyły. Być może jest to związane z tymi wszystkimi rzeczami na zasadzie, że precle były traktowane synonimizerem, a zaplecze jest zawsze unikalne.

Marta – dopiero ciekawie bedzie z ruchem na sklepach internetowych lub porownywarkach – gdzie praktycznie 90 % stron ma ta sama powielana tresc.

Juz w tej chwili latwo mozna ubijac mloda konkurencje stosujac facebook czy allegro

No też się zastanawiam jak będzie to wyglądało z porównywarkami.
Większość sklepów udostępnia swoje oferty do integracji innym podmiotom , a tam wiszą później kopie takiej oferty.Chyba , że google potrafi rozpoznać co było pierwsze.Np po prowadzących linkach do pierwowzoru.
Jeśli nie , to pozostanie odwieczny dylemat jajka i kury. 😉

Potrafi rozpoznać – ale nie zawsze dobrze. Dlatego dobrze jest wykorzystywać do informacji o nowych kwestiach media społecznościowe – co zresztą samo Google zaleca.

Wiele osób narzeka na fakt, że Panda namieszała im w wynikach wyszukiwania, a podobno dziś lub wczoraj ogłoszono oficjalnie, że Panda wejdzie do nas najwcześniej za kilka miesięcy. Jak to się więc ma do niczym niewytłumaczonych skoków w wynikach wyszukiwania już teraz?

Artur Smolicki

@newCreative – im bardziej kombinujesz, tym większe skoki. To normalne. Na stabilnych serwisach nie widzę żadnych skoków, jak coś, to ruch do góry.

Dzięki Lexy za jasne i zrozumiałe informacje 🙂
Osobiście jestem za white seo więc spokój, ale co ze stabilnością w praktyce reguły „Twórz strony z myślą o użytkownikach, a nie wyszukiwarkach.” ??
Jeszcze trochę i będą powstawały strony całkowicie różnie widzialne dla userów i dla robotów…

Z Preclami może być ciekawie jeśli przypuszczenia Lexy okażą się prawdą.
Bo jeśli linki z Precli nagle stracą na ważności a ktoś tylko na nich opierał Linkowanie to spadki będą ostre.
A znam minimum dwie takie agencje z wieloma klientami które na „Preclowym” koniku jadą ostro.
Czyli ma się rozumieć nastał czas budowania tematycznego zaplecza i uzupełniania treści na stronie.

Przydatny spis porad odnośnie przygotowań do Pandy. Na moim blogu wrzuciłem dwie grafiki odnośnie pandy, aby rozładować emocję tych którzy się boją update’u 😀

To ja dorzucę filmik http://www.youtube.com/watch?v=FzRH3iTQPrk 🙂 Jak łatwo przestraszyć Pandę, co? 😉

Moim zdaniem Panda u nas już jest. Tylko nie do końca. Po pierwsze – złożoność algorytmu powoduje że prawdopodobnie Panda to nie jest jeden program a zestaw różnych procedur. Po drugie nie da się tego wprowadzić ot tak pstryk – więc pewnie dokładają po trochu nowe elementy i przyglądają się jaki będzie tego efekt. No i z wypowiedzi googla o tym że w Polsce jest inna struktura linków wynika jeszcze jedno – Panda u nas to nie będzie ta sama Panda co w krajach anglojęzycznych. Może jej trochę co innego smakować…

Zgadzam się z Tomkii.
Czasem mamy o czymś tak wielkie wyobrażenie, że gdy to się dzieje, to realia nie mogą sprostać temu wyobrażeniu, przez co ignorujemy realia, co okazuje się błędem – i w ten sposób jesteśmy ofiarami samych siebie, dzieje się tak nie tylko w seo…

Ja rowniez zgadzam sie z poprzednikami, uwazam ze panda juz jest. Moge to zauwazyc po moich doswiadczeniach z precalmi, jeszcze pol roku temu , spokojnie pozycjonowalem frazy przy uzyciu precli z zaskakujacymi wyniakmi , od jakiegos czasu zauwazylem ze nie ruszam sie w wynikach wyszukiwania anie o jedna pozycje w gore, smiem twierdzic ze Pansa jest juz u nas.

Zwłaszcza że jak wiemy, Googlersi zauważają jak i doceniają polską scenę pozycjonerską, więc zapewne mutowana panda, choćby o analizę zmienionej struktury linkowania, która ponoć nas pl charakteryzuje, ale działa…

„spokojnie pozycjonowalem frazy przy uzyciu precli z zaskakujacymi wyniakmi”
Precle nadal dają efekty, tyle że na mało i średnio konkurencyjne frazy. Poza tym teksty na temat nieskuteczności precli pojawiają się regularnie 🙂

Wszystko jednak zależy od tego gdzie i co umieszczamy. To stara i wciąż aktualna zasada.

Czy ktoś już może natrafił na jakiś artykuł nt. wartości Google +1 na pozycję strony? Wiem, że trochę wcześnie na jakieś konkretne wnioski, być może…lub…za jakiś czas.

@imb – na wnioski jeszcze za wcześnie, ale ja już rozpocząłem kilka testów na wpływ G+1.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.