Mity SEO – cz. 3

Mity SEOOstatnimi czasy nagromadziło się sporo nowych mitów SEO, inne z kolei są powtarzane już od lat. Postanowiłam odnieść się do części z nich, porównując krążące w branży teorie z potwierdzonymi informacjami. Dotychczas podobne wpisy publikowałam w postaci sprawdzenia 3 mitów i myślę, że warto tę formę zachować. Zaczynamy od tego, czy faktycznie w niedługim czasie nastąpi rewolucja w SERPach, poruszę również temat BR i CTR z wyników wyszukiwania. Będę kontynuować numerację, którą rozpoczęłam w tym wpisie.
Lista mitów:

Mit #4 – Google planuje zrezygnować z uwzględniania backlinków w rankingu, wprowadzając algorytm Knowledge-Based Trust (KBT)

News o czekającej nas zmianie algorytmu Google obiegł świat po tym, jak udostępniony został dokument Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources.
mit-kbt
Dokument ten to nic innego, jak opis badań zespołu Google i jego propozycja bazowania na wskaźniku zaufania do strony, który ma wynikać z tego, czy publikuje ona fakty, a więc informacje sprawdzone i potwierdzone przez inne źródła. Potwierdza to fragment wstępu do dokumentu:

We propose a new approach that relies on endogenous signals, namely, the correctness of factual information provided by the source.

Zacznijmy od tego, że ten dokument to jedynie szczegółowo opisana koncepcja. Nie było jednak nigdzie wzmianki o tym, że Google ten pomysł zaakceptowało i postanowiło go wdrożyć. Kolejna sprawa, to że nawet we wspomnianym opracowaniu nie pisze się o całkowitej zmianie aktualnego algorytmu. Wręcz przeciwnie, poniższy fragment mówi wprost, że taka forma oceny mogłaby współistnieć wraz z innymi czynnikami rankingowymi, w tym z PR.

We note that source trustworthiness provides an additional signal for evaluating the quality of a website. We discuss new research opportunities for improving it and using it in conjunction with existing signals such as PageRank (…)

Skąd zatem to całe poruszenie na temat planowanego wprowadzenia nowego algorytmu i rezygnacji z backlinków, skoro oryginał dokumentu tego nie potwierdza? Wygląda na to, że to jedynie kwestia nieprawidłowej interpretacji i szybkiego rozprzestrzeniania się tej informacji. Jeśli jednak ktoś z Was widział wypowiedź jakiegokolwiek Guglarza, który potwierdził planowanie wdrożenia opisanej tu zmiany, będę wdzięczna za sprostowanie, bo jak na razie mit traktuję jako:
Mit obalony
Edycja 11 marca 2015 r.
Mamy już potwierdzenie bezpośrednio od Johna Muellera, że dokument, z którym mieliśmy okazję się ostatnio zapoznać, to jedynie dokument czysto badawczy, a nie opisujący aktualnie działający algorytm. Link do wypowiedzi: www.youtube.com/watch?v=ujq-OTI5ET8#t=2961

Mit #5 – Google będzie karać za brak wersji responsywnych stron

26 lutego 2015 r. na blogu Google pojawiła się następująca informacja:

Starting April 21, we will be expanding our use of mobile-friendliness as a ranking signal. This change will affect mobile searches in all languages worldwide and will have a significant impact in our search results. Consequently, users will find it easier to get relevant, high quality search results that are optimized for their devices.

Wynika z niej, że 21 kwietnia 2015 r. wprowadzony zostanie nowy czynnik rankingowy, jakim jest dostosowanie strony pod kątem urządzeń mobilnych. Zmiana dotyczyć będzie użytkowników urządzeń mobilnych na całym świecie. Ani słowem nie wspomniano, że mobilność strony wpłynie również na ranking w wynikach wyszukiwania dostępnych z komputerów, bo czemu miałaby mieć na nie jakikolwiek wpływ? Dla Google istotne będzie to, czy wyświetlona w wynikach strona jest przystosowana do urządzenia, za pośrednictwem którego na nią trafiono.

News oczywiście brzmiał lepiej, jeśli wzbogaciło się go o informacje wynikające z błędnej interpretacji. Zaczęły więc padać stwierdzenia na temat tego, że strony nieprzystosowane do urządzeń mobilnych będą wręcz karane, zabrakło również wzmianki o tym, że zmiana nie dotyczy standardowych wyników wyszukiwania. Podkreślam zatem, że źródło tej informacji podkreśla, iż jest to zmiana dotycząca użytkowników mobilnych, a druga sprawa, to nie ma tam mowy o żadnych karach, a jedynie o premiowaniu wyników mobile-friendly.

Na ten temat wypowiedział się sam John Mueller podczas jednego z ostatnich hangoutów:

W 25. sekundzie mówi o tym, że zmiana dotyczy tylko smartfonów. Rozwinął to w dalszej części spotkania dodając, że nic mu nie wiadomo o tym, aby miała ona dotyczyć także komputerów.

Na podstawie powyższych informacji, mit uznaję za:
Mit obalony
Do tematu tego odniosłam się bardziej szczegółowo we wpisie Co faktycznie oznacza wprowadzenie mobilności jako czynnika rankingowego?. Warto również dodać, że nie ma większego znaczenia, czy zdecydujemy się na wersję RWD czy inny sposób zapewnienia strony mobile-friendly. Dostępne są 3 zaprezentowane poniżej sposoby, ale po szczegóły na ich temat odsyłam do pełnego filmiku, ponieważ to nie temat tego wpisu.
Mobile-friendly

Mit #6 – CTR z SERPów i BR mają wpływ na ranking w Google

Ostatnio głośno jest o czynnikach behawioralnych i ich prawdopodobnym wpływie na ranking w Google. Chodzi głównie o CTR z SERPów oraz BR, o których wspomniałam w tym wpisie. W tym miejscu warto również zapoznać się z 2 wpisami Konstantina: Yandex ukarał setki stron za manipulowanie czynnikami behawioralnymi i Czy emulacja czynników behawioralnych daje efekty? Fala kar za zastosowanie SeoPult’a, z których można się dowiedzieć, jak to wygląda w Yandexie.

Wracając do Google, moim zdaniem jest wysoce prawdopodobne, że Google wykorzystuje w rankingu te dane, do których najzwyczajniej w świecie ma dostęp. A takimi danymi są m.in. CTR z SERPów (badany na pewno przez parametr &cd=) oraz BR (te dane z pewnością łatwo jest wyciągnąć z logów Google). Nie zdziwiłabym się zatem, gdyby Google obniżało pozycje stron ze słabym CTR oraz wysokim BR (w sytuacji, kiedy użytkownik przechodzi z wyników wyszukiwania na znalezioną stroną i szybko powraca do wyników wyszukiwania).

Nie wykonywałam jeszcze testów w tym zakresie, dlatego tym razem powołam się na materiał opublikowany jakiś czas temu przez Bartka Góralewicza. Opisał on przypadki 2 stron jego klientów, które miały problem z pozycjami. Po wykluczeniu pozostałych elementów, które mogły być przyczyną problemów, wszystko wskazywało na to, że jedna z nich ucierpiała w wyniku manipulowania CTR w SERPach (wyszukiwanie fraz brandowych i odwiedzanie stron konkurencji, ale nie strony analizowanej przez Bartka). Po wykonaniu testów skupiających się na tym elemencie okazało się, że testowa strona (w tym przypadku jego blog) spadła mocno w rankingu po tym, kiedy przygotowany specjalnie bot wyszukiwał testowej frazy i klikał losowo w różne wyniki, za wyjątkiem wpisu na jego blogu.

Ponieważ testów nie przeprowadzałam sama, a tych potwierdzających możliwość manipulowania pozycjami przez CTR czy BR jest niewiele, postanowiłam ocenić ten mit jako:
Mit prawdopodobny
Tym samym uważam, że warto przyjrzeć się temu tematowi bliżej i wykonać serie testów na dużą skalę tak, aby nie zaburzały ich inne czynniki rankingowe. Co prawda pracownicy Google zaprzeczają, jakoby wspomniane czynniki miały wpływ na ranking, jednak dobrze wiemy, że nie po raz pierwszy dowiadujemy się o czymś po fakcie. W końcu przekazywanie nam tego typu informacji nie leży w interesie wyszukiwarki, stąd też konieczność samodzielnego sprawdzenia, czy coś w tym jest.

KATEGORIE: Pozycjonowanie stron
Comments (12)

Ciekawy pomysł na obalanie mitów. Próbowała Pani może sprawdzić czy Canonical przenosi złą moc z jednej domeny na drugą?

Przenoszenia filtrów w ten sposób nie sprawdzałam, ale pewnie zadziała, skoro moc linków jest w ten sposób przekazywana w podobny sposób jak przy 301.

Z racji tego że canonical działa jak 301 należy założyć, że kara przenosi się.

Karanie (obniżenie rankingu) już jest faktem. Także w wynikach dla deskop. Proszę zrobić test i wówczas obalać mity. Sama teoria ma się nijak do praktyki.

Pozdrawiam

Dzięki za wyjaśnienia w tym tekście 🙂

Mit dotyczył tego, co się stanie po wprowadzeniu aktualizacji. O wynikach testów można zatem będzie pisać dopiero po jej wdrożeniu, a nie w tej chwili.

„Karanie (obniżenie rankingu) już jest faktem. Także w wynikach dla deskop.”
Możesz podać kilka przykładów fraz, które to potwierdzą? Od kilku dni mam włączony monitoring osobno na komputery i osobno na mobile, ale w większości są identyczne, a jeśli są jakieś różnice, to nieznaczne.

Świetny artykuł. Zainteresowałaś mnie wpływem czynników behawioralnych.

Bardzo fajny pomysł na art (Pogromcy mitów mi się przypominają 😀 ) CTR i rankowanie? A jednak! Już od jakiegoś czasu miałem przeczucie, że może mieć to wpływ na serpy… nie myliłem się 🙂

Odnosząc się do 5 mitu, moim zdaniem warto jednak dostosować swoją stronę do urządzeń mobilnych po pierwsze ze względu na coraz większy udział takich urządzeń w ruchu internetowym a po drugie ze względu na samo google. Nie wiadomo jak będą traktowani ludzie z nieresponsywnymi stronami w przyszłości.
Pozdrawiam Mateusz

Bounce rate to najprostszy wskaźnik do oceny strony. Gdybym był Google to bardzo brałbym go pod uwagę.

moim zdaniem google albo nie korzysta z analizy CTR/BR albo nigdy o tym nie powie gdyż te czynniki są znacznie łatwiejsze w manipulacji niż zdobywanie linków

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.