Wysoki/niski wynik PageSpeed Insights vs. pozycja – niejednoznaczne wyniki testów

Wdrożenie SSLa, wersja strony dostosowana do urządzeń mobilnych i szybki czas ładowania strony – to kilka spośród wielu tematów, które na zmianę do nas wracają i o których od dawna mówi się, że wpływają na pozycję naszych serwisów. Przedstawiciele Google podkreślają jednocześnie, że przy kilkuset różnych czynnikach rankingowych, te pojedyncze często w niewielkim stopniu odbiją się na naszych pozycjach, albo wręcz mogą nie być zauważalne. Jak jest faktycznie? Dzisiaj na tapetę biorę temat walki o jak najwyższy wynik w narzędziu PageSpeed Insights. Skupiam się na nim tylko dlatego, że to narzędzie Google, więc wyszukiwarka może bazować w całości albo częściowo na jego wynikach przy ustalaniu rankingu. Osobiście uważam jednak, że jak już poprawiać wynik, to ten, od którego faktycznie zależy czas ładowania strony u użytkownika, a do tego przydadzą się m.in. narzędzia dla programistów dostępne w przeglądarkach, w tym FireBug pokazujący szczegółowe dane na temat pobieranych zasobów. Ale o tym innym razem.  

Większość artykułów na temat wpływu szybkości ładowania strony na ranking opierała się na próbach uzyskania jak najwyższego wyniku. Ja natomiast postanowiłam zebrać swoje materiały i zrobiłam wszystkim na przekór – zamiast starać się o jak najwyższy możliwy wynik w nadziei na poprawę pozycji, popsułam go i liczyłam chociaż na drobne, ale widoczne spadki. Dzięki kilku zmianom udało mi się zejść z wyniku 73/81 do nawet 46/57. Poniżej znajduje się opis kilku analizowanych przypadków. Dodam, że zmiany w drugą stronę również robiłam, ale na potrzeby wpisu założenie z pogorszeniem wyniku wydawało się ciekawsze 😉

Przykład 1:

To strona z wieloletnim stażem i stabilnymi pozycjami utrzymującymi się w okolicach 1-6 pozycji w zależności od frazy. Nie są to jednak trudne frazy, a konkurencja jest nieliczna, więc być może to dlatego ciężko było zbić tę stronę z pozycji, starając się zepsuć tylko 1 czynnik rankingowy.

Początkowy wynik strony to 73/81 (stan na dzień 13 września 2017 r.), czyli taki mocno średni oznaczony w PageSpeed Insights kolorem pomarańczowym (Needs Work). Celem było pogorszenie wyniku w takim stopniu, aby był oznaczony kolorem czerwonym. Zaczęłam więc od opóźnienia czasu ładowania strony korzystając z funkcji sleep(). Opóźnienie serwera o 2 sekundy spowodowało obniżenie wyniku do 59/73, dorzucenie kolejnej sekundy obniżyło wynik do 56/67, kolejnej – 51/64, a ostatecznie zostawiłam opóźnienie 5 sekund z wynikiem 48/61, który świecił się już na czerwono. To już była utrata kilkudziesięciu punktów zarówno na desktopie, jak i mobilu.

Dosłownie po 2 dniach nagle coś się zadziało i jedna z fraz spadła ze stałej pozycji 4 na 8 (screen powyżej), jednak to trwało zaledwie 1 dzień, a potem pozycja wahała się między 4 a 5. Postanowiłam zaszaleć i 25 września opóźniłam czas ładowania o 7 sekund, ale żeby nie wkurzać użytkowników, opóźnienie to włączyłam tylko dla Googlebota*. Dodatkowo pogrzebałam na stronie, wrzuciłam do topu niezoptymalizowany obrazek i wprowadziłam kilka drobnych zmian, w efekcie których uzyskałam wynik 46/57. Pozycje nie chciały się ruszyć, więc po 2 tygodniach od tej zmiany (ostatnia pionowa linia na wykresie) zakończyłam test, zdjęłam opóźnienia, wprowadziłam drobne zmiany i zostawiłam stronę z wynikiem 76/89.

Wniosek: zbyt stabilne pozycje i zbyt mała konkurencja mogły utrudnić moje próby zbicia pozycji przez zepsucie czasu ładowania strony, ale testu nigdy nie przeprowadza się tylko na jednej stronie 😉

* ściąga dla zainteresowanych:

<?php $user_agent = $_SERVER['HTTP_USER_AGENT']; if (strpos( $user_agent, 'Google') !== false) { Sleep(5); } ?>

Przykład 2:

Kolejny serwis z wieloletnim stażem, tym razem z mocno rozbudowanym długim ogonem i również ze stabilnymi pozycjami. Wynik PageSpeed Insights początkowo wynosił 57/64 lub 89/64 w zależności od części grafik ładowanych w rotacji. Po wprowadzeniu opóźnienia (również tylko dla Googlebota) o 6 sekund i kilku innych drobnych zmian, 15 września wynik spadł do 51/61. Po 10 dniach wydłużyłam to opóźnienie do 8 sekund i ostateczny wynik wynosił 45/55 – najniższy, jaki udało mi się uzyskać na jakiejkolwiek stronie 😉 Cofnięcie zmian i dodatkowe wprowadzenie kilku zmian nastąpiło 9 października 2017 r. i aktualnie strona ma wynik 91/97.

W tym przypadku część zmian była widoczna tylko dla Googlebota, a część dla wszystkich – przede wszystkim te od 9 października, kiedy wynik mocno wzrósł w porównaniu do początkowego.

Na pierwszym wykresie co prawda widać wahania pozycji w okresie, w którym były wprowadzane zmiany, jednak drugi wykres to typowy kontrprzykład, gdzie pozycje zaczęły wzrastać.

Wniosek: jakiekolwiek wahania w jedną czy drugą stronę nie musiały być związane z oceną szybkości wczytywania strony. Zdecydowana większość fraz pozostała na swoim miejscu, a na kilku było widać drobne zmiany, które jednak nie odbiegały od zmian zauważanych na co dzień.

Przykład 3:

Ostatnia ze stron, jaką postanowiłam opisać, do dzisiaj ma pozostawione opóźnienie czasu ładowania o 5 sekund. Opóźnienie to dodałam w połowie września br., więc od tej pory uzbierało się sporo danych dot. czasu, jaki Googlebot spędza na pobieraniu strony.

Jak to się odbiło na pozycjach? Podobnie jak w poprzednich przykładach, czyli część fraz pozostała na miejscu, pojedyncze lekko spadły lub lekko wzrosły. Tu akurat opóźnienie zostało pozostawione na znacznie dłużej, a w międzyczasie wystąpił m.in. update związany z geolokalizacją wyników, który jednak nie wpłynął na pozycje tej strony.

Przykład uzupełniający:

We wrześniu br. Sebastian Matysik opublikował case study, które potwierdzało szybki wpływ poprawy wyniku strony na jej pozycję. Na jednej ze stron podbił wynik PageSpeed Insights z ok. 50/50 do ok. 90/90, a zmiany wprowadził 27 sierpnia 2017 r. i aby przyspieszyć efekt, przeindeksował stronę. Efekty zobaczył już następnego dnia, a były to skoki:

  • poza top 100 -> 24
  • 18 -> 11
  • 33 -> 9
  • 38 -> 8

Na pierwszy rzut oka wnioski wydawały się być łatwe do wyciągnięcia, gdyby nie jeden detal. Część osób, w tym ja, zauważyło spore zawirowania w SERPach w okolicach 28-31 sierpnia, co mogło świadczyć o wprowadzeniu lub przynajmniej testowaniu jakiejś zmiany w algorytmie. Poniżej znajduje się kilka przykładowych stron, na których nie wprowadzałam w tym okresie żadnych zmian, a których pozycje uległy sporej zmianie dokładnie w tych dniach, w których Sebastian zanotował wzrosty na swoich stronach.

Zarówno po tych 2 wykresach, jak i po pozostałych, które przejrzałam, widać spory spadek lub wzrost, ale tymczasowy. Przez ponad miesiąc, nawet do 1,5 miesiąca, nowe pozycje się utrzymywały, po czym wróciły do poziomu zbliżonego do tego przed końcem sierpnia. Tak więc tamte skoki pozycji były z dużym prawdopodobieństwem (ale nie dam sobie niczego za to uciąć 😉 ) efektem zmian w algo, a nie akurat poprawy szybkości ładowania strony. Pytanie, czy u Sebastiana również było widać powroty na dawne pozycje na przełomie września (już od 19 lub 25 września) i października.

Jak widać, ciężko jest wykonać test w takich warunkach, aby mieć pewność co do tego, że zmienia się głównie 1 czynnik rankingowy. Nie każdy z nas może przy każdym większym updacie zauważyć zmiany, które zasygnalizują nam, że pojawiły się dodatkowe zaburzenia i że powinniśmy powtórzyć testy. Tak mocno niejednoznaczne wnioski płynące z moich małych testów mówią mi jedynie, że czynnik rankingowy w postaci szybkości ładowania strony ma w tej chwili znikome znaczenie – inaczej łatwiej byłoby uzyskać wyniki.

Najlepiej jest rozłożyć testy w czasie (eliminując wpływ zmian algo) i wykonać je na różnych stronach (i tych na topowych pozycjach, i tych nieco bardziej odległych, ale jednocześnie w miarę stabilnych), a najlepiej jeśli wykonuje je grupka osób z nieco innym podejściem, zwracająca uwagę na inne detale, aby zebrać więcej danych do analizy. Tym samym zachęcam Was do przeprowadzenia podobnych testów i podzielenia się wnioskami z nich.

 

 

KATEGORIE: Optymalizacja stron, Testy SEO
Comments (35)

Testy potwierdzam. Sam doszedłam do podobnych wniosków gdy po update'ie joomla i przeniesieniu serwisu na inny serwer (wystąpiły nieoczekiwane opóźnienia czasu odpowiedzi serwera) wyniki w PageSpeed Insights spadły z 94 na 64, ale nie wpłynęlo to na pozycje fraz w Google.

Przy skoku z 60/100 na 99/100 nie zauważyłem żadnych zmian, a nawet mały spadek. Ale strona się ładuje szybciej. Zawsze to jakiś plus.

Bardzo rzadko spotykam się z witrynami, których wyniki z PageSpeed czy GTmetrix zaważają na pozycjach. Większość użytkowników i tak jest świadoma tego, że ładowanie strony wymaga chwili, a to co najważniejsze – czyli sekcja widoczna na ekranie bez scrollowania zwykle przeglądana jest kilka sekund (łatwo sprawdzić na narzędziach typu Hotjar), co pozwala na doczytanie się reszty zawartości bez problemu – a przecież to jest istotą – wygoda użytkownika (UX i te sprawy). Długi czas ładowania to pewny bounce rate, ale 3-5 sekund spokojnie wystarcza, żeby ktoś nie stracił cierpliwości.

Jeszcze inna rzecz ma miejsce w związku z zapytaniami long tail stricte tematycznymi, które ktoś chce koniecznie odwiedzić, nawet jeżeli loading speed to 20-30 sekund. Dla mnie samego to czasami naprawdę mało ważne – wolę poczekać ale przeczytać o czymś czego indziej nie znajdę.

Osobiście wskazałbym co najmniej kilka stron firm, które specjalizują się w SEO, są na wysokich lokatach dłuższy czas (stabilny trend zatem), a wynik prędkości jest na poziomie bardzo bardzo przeciętnym, żeby nie powiedzieć słabym.

A trzeci z testowanych serwisów był zbliżony jeśli chodzi o staż i pozycje do dwóch poprzednich? Tak dla porównania z chęcią zobaczyłabym takie testy dla młodszych stażem serwisów, bo odnoszę wrażenie, że to jest czynnik mocno wpływający na brak obniżenia pozycji mimo zwiększenia czasu ładowania się strony. Bardzo inspirujący wpis:)

Trzeci serwis był stosunkowo młody w porównaniu do 2 pierwszych i nie miał jakoś specjalnie wypracowanych pozycji.

A jak wyglądają zmiany w pozycjach mierzonych w search console przy odfiltrowaniu pozycji wyłącznie dla urządzeń mobilnych? A jak przy porównaniu pozycji na fraze – mobile vs desktop w trakcie badania?

fajnie że robicie takie testy, ciekawe jak będzie teraz z AMP

Z moich testów wynika, że oceny z takich narzędzi nie mają dla Google żadnego znaczenia.

Ja testowałem trochę inaczej – zamiast opóźnienia po stronie serwera przez sleep() takiego jak tu wstawiałem do stopki wielkie pliki graficzne przeskalowane w CSS-ie do 1×1, co zmniejszało oceny szybkości do prawie zera, a nie przeszkadzało nikomu włącznie z Googlebotem, pomijając może tych którzy płacą za transfer. Pozycje wcale się nie zmieniły.

Przy moich testach z PageSpeed Insights z pomarańczowej lampki na zielone nie miały większego wpływu lub w ogóle na wzrost pozycji witryny obserwacja trwała około miesiąca. Nie pomyślałem tylko żeby odwrócić wyniki 🙂

Nawet jakby szybkość ładowania strony nie wpływała na pozycje stron w wyszukiwarce, to warto postarać się, żeby strona nie była za ciężka. Klient, który ma czekać 5 sekund na odpalenie strony wyjdzie od razu ze sklepu. Tacy jesteśmy niecierpliwi 🙂

Z tą prędkością to trochę przesada. Dlaczego? Atrakcyjnie wizualnie strony, które posiadają np. wideo w tle strony głównej lub w nagłówku, czy też wysokiej rozdzielczości grafiki, zawsze będą dłużej się wczytywać. Wiadomo, że wiele aspektów wizualnych można zrobić w CSS, ale nie wszystko. Animacje i inne gadżety oparte na skryptach zawsze wydłużą czas ładowania witryny. Jeśli odwiedzam stronę z np. galerią zdjęć, to automatycznie nastawiam się na dłuższy czas wczytywania zawartości. Myślę, że takie podejście powinno nam towarzyszyć – zrozumienie, że pewne treści możemy otrzymać natychmiast, natomiast niektóre wymagają od nas nieco cierpliwości.

Bardzo niewielkie zmiany na plus po wprowadzeniu na kilku domenach. Prawie, że niezauważalne. Ale za to średnio o prawie 4 % niższy współczynnik odrzuceń. Być może miało to duży wpływ.

Piszesz arcyciekawie, dopiero dzisiaj odkryłem Twój blog i odtąd nie przegapię żadnego nowego wpisu. Mam jednak prośbę: czy mogłabyś zmienić kolor czcionki lub czcionkę w ogóle na bardziej kontrastującą ze stroną? Nie mam już dwudziestu lat, wzrok już nie ten i bardzo trudno mi się te teksty czyta…

Z blogu Google takie info jest na temat szybkości ładowania strony: "While site speed is a new signal, it doesn’t carry as much weight as the relevance of a page. Currently, less than 1% of search queries are affected by the site speed signal".
Tutaj ktoś przedstawił własne testy, które wykazały że zmniejszenie szybkości ładowania poprawi pozycję: http://tnij.at/213537

Na podstawie moich dotychczasowych testów, jeśli różnica w TTFB wynisi kilkuset ms – nie ma to jakiegokolwiek przełożenia na pozycje. Jeśli PageLoad spada do 20s to oczywsiste, że to się przekłada na pozycje.
Inna sprawa to ta, czy faktycznie userzy porzucają stronę, jeśli nie dostaną wyniki w 3sek.

Mogę potwierdzić. Mój wynik Pagespeed pierwotnie ok .65-75, zależnie od podstrony, poprawiony na 85-90. Po dwóch miesiącach pozycja nawet nie drgnęła (pomimo zdobycia w tym czasie kilku linków)

Pozycja może i nie zależy od page speed insight, ale osobiście nie wszedłbym na stronę, które wczytuje się ponad 3 sekundy. A po co w takim razie pozycja, skoro nie będzie wartościowego ruchu?

Super testy. Super analiza

Właśnie poprawiłam szybkość swojej strony do 2.4 s według GTMetrix. Dużą poprawę zauważyłam po optymalizacji kodu JavaScript, CSS, optymalizacji zdjęć i wyczyszczeniu bazy danych. Zostało mi jeszcze przejście na wyższy php. Jeżeli chodzi o ilość wejść to raczej tak samo jak było wcześniej.

Trzeba pamiętać, żeby mieć umiar, również przy optymalizacji pod pagespeed 😉
niektóre skompresowane przez googla grafiki wyglądają na większych monitorach dosyć topornie, co u niektórych potencjalnych klientów może powodować większy współczynnik odrzuceń, niż ta sekunda, którą trzeba poczekać na doładowanie pełnych grafik.

Druga sprawa – jak się zachowywały wyniki mobilne po takim popsuciu?

Jeszcze 3 lata temu administrowałem kilkoma stronami które miały po kilkaset wejść dziennie. Podążając za modą i radami wujka Google zoptymalizowałem wszystko perfekcyjnie tak że było na zielono. I co? Strony ładowały się meega szybko. Na stronach nie było nawet skryptów Lightboxa żeby wszystko chodziło jak Porsche, nawet pokusiłem się o wrzucenie 2 stron na serwery SSD. Po czym spadek pozycji. Masakra jakaś. Tak jak piszą poprzednicy zgodzę się z tym, że we wszystkim trzeba zachować umiar. Czyli może nie tyle kierować się tym żeby flagi w Google Insights były na zielono, ale żeby poprostu nie były na czerwono. Żółty to już bardzo dobry wynik.

"po prostu" ze spacją powinno być, Jezusie ale gafa! 🙁

Rozłożenie w czasie takich testów to najlepsza decyzja 🙂

Ludzie są niecierpliwi, strony muszą się bardzo szybko ładować.
Wolne ładowanie = klient wychodzi ze strony

Fajny artykuł. Daje do myślenia. Jestem ciekaw jak page Rank wpływa na ilość słów kluczowych w topce. Przeprowadziłem kilka audytów stron, którymi zarządzam i de facto te z wyższym Page Rank mają więcej słów w topkach co jest normalne, ale pytanie jak to ma się do siebie tzn. Jaka ilość PageRank wpływa na ilość słów w topce.

Główną zaletą szybkości ładowania się strony jest większa chęć przeglądania witryny przez klientów. Pamiętajmy również, że niektóre urządzenia mobilne są dość wolne i wtedy właśnie odgrywa tutaj znaczącą rolę, omawiania szybkość ładowania 🙂

Główną zaletą szybkiego ładowania jest oszczędność zasobów przez samo Google. Po co googlebot ma siedzieć na stronie 8 sekund, jak może 2. W tym samym czasie zrobi 4 inne strony. Można oszczędzać? Koszty oczywiście jak zwykle Google przerzuca na właścicieli stron. No i stare hasło. Robimy to dla dobra naszych użytkowników! Jasne. Często to są klienci firm. A firma koszty na kogo przerzuci? Jak myślicie?

Pytanie czy ma to przełożenie pośrednio na pozycje. Jeśli strona bardzo wolno się ładuje to może być wysoki wskaźnik Bounce Rate + szybkie wychodzenie ze strony. I test dla strony z 1000uu i poprawienie ładowania strony z 15 sekund na 3 sekundy mogłyby być ciekawe 😉

Wszystko zależy od konkurencji. Wynik jest istotny, jeśli nasza strona mocno odstaje od konkurentów. Jeśli nie warto skupić się na innych czynnikach SEO.

poprawiając PSI nie tylko zwiększamy przyjazność naszej strony dla robotów Google ale także polepszamy użyteczność naszej strony. dzięki temu jesteśmy w stanie poprawić konwersje. użytkownicy nie lubią czekać – wszyscy na pewno wiemy o tym z autopsji. strona które wczytuje się dłużej niż 3 sekundy traci wielu użytkowników.

U mnie po zoptymalizowaniu strony i skróceniu ładowania z 6 na 3 sekundy, pozycje zostały bez zmian…

Bardzo ciekawy art. Do tej pory żyłem w pełnym przekonaniu, że bez dobrej optymalizacji (i regularnego poprawiania wyników) szybkości, nie da się robić dobrego SEO :P. Chociaż dla pewności jednak pozostaną przy "zielonych" wynikach w GTmetrix.

Wyniki bardzo ciekawe, dają do myślenia i co nieco można z tego wyciągnąć, ale przy dobrej interpretacji tekstu 🙂

U mnie poprawienie wyników strony dało zmiany na + ale w sumie strona jest młoda, jeszcze dużo przede mną pracy aby poszybowała w górę na frazy mnie interesujące.

Seo to tylko z jednych czynników dla których warto zrobić optymalizację strony.

Przyspieszenie strony samo w sobie pozytywnie wpływa na konwersję.

Zajmujemy się tylko tym i gwarantujemy ładowanie strony poniżej 250 ms

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.