Mój własny ranking czynników wpływających na pozycje

podiumSearchMetrics przygotowało zestawienie SEO Ranking Factors 2014, które opiera się na badaniach stron w top 30 w Google dla wybranych fraz. Postanowiłam zaprezentować swój ranking, na którym opieram się podczas mojej pracy, jednak najpierw napiszę kilka słów wyjaśnienia w kwestii rankingu od SearchMetrics.
Fot. sarahdesign

Wstęp

W pierwszej kolejności chciałabym zwrócić uwagę na to, że badanie przeprowadzono na wynikach w USA, a nie w Polsce, więc różnice mogą być dość znaczące – inny wygląd SERPów, niektóre aktualizacje są tam wprowadzane zanim dojdą do nas, inny język i tym samym inny sposób wyszukiwania. Kolejna sprawa, to że ciężko na tej podstawie ustalić elementy o negatywnym wpływie na ranking, skoro badanie dotyczyło top 30, czyli samych stosunkowo wysokich pozycji – w końcu na pierwszych 3 stronach wyników ciężko jest znaleźć strony zafiltrowane, na które faktycznie negatywnie zadziałał jakiś czynnik. I ostatnie, od czego właściwie powinnam zacząć, to że ranking od SearchMetrics NIE mówi nam, jakie czynniki pozytywnie wpływają na ranking, tylko jakie czynniki mocno korelują z wysokimi pozycjami. Mówiąc wprost, sprawdzane są elementy wspólne dla stron, które wyświetlają się na wysokich pozycjach. Zawsze przy takich tematach podaję dość abstrakcyjny przykład, w którym badaniu mogła zostać poddana kolorystyka strony – gdyby okazało się, że pastele często dominują na stronach na najwyższych pozycjach, to w rakim rankingu kolorystyka zostałaby wymieniona jako jeden z pierwszych punktów. Ale to nie oznaczałoby, że ma ona jakikolwiek wpływ na pozycję, co potwierdza informacja ze strony samego SearchMetrics:

(…) there is no guarantee that the respective factors actually have any impact on the ranking – or are ever used by Google as a signal.

Pamiętajcie więc o tym podczas interpretacji zarówno tegorocznego, jak i starszych rankingów opracowanych przez MOZ.com. Nie twierdzę, że ten ranking nie ma żadnego odzwierciedlenia w rzeczywistości, ale z pewnością trzeba do niego podejść z dystansem.

Niezależnie od publikowanych badań, każdy z nas ma opracowane pewne techniki i ustalone czynniki o największym znaczeniu dla uzyskania wysokich pozycji. Dlatego przy okazji ww. raportu, postanowiłam opublikować skrócony ranking czynników, którym sama się kieruję. Działy będą identyczne z tymi zaproponowanymi przez SearchMetrics.

Zachowanie użytkowników

Na myśl od razu przychodzą takie dane jak Bounce Rate czy czas na stronie. Te informacje są jednak dostępne za pośrednictwem Google Analytics tylko dla części stron, a czynniki rankingowe powinno dać się ustalić dla każdej strony z osobna, dlatego nie sądzę, aby były one brane pod uwagę. Z drugiej strony, samo korzystanie z jakichkolwiek usług Google na danej stronie może być traktowane jako element pozytywny, świadczący o poważnym podejściu do strony i do samej widoczności w Google. Z kolei negatywnie może wpływać połączenie braku korzystania z usług Google, z ukrywaniem danych WHOIS czy brakiem danych kontaktowych na stronie – ale tu już schodzimy na nieco inne tematy.

Nawet pomijając dane dostępne w Google Analytics, potężne ilości informacji dostarczają same wyniki wyszukiwania w Google. Klikając na dowolny wynik, w adresie URL przekazywana jest m.in. wartość „cd„, która przekazuje informację o pozycji strony, na którą nastąpiło wejście. A zatem mając dane statystyczne o liczbie wyszukiwań danej frazy i łącząc ją z ilością kliknięć w dany wynik, później dodając do tego ilość prawie natychmiastowych powrotów na stronę z wynikami, Google uzyskuje całkiem ciekawy obraz na temat tego, które z wyników słusznie zajmują wysokie pozycje. I to właśnie dane uzyskane z wyszukiwań i kliknięć w wyniki wyszukiwania są moim zdaniem brane pod uwagę przy ustalaniu rankingu.

Czynniki społecznościowe

Aktualnie nie widzę bezpośredniego wpływu czynników społecznościowych na ranking, nie licząc wyników spersonalizowanych, w których powiązanie z G+ jest bardzo widoczne.

To, że na wysokich pozycjach zazwyczaj znajdują się strony, o których dużo się mówi, wynika moim zdaniem z całego zestawu elementów wpływających na ich popularność. A wśród nich mamy zarówno dobrego seowca, jak i dobrą ekipę od marketingu, w tym osoby zajmujące się prowadzeniem profilów na FB, Google+ czy Twitterze. To wysokie pozycje wpływają na to, że strony te mają szanse na więcej naturalnych linków z bezinteresownych rozmów. To wysokie pozycje i wypracowana popularność wpływa na to, że rozmawiając o porównywarkach od razu na myśl przychodzi Ceneo, a nie serwis wyświetlany na 2. stronie wyników w Google. Dlatego uważam, że to wysokie pozycje i dobrze ogarnięty biznes wpływają na popularność w social media, a nie na odwrót. Nie twierdzę jednak, że to się nigdy nie zmieni.

Linki przychodzące

Zacznę od swojego mini rankingu:

  1. słowo kluczowe w anchorze – jest to element, który nadal uważam za najmocniejszy, ale zarazem najbardziej ryzykowny, jeśli jest stosowany bez odpowiedniego umiaru. A umiar ten ciężko wyczuć, biorąc pod uwagę zaostrzające się podejście Google do tematu filtrów i to, że granicę poznajemy dopiero jak przesadzimy. Znaczenie ma także długość anchora – najlepsze efekty da ten, który w 100% zawiera tylko pozycjonowaną frazę, ale znowu po drugiej stronie mamy ryzyko łatwiejszego wykrycia schematu linkowania;
  2. tytuł strony docelowej – chodzi w tym przypadku o to, aby anchory linków zawierały słowa kluczowe zawarte w tytułach, aczkolwiek nie powinny się one pokrywać w 100% ze względu na to, aby nie ułatwiać Google wykrycia zbyt wielu schematów w linkowaniu. Powiązanie słów kluczowych w anchorze z tymi występującymi w tytule jest również jednym z elementów powiązania tematycznego, podobnie jak profil linków obu stron – linkującej, jak i docelowej;
  3. poziom strony wyświetlającej link – link emitowany na stronie głównej jest dużo silniejszy, niż ten nawet na stosunkowo mocnej podstronie podlinkowanej dość wysoko ze strony głównej. Jest to moim zdaniem logiczne, ponieważ w większości przypadków to strona główna uzyskuje najwięcej linków i tym samym przekazuje najwięcej mocy zarówno linkom wewnętrznym, jak i wychodzącym;
  4. jakość/wartość strony linkującej – chodzi tu o moc płynącą z wartości backlinków kierujących do takiej strony. Dzięki niej możemy czasem pominąć powiązanie tematyczne czy nawet językowe i zauważyć szybki efekt po zdobyciu linków z zagranicznych serwisów, które generalnie charakteryzują się lepszymi parametrami BL czy PR;
  5. dostarczanie świeżych linków – strona, na której od dawna nic się nie działo, ma tendencję do stopniowego osłabiania pozycji, pomijając nawet temat tego, że w tym samym czasie konkurenci zdobywają nowe linki. Po takiej długiej przerwie wystarczy dosłownie kilka linków, aby tuż po ich indeksacji zauważyć wzrost – jak duży będzie to wzrost, zależy przede wszystkim od konkurencyjności danej frazy. Te kilka linków dodanych wiele miesięcy wcześniej, przez chwilowym „porzuceniem” strony, nie wiązałoby się z tak samo widocznymi efektami.

Jeśli chodzi o elementy takie stosowanie linków z atrybutem nofollow czy linków graficznych, ich największego znaczenia upatruję się w próbie zatarcia schematów linkowania, mimo że graficzne linki opatrzone odpowiednim ALTem mają bezpośredni wpływ na ranking. W kwestii linkowania, w wielu przypadkach wybieram pomiędzy tym, czy chcę mocniejszy link, czy ten nieco bardziej bezpieczny. Dlatego do powyższego rankingu można byłoby dodać jeszcze czynniki różnicujące profil backlinków, ale tych już jest cała masa.

Optymalizacja (zarówno kodu, jak i treści)

I znowu mój ranking:

  1. słowo kluczowe w tytule – wyjątkowo ważne jest występowanie najważniejszego słowa kluczowego w pierwszej kolejności oraz brak rozdzielania najważniejszej frazy, w przypadku gdy składa się z kilku słów, a także odpowiednia kolejność słów kluczowych. Przy frazach wielowyrazowych często nie da się zastosować tych wszystkich 3 zasad jednocześnie, więc wtedy nieco wyższy priorytet ma u mnie brak rozdzielania głównej frazy, niż przesunięcie jej na 1. miejsce. To jednak wynika głównie z tego, że przy takich tytułach inna kolejność mogłaby być mało logiczna z punktu widzenia użytkownika. Na zakończenie tego punktu dodam, że prawidłowo skonstuowany tytuł jest moim zdaniem czynnikiem rankingowym nr 1, nawet ponad elementy związane z link buildingiem;
  2. unikalność treści – to jedna z podstawowych reguł, jakich należy się trzymać podczas tworzenia strony. Są oczywiście wyjątki, w których dbanie o pełną unikalność jest istną sztuką dla sztuki (np. przygotowanie indywidualnych opisów do wszystkich produktów na stronie sklepu), jednak pozostańmy przy ogólnych zasadach;
  3. prawidłowe linkowanie wewnętrzne – to dzięki niemu PR prawidłowo rozchodzi się po stronie (i nie chodzi mi o ten PR, o którym mówi się, że jest bez znaczenia), podstrony zyskują moc i pozycje m.in. na frazy zawarte w anchorach linków wewnętrznych. To te linki w sposób logiczny wiążą ze sobą całą stronę. Wystarczy słabo wypozycjonowany artykuł podlinkować ze strony głównej, aby szybko przekonać się co do tego, na ile ten element jest istotny;
  4. słowa kluczowe w treści strony – nie mam tu na myśli ich wielokrotnego powtarzania, tylko sensowne i logiczne zamieszczenie na stronie zarówno najważniejszych słów w formie nieodmienionej, jak i ich odmian oraz synonimów, dzięki którym strona jest zoptymalizowana pod więcej kombinacji różnych słów kluczowych, a zdania nie brzmią sztucznie;
  5. przyjazna struktura adresów URL – wiąże się ona głównie ze stosowaniem opisowych adresów do podstron, które zawierają słowa kluczowe.

Mimo że uważam za wyjątkowo istotną pełną optymalizację strony (łącznie z odpowiednio dobranymi nagłówkami, ALTami dla zdjęć, wyróżnieniami itp.), to jednak wymienione powyżej czynniki są tymi, które uważam za najbardziej istotne. Są również tymi, bez których będziemy potrzebowali znacznie więcej linków do osiągnięcia tych samych efektów, co przy poprawnie wykonanej optymalizacji i niewielu linkom.

Zakończenie

Wypisałam tu najważniejsze elementy, które moim zdaniem pozytwnie odbijają się na pozycjach i których wpływ na nie jest zdecydowanie największy. Gdybym miała przygotować ranking czynników o najbardziej negatywnym wpływie, to byłoby to przesadzanie z praktycznie każdym z wymienionych już elementów. Zarówno zbyt mocne trzymanie się niektórych zasad dotyczących linkowania, jak i „przeoptymalizowana” strona, mocno podwyższają ryzyko nałożenia kar. Z jednej strony w kwestii linkowania łatwo jest popaść w schematy, które później dają się namierzyć, a z drugiej strony „przeoptymalizowana” strona negatywnie wpływa na odbiór przez użytkownika i dodatkowo może spaść przez to w wynikach wyszukiwania.

Co sądzicie o przedstawionym przeze mnie rankingu? Jak wygląda on u Was?

KATEGORIE: Linkowanie, Optymalizacja stron
Comments (58)

Z tego co obserwuje, wydaje mi się że URL już powili tracą na znaczeniu, a bardziej przejmuje pałeczkę treść danej podstrony.

Przeczytałem całość, miejscami kilka razy – kawał dobrej roboty. Generalnie tekst najbardziej zbliża się do moich własnych doświadczeń, jeśli chodzi o seo. Jeśli ktoś poważnie traktuje stronę, inwestuje w różne narzędzie i formy znalezienia alternatywnych kanałów – youtube, G+, FB, Twitter czy Pinterest. Naturalne i logiczne rozumowanie.

Swoją drogą dla mnie ważny też jest czynnik, gdzie dokładnie i jak linkuje dana strona, którą się opiekuje – można dostać w zęby z innej strony, choć to trochę podchodzi pod karanie, a czynniki wpływające na pozycję. Myślę, że coraz więcej będzie znaczył ruch, jako czynnik rankingowy, czy naturalność tempa przyrostu linków – każdy ma swoje własne teorie.

Czyli nic nowego :). Linki, linki, linki 🙂

W sumie to są te same, od dawna znane prawdy, które człowiek już automatycznie wdraża dla większości stron. Oczywiście dla super ekstra stron, na których nam mega zależy, zabawa jest bardziej skomplikowana 🙂

A co sądzicie o linkowaniu wewnętrznym? Tzn. często moim klienci proszą menu u góry i takie samo menu w dole strony (stopce). Czy jest to poprawne pod względem optymalizacji witryny?

Co oznacza brak rozdzielenia najwazniejszej frazy.?

Nic się nie zmieniło, nadal linki decydują w dużej mierze o wysokich pozycjach. Jedynie słyszy się, że ilość nie ma znaczenia a tak naprawdę trudno obecnie o dużą ilość dobrej jakości linków:)

W przypadku strony biura nieruchomości w Olsztynie, jedną z pozycjonowanych fraz będzie „nieruchomości Olsztyn”. W takim przypadku bardziej korzystny będzie tytuł „Biuro nieruchomości Olsztyn” niż „Biuro nieruchomości Freedom Olsztyn”. Drugi z tytułów rozdziela tę frazę, ponieważ pomiędzy słowem „nieruchomości” a „Olsztyn” znajduje się nazwa biura i wtedy fraza „nieruchomości Olsztyn” zyskuje mniej mocy.

Inny przykład to „aranżacja i wystrój wnętrz Łódź”. Jeśli większą popularnością cieszy się fraza „wystrój wnętrz Łódź” niż „aranżacja wnętrz Łódź”, to tej pierwszej nie przesuniesz na sam początek, bo wtedy tytuł będzie wyglądał sztucznie, np. „Wystrój wnętrz Łódź i aranżacja wnętrz”. Dlatego w takim przypadku stawiam na nierozdzielanie głównej frazy, a na nieco dalszy plan schodzi zachowanie jej na samym początku tytułu.

No właśnie, łatwo jest o linki z automatów, ale te będą miały najniższą wartość. Z kolei te mocne – o nie właśnie trzeba walczyć, bo najszybciej przekładają się na wzrost pozycji.

Tu jeszcze dochodzi kwestia bezproblemowej indeksacji. Łatwiej jest wyszukiwarkom ustalić, że pod 5 różnymi przyjaznymi adresami jest 5 różnych stron, niż w przypadku gdy są to adresy zawierające podobne do siebie zmienne.

Porządna optymalizacja + linki, linki i jeszcze raz linki 😉

Racja. Przy rozbudowanych serwisach nawet na temat linkowania wewnętrznego można napisać całą książkę, w przeciwieństwie do wizytówek firm, na których wystarczy odpowiednia konstrukcja głównego menu i nie zawsze potrzebna jest dodatkowa mapa strony.

Powiem tak – dla wygody użytkowników warto powtórzyć menu, ale niekoniecznie w identycznej formie jak górne. Sama często w górnym daję to, co najważniejsze, ale linki do regulaminu czy polityki prywatności już zostawiam w stopce i oczywiście niektórych podstronach. Powtarzanie linków do tych samych podstron nie jest błędem, z tym że zawsze trzeba wziąć uwagę to, czy takie rozwiązanie jest korzystne dla użytkownika.

Czyli wystarczyło wypaść z branży na 2 lata by dowiedzieć się, że nic się prawie nie zmieniło? 😉

Zmieniło się bardzo dużo. Po takiej przerwie bałabym się podejmować prac nad poważnymi projektami 😉

To, że najważniejsze elementy nadal mają wpływ na pozycje, nie oznacza, że strony pozycjonuje się tak jak 2 lata temu. Główna różnica tkwi w ryzyku związanym z pozycjonowaniem i wszystkim, co z nim związane. Obecnie w znacznie większym stopniu trzeba symulować naturalne działania, a w końcu w pozycjonowaniu zasze były 2 cele – zdobyć wysokie pozycje, ale także je utrzymać.

Można powiedzieć że nic się nie zmienia, systematyczna praca, unikalna treść na stronie i linki i jest dobrze 🙂

Czyli jeżeli mamy dobrze zoptymalizowaną stronę to pozostaje nam tylko zdobywać linki. To w sumie nic nowego, a kwestia jakie to mogą być i skąd je brać gdy te najlepsze są już dawno wykorzystane.

Wszystko ok. Z tymi danymi dotyczącymi CTRu i ich wpływem na pozycje to moim zdaniem prawie na 99% są one brane pod uwagę jeśli chodzi o wyniki wyszukania. Potwierdza to przypadek wysokiego CTRu (65%) z 1 pozycji na frazę, która jest „nowa” i nigdy nie była pozycjonowana mimo, że konkurencja ma o niebo silniejszą domenę.

Właśnie skończyłem czytać twój artykuł i z wieloma czynnikami muszę zgodzić. Jedynie co dodałbym tutaj jeszcze to nagłówki h1. Obserwuje się obecnie ich mniejsze znaczenie w pozycjonowaniu jednakże zawsze trochę pomagają, po zmianie nagłówka h1 na jednej z moich stron, od razu poszła ona w górę. Z twojego artykułu muszę sprawdzić kolejność słów w title, ponieważ do tej pory troche inaczej je konstruowałem w optymalizacji

W jednej z odpowiedzi znalazłem to: „… zasze były 2 cele – zdobyć wysokie pozycje, ale także je utrzymać.” – kwintesencja całego działania seo

„Na myśl od razu przychodzą takie dane jak Bounce Rate czy czas na stronie. Te informacje są jednak dostępne za pośrednictwem Google Analytics tylko dla części stron, a czynniki rankingowe powinno dać się ustalić dla każdej strony z osobna, dlatego nie sądzę, aby były one brane pod uwagę.”

Jeżeli Google posiada bezpośredni dostęp do wiarygodnych i bardzo szczegółowych danych o zachowaniu użytkownika na stronie, to dlaczego miałby te informacje pomijać w kształtowaniu rankingu? 🙂

Fakt, że nie wszystkie strony są podpięte pod Analyticsa nie powoduje przecież, że należy zrezygnować z tego źródła danych. Analogiczna sytuacja dotyczy chociażby Google Webmaster Tools, narzędzia które wykorzystuje tylko część właścicieli stron. Mimo to Google z powodzeniem korzysta z udostępnianych tam dyrektyw i sugestii. Myślę, że dane z GA stanowią uzupełnienie informacji potrzebnych do kształtowania rankingu i w zależności od sytuacji wpływają pozytywnie, nautralnie, bądź negatywnie na pozycję strony.

Bardzo mnie ciekawi jak w przyszłości rozwinie się wpływ mediów społecznościowych na stronę (polubienia etc.) i jej wysokość w wynikach wyszukiwania (w polskich SERP-ach). W końcu social media to spora siła, która z roku na rok ma coraz większe znaczenie.

To jest ciekawe, że od wielu lat praktycznie nic się nie zmienia w temacie. Tak jak ktoś wspomniał – linki, linki i jeszcze raz linki.

Niemniej jednak branża SEO jest rozwinięta jak nigdy dotąd i teoretycznie byłaby w stanie z obecnym zestawem danych rozłożyć algorytm Google na czynniki pierwsze.

Dziękuje za rady, ranking świetny. Wiem na co zwrócić uwagę 🙂

A co myślisz o CTR i jego wpływie na pozycje? Rozpoznawalność domeny a wzrost wskaźnika CTR?
http://www.searchmetrics.com/en/knowledge-base/ranking-factors/

Kiedyś uwierzyłem, że „Content is King” i linki są nieistotne. Jednak dosyć szybko zrozumiałem, że linki ciąle mają ogromne znaczenie w pozycjonowaniu 😀
A co do początku, to chyba nikt z poza google nie może być pewien co wpływa na pozycje strony w jakim stopniu. Pozycjonowanie z tego co wiem opiera się na domysłach, obserwacjach i wnioskach 😉

Dzieki za rady. Przydają mi się 🙂

A może przeprowadzisz jakieś testy i sprawdzisz jak duży wpływ w Polsce mają media społecznościowe? Pewnie każdy doda +1 oraz polajkuje z ciekawości. Sam bym to zrobił ale mam za mała siłę przebicia 😉

Myślę, że do oceny zachowania użytkownika na stronie Google wcale tak bardzo nie potrzebuje Analytics, bo przecież ma Chrome i Androida, które na pewno dostarczają mu tych informacji.

W sumie to jeśli strona jest nowa, to być może wzbudza większe zainteresowanie, niż znana nam wcześniej, ale która nie spełniła naszych oczekiwań.

„Jedynie co dodałbym tutaj jeszcze to nagłówki h1. Obserwuje się obecnie ich mniejsze znaczenie w pozycjonowaniu jednakże zawsze trochę pomagają, po zmianie nagłówka h1 na jednej z moich stron, od razu poszła ona w górę.”
Trochę na pewno pomagają, podobnie jak szereg innych czynników. Jednak moim zdaniem te top 5 w linkowaniu i optymalizacji są zdecydowanie najmocniejsze i daleko za nimi są pozostałe elementy.

„Jeżeli Google posiada bezpośredni dostęp do wiarygodnych i bardzo szczegółowych danych o zachowaniu użytkownika na stronie, to dlaczego miałby te informacje pomijać w kształtowaniu rankingu?”
Nie twierdzę, że na 100% pomija, jednak na tę chwilę mało prawdopodobne wydaje się korzystanie z danych z GA. Z kolei dane o CTR pochodzące bezpośrednio z wyników wyszukiwania są dostępne dla wszystkich stron, więc aż się prosi, aby je uwzględnić.

„A co myślisz o CTR i jego wpływie na pozycje?”
W pierwszej kolejności to wysoka pozycja sprawia, że strona uzyskuje wysoki CTR.

Z drugiej strony, jeśli po analizie CTR dla top 10 okazuje się, że wartość CTR nie zmniejsza się proporcjonalnie tylko gdzieś wśród pierwszych pozycji znajduje się strona ze stosunkowo niskim wskaźnikiem, to powinien to być dla Google znak, że strona ta może zajmować zbyt wysoką pozycję. I ten CTR będzie się też mocno różnił w zależności od tego, czy wyszukujemy fraz komercyjnych czy brandowych – przy tych drugich być może właśnie po analizie takich danych Google zdecydowało się ograniczyć liczbę wyników na 1. stronie nawet do tylko 4. Mogli uznać, że przy brandowych frazach liczy się tylko kilka pierwszych pozycji i wystarczy je zostawić na 1. stronie.

„A może przeprowadzisz jakieś testy i sprawdzisz jak duży wpływ w Polsce mają media społecznościowe?”
Niewykluczone, że się takich podejmę, ale skupiając się na wynikach spersonalizowanych. Już kilka miesięcy temu zgłębiałam temat wyglądu takich wyników i tego, jak mocno skaczą wyniki udostępniane przez śledzony profil na G+. Muszę tylko taki test dobrze przemyśleć.

Skoro zakładamy, że branża SEO jest na tyle potężna żeby rozłożyć Googla na czynniki pierwsze, a jeszcze się to nie udało. To chyba wniosek może być taki, że poniekąd Google losowo dobiera czynniki wpływające na wynik, żeby zaciemniać obraz?

Wszystko się zgadza tylko nikt nie powie ile taka strona z działaniami mającymi na celu podniesienie jej pozycji posiedzi w TOPie – bo to chyba powinno być głównie naszym celem. U siebie na blogu napisałem jak najlepiej konstruować witryny przyjazne SEO ale wg. mnie bez domieszki grey SEO TOPu nie zrobi. Niemniej jednak wywindować stronę na sensowne pozycje to nie jest aż taki duży problem w stosunku do późniejszego utrzymania pozycji – i tutaj wychodzi zagwozdka – ile i jak stosować aby nie przegiąć – ale tego niestety nikt nie zdradzi bo też każdy ma inne doświadczenia i jak ktoś powyżej napisał – Google może i pewnie to robi specjalnie wrzuca czynnik random aby mieszać dzięki czemu ciężko wyciągnąć prawidła.

Musiałby ktoś mieć kilkanaście stron od lat i robić je różnymi technikami w tym głównie white/grey SEO aby wiedzieć co i jak działa – ale znowusz pojawia się pytania na jak długo -> i to jest główny punkt tej zabawy. 🙂

Uważam podobnie ale i tak dobra optymalizacja może zdziałać cuda 🙂

Jakie to wszystko jest proste – w teorii, w praktyce natomiast już nie koniecznie 😉 Dzięki za wyczerpujące ujęcie tematu – z dużej perspektywy sedno zagadnienia to zdobywanie linków, jednak z każdą kolejną zmianą algorytmu sprawa się komplikuje.

Fajnie zotało to zebrane w jedną całość. Chociaż ktoś kto myśli 4-wymiarowo to będzie również stawiał na inne kanały komunikacji – no ale kosztuje to trochę więcej.

Odnośnie punktu o unikalości treści: Zgodziłam się na publikowanie na zaprzyjaźnonym blogu moich artykułów, które mam na swoim blogu.Czy dobrze rozumiem, że pomimo, iż pod wklejonym artykułem zawsze wklejają link do mojej strony głównej to może być to szkodliwe dla mojej strony???

Wniosek prosty, treść i linki 😉

Najważniejsze: wciąż trzeba linki zdobywać 😉

Nie jestem do końca przekonany, czy Google nie zwraca uwagę na ruch i jego jakość oraz czas spędzony na stronie przez użytkownika. Wydaję mi się że są to ważne czynniki.

Ciągle jest to właśnie opisywane, to co najważniejsze, a jednak wciąż widzę w sieci poważne wpisy typu: „strona ma duży PR, więc wyświetla się bardzo dobrze w Google i nic więcej nie potrzeba” :d

Bardzo rzetelny artykuł. Brakowało mi właśnie takiego aktualnego zestawienia, bo algorytmy Google są jak ruletka. Przy okazji, ostatnio natknąłem się na informację, że Google będzie nagradzał strony dostępne po protokole HTTPS. Jak myślicie, jak wielki wpływ na pozycje może mieć odpalenie strony z szyfrowaniem?

Mimo wszystko dodałbym gdzieś na końcu kwestię frazy w adresie url. Jeśli chodzi o jakąś firmę, którą interesuje jedno konkretne słowo-klucz, warto zawrzeć je w swoim adresie. Ciut pomoże, a nie zaszkodzi. Ale generalnie propsy za świetny pomysł na artykuł.

trójkę z czwórką osobiście bym zamienił, ale to moje skromne wrażenie. Poza tym jest jak najbardziej ok, dobra robota, jak zwykle Lexy

Ciekawy art, na pewno pomoże niejednemu choć trochę poprawić widoczność swojej strony 🙂

Branża SEO nie jest potężna, tylko ma wystarczającą liczbe danych i lata doświadczeń, aby poznać szczegółowo algorytm.

Świetny artykuł! Jeśli szukasz inspiracji na kolejny to z chęcią przeczytałbym o dobrej optymalizacji małych i średnich stron 🙂

Mam bardzo podobne wnioski co do czynników wpływających na pozycję. Mimo wszystko bardzo fajnie się to czytało.

Większość osób czytając tą stronę uznaje ją za wartościową. Ja również do nich należę.

Z drugiej strony ile z tych osób umieści link do niej ?

Moim zdaniem bardzo znikomy procent. Tak więc podstawowe kryterium wyceny wartości stron pielęgnowane przez G według którego ustawianie są wyniki w SERP-ach jest totalną bzdurą trwającą już od lat. Nakręciło to gigantyczny spam w internecie a strony wartościowe bardzo często są na dalekich pozycjach. Mają one bardzo małe szanse aby w sposób naturalny uzyskać wysoki TOP.
Dopóki link jest królem manipulacja bierze górę, bo do tej grupy należy zaliczyć nasze działania.

Można dodać przy linkach wysokość TR/TF strony z której link pochodzi.

Ja tam się cieszę, że unikalna treść w końcu zaczyna zyskiwać na znaczeniu, choć oczywiście to nie znaczy, że można sobie „olać linki”….

skad brac dobre jakosciowo linki w duzych ilosciach?

Prawda jest taka, że bez linków nic nie uzyskasz.

Bardzo dobra lista. Szczególnie zaintrygowało mnie że UX jest na pierwszym miejscu – myślę że nie przypadkowo 🙂 Pozdrawiam!

[…] – poradnik, dzięki któremu szybko odnajdziesz się w narzędziach Google dla webmasterów. Mój własny ranking czynników wpływających na pozycje – ranking czynników wpływających na pozycję SEO, przygotowany przez Martę […]

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.