Konkrety od pracowników Google

Od czasu do czasu trafiam na pomocne wskazówki od pracowników Google. Postanowiłam zebrać je w jednym wpisie, skupiając się przede wszystkim na wypowiedziach Johna Muellera. Większość informacji została znaleziona na blogu www.seroundtable.com i jego profilu na twitterze, a dotyczą one technicznych zagadnień. Na liście znajdą się również informacje od Matta Cuttsa, pochodzące głównie z YouTube.

  1. w przypadku blokady dostępu do katalogu, który ma zostać udostępniony, plik robots.txt należy zaktualizować co najmniej dobę przed dodaniem jakiejkolwiek treści, gdyż jest on zazwyczaj aktualizowany raz na dobę;
  2. podstrony blokowane w pliku robots.txt mogą zostać zaindeksowane w przypadku, gdy prowadzą do nich linki;
  3. odradza się stosowanie tzw. soft-404, czyli podstron informujących o braku strony, ale zwracających błędny kod statusu (200);
  4. teoretycznie, jest niewielkie prawdopodobieństwo tego, że konkurencja może zaszkodzić innej stronie linkami;
  5. kiedyś 404 i 410 były traktowane praktycznie tak samo, jednak od jakiegoś czasu zaleca się stosowanie 410 do poinformowania o tym, że podstrona została usunięta trwale i nigdy więcej nie będzie dostępna. Takie podstrony powinny być wyindeksowywane dużo szybciej niż te z 404, która może wynikać np. z chwilowego błędu i na którą reakcja Google nie powinna być natychmiastowa;
  6. odradza się stosowanie przekierowań meta refresh;
  7. odradza się również stosowanie noscript ze względu na wcześniejsze nadużywanie tego znacznika;
  8. w przypadku, gdy w serwisie znajdują się teksty pisane w różnym języku, zalecane jest, aby nie mieszać ich na jednej podstronie, mimo że w większości takich przypadków przypisanie języka do danej podstrony nie powinno stanowić dla Google problemu;
  9. zapisy w metatagu „robots” sumują się, ale się nie nadpisują. Oznacza to, że jeśli pierwszy zapis zawiera „noindex”, a drugi „index, follow” to robot odbierze to jako „noindex, follow”;
  10. przeindeksowanie plików PDF trwa dłużej niż w przypadku HTML’a;
  11. Google uzależnia częstotliwość pobierania mapy strony od tego, jak często jest ona aktualizowana. Jeśli np. na blogu dotychczas pojawiał się 1 wpis miesięcznie, a w pewnym momencie wpisy będą publikowane co kilka dni, mapa strony również będzie odwiedzana częściej;
  12. canonical nie powinien być stosowany dla podstron paginacji ze względu na to, że wpis ten mógłby uniemożliwić robotom dostęp do podstron podlinkowanych z nich;
  13. dla ustalenia geolokalizacji strony dużo ważniejsze jest posiadanie krajowej domeny (np. .pl) od lokalizacji serwera;
  14. w przypadku problemu duplicate content na stronie wynikającego z tworzenia dla każdego pliku dokumentu PDF, powinno się zablokować ich indeksację. Mimo wszystko, nawet jeśli się tego nie zrobi, Google powinno albo pokazywać wersję html’ową wyżej w wynikach niż pdf’ową, albo tej drugiej nie pokaże wcale;
  15. nagłówek 503 sprawia, że Google nie indeksuje wersji strony z informacją o jej niedostępności, tylko wraca później aby ją przeindeksować;
  16. nofollow nie powinno się w ogóle stosować w linkach wewnętrznych;
  17. podejrzana historia domeny z tzw. „drugiej ręki” może wpłynąć negatywnie na przyszłość strony;
  18. ustawienie przekierowania 301 w narzędziach dla webmasterów jest najszybszym sposobem na poinformowanie Google o zmiany domeny;
  19. systematyczna aktualizacja zawartości strony nie jest wymogiem, gdyż nie na każdej stronie istnieje uzasadnienie ciągłego dodawania nowych treści;
  20. nie powinno się publikować naraz ogromnej ilości podstron w nowym serwisie, gdyż może to skutkować jej dokładnym przejrzeniem – dotyczy to jednak naprawdę dużych liczb;
  21. strona może zostać sprawdzona także w sytuacji, w której nagle zaczyna na nią przekierowywać wiele innych domen;
  22. Google jest także podejrzliwe wobec stron blokujących dostęp do plików CSS i JS.
KATEGORIE: Optymalizacja stron, Pozycjonowanie stron
Comments (11)

Wiele przydatnych informacji znajduje się też w zatwierdzonych przez pracowników Google postach na angielskim forum Google.
Jest ich więcej niż 1000, ale filtrowanie według daty pozwala na uzyskanie dostępu do wszystkich.

Ostatnimi czasy Google zmienia dosc duzo rzeczy poczawszy od interface, a skonczywszy na zmianach w algorytmie. Zauwazalnym jest ponowne przywiazywanie wagi do slow kluczowych w URL.

Szczerze mówiąc, nie wiem czy kiedykolwiek straciły one na znaczeniu. Chociaż moim zdaniem na pewno nie jest to na tyle ważny czynnik, aby np. pod jego kątem wybierać nazwę domeny dla ważnego serwisu.

Z moich obserwacji jest to nadal ważne. Strony szybko zajmują wysokie miejsca. Jednak … to się JESZCZE liczy. To raz. A dwa – przecież adres firmy ABC wygląda profesjonalniej, jak jest abc.pl niż supertaniedrewnodokominkow.pl 🙂 Nie można popadać w skrajność

Odnoszę również jak @Martyna wrażenie o większym niż jeszcze do niedawna, znaczeniu słów kluczowych w nazwie domeny.

16. nofollow nie powinno się w ogóle stosować w linkach wewnętrznych;

To jest ciekawe, wiesz może dlaczego ? Ja czasem stosuje nofollow w linkowaniu wewnętrznym, dlatego warto byłoby wiedzieć dlaczego tego unikać.

@Ząbek: Strata PR w obrębie witryny. Temat poruszał Matt niedawno, jak i pojawił się w ostatnim wywiadzie z Guglarzem

Ząbek: mozesz do tego uzywac robots.txt

Czy przekierowywanie ruchu z domeny, na którą wchodzą przypadkowe osoby błędnie wpisując adres domeny (błąd literówka) wpływa w jakikolwiek sposób na jej indeksację lub pozycjonowanie?

Musze przyznac , ze Google co chwile zmienia wyniki . Firma manipuluje wynikami wyswietlen. To tak jak szukanie ksiazki w biblotece. Pytamy sie biblotekarza o dana pozycje a on celowo podaje nam ksiazke , ktora tematycznie jest taka sama – ale przedstawia prawdy wygodne dla biblotekarza.
Majac taka wladze , Google moze maipulowac wynikami i w ten sposob zarabiac wielkie pieniadze. Nie moge zrozumiec np:dlaczego Google zalozylo na calym swiecie filter na produkt Microsoft Windows 7
http://top1-1.com/windows-7-bardzo-niebezpieczny/
opisujacy jego bezpieczenstwo. Wiem ze stoja za tym wielkie pieniadze , ale jakim kosztem ?
Artykuly w wielu jezykach na temat powyzszy sa filtrowane.

Ciekawy artykuł.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.