Wywiad z Vanessą Fox

Dla znających angielski wstawiłam powyżej filmik z wywiadem, a dla pozostałych skrót z niego.

DUPLICATE CONTENT

R: Czy „Duplicate Content Filter” jest tym samym co „Duplicate Content Penalty”? (filter – filtr; penalty – kara)
V: No cóż… wydaje mi się, że w tej sprawie jest sporo zamieszania. Mam wrażenie, że ludzie myślą, że jeśli Google widzi informacje na stronie, które są powielone z innej strony, może za to zostać nałożona jakaś kara.
R: Nazwałabyś to filtrem czy raczej karą?
V: Nie ma żadnej kary. Nie stosujemy kar względem stron znajdujących się w takich sytuacjach. Uważam, że ludzie przejmują się bardziej niż powinni tym, że mają zduplikowaną treść i myślą, że zaraz dostaną za to jakąś karę. Jednak co czeka takie strony to pewnego rodzaju filtr. Ponieważ w wynikach wyszukiwania chcemy pokazać istotne, przydatne wyniki, a pokazanie 10 identycznych z tą samą treścią nie jest dla Internautów zbyt dobrym doświadczeniem, zaindeksujemy tylko jedną z tych stron.

KOD STRONY

R: Czy Google zwraca uwagę na kod strony?
V: Google raczej o to nie dba. Po prostu wyłapiemy na stronie tekst, a kod zignorujemy. Oczywiście chcemy aby na stronie było sporo tekstu.

FORMAT MAPY STRONY

R: Czy spośród różnych formatów zapisu mapy strony jest taki, który jest lepszy od innych?
V: Po pierwsze, najważniejsze aby była ona dla Ciebie jak najłatwiejsza do przygotowania. (wymienia rss, mapę strony w xml, txt itp.)
V: Mapa strony nie wpływa na ranking w Google. Jedyne w czym pomaga to indeksacja stron, dzięki której dowiadujemy się o ich istnieniu, bo jeśli nie wiemy o niej, nie zaindeksujemy jej ani nie wstawimy do naszego rankingu. Ale poza tym mapa nie ma wpływu na ranking.

PAGE RANK

R: Co powiesz osobom, którym zależy głównie na linkach ze stron, powiedzmy o PR=4?
V: Powiedziałabym, aby zbierali linki z dobrych stron, z których mogą uzyskać ruch na swojej stronie i takich, z których odwiedzający będą chcieli odwiedzić naszą stronę (mówiąc wprost, powiązanych tematycznie). Myślę, że wyjdą na tym lepiej niż na zwracaniu uwagi jedynie na PR i uzyskają dzięki temu więcej odwiedzających i ogólnie większy ruch na stronie. Nie chodzi tylko o Google, ale o zwiększenie ruchu na naszej stronie.

Osobiście wolę mieć walidujący się kod i stronę zbudowaną na divach + css, najlepiej w html bądź xhtml strict, nawet jeśli miałoby to nie wpływać na pozycję strony w wyszukiwarkach. W końcu nie tylko to się liczy. W tej kwestii górę biorą ważniejsze sprawy, np. mniejsze zużycie transferu i wygoda wszelkich zmian w layoucie, o ile oddzieliliśmy warstwę prezentacyjną od treści. Poza tym, Vanessa nie musiała nam mówić wszystkiego. W końcu nie może zdradzić nam tego jak działa algorytm Google.

Odnośnie PR, może w przypadku stron o niepewnych pozycjach, ma on niewielkie znaczenie, ale przy innych raczej się tego nie zauważa. Już od pewnego czasu PR traci na znaczeniu, ale w przypadku jego wysokiego wskaźnika jest większe zainteresowanie wymianą linkami 🙂

KATEGORIE: Pozycjonowanie stron
Comments (8)

Gdy przerzuciłem się na div + css widzę jak wszystko jest 'czyste’. Może to i nie wpływa na pozycjonowanie, ale jak ładnie kod wtedy wygląda i jest się czym pochwalić 😉 A PR … cieszy oko gdy jest wysoki 🙂

[…] Co do linków i ich wartości dla pozycjonerów (wspomniałem już o tym w jednym z komentarzy wpisu pozycjonowanie stron), to z wypowiedzi Vanessy Fox (tłumaczenie za Lexy’s blog): Powiedziałabym, aby zbierali linki z dobrych stron, z których mogą uzyskać ruch na swojej stronie i takich, z których odwiedzający będą chcieli odwiedzić naszą stronę (mówiąc wprost, powiązanych tematycznie). Myślę, że wyjdą na tym lepiej niż na zwracaniu uwagi jedynie na PR i uzyskają dzięki temu więcej odwiedzających i ogólnie większy ruch na stronie. Nie chodzi tylko o Google, ale o zwiększenie ruchu na naszej stronie […]

Dosyć ciekawe te informacje 😉

Tak. Poza tym, nie patrz tylko na PR. To tylko jeden z wielu czynników wpływających na pozycję strony, jednak jeśli PR jest wysoki, ale ze strony wychodzi sporo linków, ich wartość jest niewielka. Tym bardziej jeśli mowa o wstawianiu linków na blogi, bo takie linki również nie mają zbyt dużej wartości.

czyli lepiej robic zaplecze tematyczne niz masowo pakowac linki na rozne blogi z wysokim pr….

osobiście nie widzę żeby zduplikowana tresc kilku stronom szkodzila, robią jakieś wyjątki?

Google chce aby przedstawiać wyniki najbardziej trafne do tych których oczekujemy wpisując w wyszukiwarkę odpowiednią frazę, w związku z tym nie chce pokazywać jednej treści na stronie np. na pozycji 1, 2, 5 i 7 bo taka informacja dla nas użytkowników nie jest przydatna.

Myślę, że kopiowanie treści jest też trochę nieeleganckie…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.