Mój pierwszy artykuł na SEOmozie

Tym razem chciałabym się pochwalić publikacją swojego pierwszego artykułu na SEOmozie 😉 Artykuł dotyczy omawianego przeze mnie ostatnio tematu oszukania zasady pierwszego linka za pomocą zakotwiczonych linków. Artykuł jest bardzo krótki, więc czyta się go szybko i nie powinno być problemów z jego zrozumieniem nawet dla osób ze słabą znajomością angielskiego.

KATEGORIE: Pozycjonowanie stron
Comments (15)

Ładnie, nawet linka w treści follow udało się umieścić 😉

Już nawet widziałam kopię tego artykułu, również z linkami dofollow 😉

Hehe 'skuteczność’ tej metody jest powalająca.

Pozycjonowanie to zdobywanie BL a w tym najlepszy jest Xrummer program do katalogowania strony postami na forach a dla Googli liczy się tylko która strona ma więcej linków i tutaj Xrumer jest najlepszy bo dodaje po kilka dziesiąt tysięcy linków dziennie.
Nawet jak zmienisz przepływ PR a ja nie to będę lepszy z 1.2 mil back linków jak masz 1.1 mil. a linki z Xrumera są naturalne bo to zwykłe ogłoszenia na forach takie same jak by się je pisało ręcznie tylko szybciej i dodanie 100 tysięcy zaindexowanych w yahooo to cztery dni działania programu.

BLAST to przyszłość SEO a takie hashowanie linków nie bo jak by mi zależało to dodał bym wynik rand(1,10000000) za każdym razem inny w każdym linku output bufferem i co? moja strona będzie lepsza bo każdy link ma inny Hash? Nie żartuj sobie.

Czy na pewno przeczytałeś podlinkowany przeze mnie artykuł? Nie piszę tam w ogóle o mocy takich linków w porównaniu do zwykłych tylko o tym, że jest to sposób na obejście zasady pierwszego linka i że można dzięki temu przekazać kilka anchorów linkując z dokumentu A do dokumentu B.

Twój komentarz dotyczy zupełnie innego zagadnienia.

Artykuł przeczytałem nawet z niego tu wszedłem wpływ hashowania adresów na pozycję jest taki jak uderzenia długopisem o biurko na prędkość obrotową Ziemi.
Nie potrzebnie wszystko komplikujesz, czynniki wewnętrzne linki mod rewrite , # w linkach , duplikaty , wcale się nie liczą bo zdobędę tyle linków zewnętrznych ile ty plus jeden i już jestem wyżej pozycjonowanie jest prostsze niż wydaje się tobie i seomozowiczom a moje metody sa tak samo trwałe bo Xrumer jest całkowicie nie wykrywalny i jest legalny bo to normalna reklama na forach i IP jest z hong kongu abchk.com a nie normalnego kraju.

Mam inne zdanie na temat tego typu automatów i znaczenia zdobywanych dzięki niemu linków w porównaniu do tych naprawdę wartościowych. Nie zmienia to jednak tego, że odchodzimy od tematu.

Tymoteusz, artykuł jest o optymalizacji, a nie o pozycjonowaniu. A Xrumera pozostawię bez komentarza. Za dużo automatów, czas na chwilę się zatrzymać i zacząć czytać ze zrozumieniem o cym jest artykuł.

Bravooo Marta. Polacy nie gęsi i swoje SEO mają.
A Tymoteuszem sie nie przejmuj – jak widac musi sie lansowac niezaleznie od kontekstu.

Obsługę fragmentów można oczywiście oskryptować, żeby działała zupełnie inaczej niż w zwykłym HTML-u. Przykład: W3C Validator.
Przy włączonej obsłudze JS zmienia się „podstrona”, przy wyłączonej widoczna jest całość i przesuwa się scrollbar w miejsce anchora, co umożliwia indeksację całości jako jednego dokumentu, posiadającego jeden PR.
A jako że Google zlicza wszystkie anchorteksty, tworząc wirtualne podstrony w JS zamiast osobnych plików nic się nie traci.

To według mnie najlepsze zastosowanie takich linków. Niektóre strony niepotrzebnie rozbijają niewielkie ilości tekstu na inne podstrony zamiast zastosować rozwiązanie, które opisałeś. Tak naprawdę takie hashowanie najlepiej jest wykorzystać do samej optymalizacji, bez zbytniego skupiania się na tym w zdobywaniu linków.

Jednak site ma znaczenie przy pozycjonowaniu. Strony z większym site’m lepiej się pozycjonuje. Ale ciekawe rozważania, a bez rozważań nie ma lepszego pozycjonowania ;-).

To zależy od ilości, ale jeśli serwis ogólnie jest dość rozbudowany to nawet kilkakrotne zmniejszenie ilości podstron nie powinno robić dużej różnicy. Przy podejmowaniu decyzji na temat tego, jak podzielić podstrony, patrzyłabym głównie na ich zawartość – jeśli ma na nich być po dosłownie kilka zdań, wolałabym je scalić i mieć 1 zamiast np. 4-5 podstron, ale dużo bardziej wartościową.

Gratuluje !

Choc powiem szczerze ze mnie Rand Fishkin nie przekonuje. Jego porady dotyczace pozycjonowania nie sa niczym szczegolnym a kreuje sie/ czy zostal wykreowany na jakies guru… dziwne to wszystko..

A z innej beczki to jaka ksiazke o pozycjonowaniu polecila bys dla sredniozaawansowanych/ zaawansowanych?

Bez wiedzy nikt się nie „wykreuje na guru”, ale nikt też nikt nie decyduje się zdradzać wszystkiego co wie na temat pozycjonowania. To akurat nie powinno nikogo dziwić 😉

O książkach prawdopodobnie napiszę niedługo.

Niestety o pozycjonowaniu nie znajdziemy zbyt wiele w sieci. Bardzo często trzeba wiedzę gromadzić samemu przez własne doświadczenia.

Pozdrawiam.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.