Relacja z SEO Heroes podczas Search Marketing Day 2013

seo-heroesWczoraj uczestniczyłam w konferencji Search Marketing Day – co prawda nie na żywo, ale w ostatniej chwili na szczęście pojawiła się możliwość wzięcia udziału w transmisji online ze spotkania SEO Heroes (dziękuję 😉 ). Podczas gdy ja robiłam notatki, Artur Strzelecki na bieżąco relacjonował każdą z prezentacji, a teraz czas na moje podsumowanie.

dan-petrovicKonferencja rozpoczęła się od prezentacji Dana Petrovica na temat automatyzacji części działań przy zachowaniu zasad białego SEO. Przede wszystkim zaproponował on podzielić analizę słów kluczowych na 2 etapy: w pierwszej kolejności ma to być analiza danych z GWT w celu znalezienia fraz, które już generują ruch i zajmują wysokie pozycje, i na których należy się skupić. W celu znalezienia nowych fraz należy skorzystać z ogólnodostępnych narzędzi, np. Googlowych. Zwrócił również uwagę na problem optymalizacji dużych serwisów, w szczególności w kontekście nieprawidłowej nawigacji po stronie, w związku z którą generowane są wyjątkowo duże liczby podstron. W temacie link buildingu wspomniał o analizie backlinków konkurencji i o szukaniu na tej podstawie nowych źródeł linków – mocno podkreślił, aby były to linki wysokiej jakości, o które faktycznie warto zawalczyć. Jako jeden ze sposobów wskazał sprawdzanie niedziałających już linków do konkurentów i zakup takich wygasłych domen w celu ich przekierowania na stronę klienta. Sama do podobnych działań wykorzystuję program Xenu, który skanuje wybrane serwisy (w szczególności te tematyczne) i wskazuje niedziałające już strony. Wtedy wystarczy zebrać listę takich serwisów i sprawdzić, które z nich są najmocniejsze.

Ralph TegtmeierNastępnie powitał nas Ralph Tegtmeier, przedstawiciel czarnej strony mocy 😉 który całą swoją prezentację poświęcił tematowi cloakingu. Oprócz wyjaśnienia różnych jego rodzajów i podśmiewania się z tych, którzy uważają cloaking za przeżytek, opisał dość szczegółowo sposób, w jaki prowadzi kampanie dla klientów. Strona A to strona klienta (np. kasyno online), która jest w 100% czysta pod kątem SEO i nie można się do niej za nic przyczepić. Wszelkie działania mające na celu zwiększenie zarobków z serwisu odbywają się na stronie B – sklonowanym serwisie, który w żaden sposób nie jest powiązany ze stroną klienta. Strona B nie powinna być nawet zaindeksowana, bo to powodowałoby duplicate content. O co więc chodzi? O masowe wygenerowanie jak największej liczby tzw. domen cieni, których zadaniem jest przekierowywanie ruchu na stronę B. Kampania taka daje rezultaty nawet po 2 tygodniach – nie wpływa na pozycje strony klienta, ale wpływa na… grubość jego portfela. Ralph oczywiście nie poleca takich działań osobom o słabych nerwach, a zatem ja traktowałam te informacje raczej jako ciekawostkę, a nie pomysł na zastosowanie w praktyce. Smaczku dodał wykładowi ostry język Ralpha, który nawet w panelu dyskusyjnym podniósł nieco ciśnienie rozmówcom 😉

Razvan GavrilasRazvan Gavrilas skupił się na temacie nienaturalnych linków i kar od Google – oryginalny tytuł to „Unnatural links & Penguins„. Zwrócił uwagę na sygnały, które mogą wskazywać na nienaturalny profil linków, wymieniając wśród nich m.in. wysoki udział linków z anchorami komercyjnymi (zawierającymi pozycjonowane słowa kluczowe), w większości zdobywanych masowo z blogów czy forów. Dobrze, że wspomniał tu o skali – pojedyncze linki tego typu nie muszą szkodzić, ale jeśli ktoś już ma sporo podejrzanych backlinków, kolejne mogą spowodować nałożenie kary. W skrócie – to co jest korzystne dla mnie, nie musi być korzystne dla Ciebie. Ponieważ lepiej jest zapobiegać, niż leczyć, Razvan proponuje aby jak najszybciej dokonać analizy backlinków do swojej strony i w razie potrzeby oczyścić profil linków – czy to przez usunięcie podejrzanych linków, czy to przez zgłoszenie pozostałych przez disavow links tool. Oczywiście dalsze linkowanie nie powinno zbyt mocno skupiać się na działaniach typowych dla SEO, ale bardziej na budowaniu marki, wzmacnianiu autorytetu domeny. Wspomniał też o pewnej ciekawostce – twierdzi, że jeśli nawet zgłosi się przez narzędzie wszystkie linki, zgłoszenie ponownego rozpatrzenia może zostać odrzucone i znowu możemy przeczytać o tym, że do naszej strony nadal prowadzą nienaturalne linki. Jak to wyjaśnił? Jego zdaniem, aby żądanie ponownego rozpatrzenia zakończyło się sukcesem, jak najwięcej zgłoszonych linków musi się pokrywać z tymi, które Google uznało za nienaturalne.

Josh BachynskiW czasie jednej z kolejnych prezentacji Josh Bachynski omówił temat drugiej z najpopularniejszych obecnie aktualizacji – Pandzie – i jej szczegółowej analizy na podstawie danych z Google Analytics i MOZ (lista update’ów). Zwrócił on uwagę na to, aby nie podejmować zbyt pochopnie decyzji w związku ze spadkami pozycji, ponieważ można się skupić nie na tych działaniach, które faktycznie miały na to wpływ. Dlatego tak ważna jest znajomość dat wypuszczania kolejnych aktualizacji i możliwość sprawdzenia, czy daty wahań pozycji się z nimi pokrywają. Następnie skupić się tylko na analizie bezpłatnego ruchu z Google generowanego dla poszczególnych stron docelowych. Zwrócił on uwagę m.in. na czas spędzony na stronie, szybkość ładowania, ale także statystyki dotyczące zachowania mobilnych użytkowników.

W międzyczasie były 2 tematy, które mnie zbytnio nie zainteresowały – jeden praktycznie w całości był prezentacją giełdy linków, natomiast drugi opisywał sposób powstawania i działania wyszukiwarki. Dla zainteresowanych tymi tematami, na silesiasem.pl można przeczytać skrót.

Dominik WojcikNastępnie na salę wszedł Dominik Wojcik z naprawdę fajnym case’m. Mimo że większość odbierałam w ramach zwykłych ciekawostek, to jednak było co notować 😉 Dominik odpowiedział, jak udało mu się w szybkim czasie stworzyć nową stronę i zaindeksować 1 milion podstron. Przede wszystkim wyszedł z założenia, że strona nie może wyglądać jak marne zaplecze, dlatego postanowił znaleźć ładny szablon graficzny i samemu napisać skrypt, zamiast korzystać z gotowców. Aby sprawić wrażenie poważnego, zaufanego projektu, skorzystał z Google Analytics i zweryfikował stronę w narzędziach dla webmasterów. Opierał się na generowaniu wielu subdomen ze scrapowaną treścią (sam blokując scrapery przed pobieraniem treści od niego 😉 ), a żeby wzmocnić serwis, przekierował na niego ponad 100 przechwyconych domen z dość mocnymi parametrami. Aby zdobyć linki, stworzył widget, który dość szybko wpłynął na statystyki backlinków. Wspomniał też o kilku trickach, m.in. o tym pozwalającym zmniejszyć wskaźnik BR przez zablokowanie przycisku „Wstecz” w przeglądarce. W sumie to cały case był listą ciekawych tricków 😉

Marcus ToberNastępny temat to czynniki rankingowe w Google na podstawie danych z Polski. Zostały one porównane przez Marcusa Tobera z SearchMetrics z danymi opublikowanymi kilka dni temu. Analizie podlegały 3 pierwsze strony wyników dla 10 000 słów kluczowych. W przeciwieństwie do danych dotyczących USA, w Polsce czynniki społecznościowe odgrywają nieco mniejszą rolę, a najważniejsze nadal są linki, w szczególności te z polskich stron. Mam nadzieję, że ranking czynników wpływających na pozycję polskich wyników zostanie później opublikowany, bo w ten sposób najłatwiej będzie go porównać z tym. Marcus zwraca uwagę, że coraz większą rolę odgrywa jakość linków, niż ich liczba, czy nawet stopień zróżnicowania. Ciekawy był case niemieckiej strony, która ucierpiała w wyniku jednej z aktualizacji Pingwina, a dzięki podjętym działaniom (usunięcie najsłabszych linków i zdobywanie nowych, mocnych linków, bez komercyjnych anchorów) kilkakrotnie zwiększyła swój ruch organiczny. Marcus wielokrotnie (nawet podczas panelu dyskusyjnego) musiał podkreślać, jak analizować dane na temat czynników rankingowych, aby nie interpretować ich błędnie. Należy zrozumieć, że analiza polegała na sprawdzeniu wspólnych czynników dla stron zajmujących wysokie pozycje, w porównaniu do tych na bardziej odległych pozycjach. Część z nich wcale nie musi wpływać w żaden sposób na ranking – są to po prostu elementy wspólne dla popularnych serwisów zajmujących topowe pozycje.

Dixon JonesDixon Jones miał raczej mało techniczną prezentację o tym, w jaki sposób dzięki linkom… przewidywać przyszłość. Następnie Maik Metzen mówił o SEO w afiliacji, ponieważ jednak sama nie siedzę w tym temacie, a przedstawione informacje (unikalna treść, zadbany profil linków itp.) były dla mnie w miarę oczywiste, przejdźmy dalej. Gareth Hoyle po raz kolejny poruszył temat nienaturalnych linków, a konkretnie – sposobów ich wyłapywania. W końcu przy tysiącach domen linkujących, nie jest łatwo ręcznie przeprowadzić taką analizę, a automatom nie można w pełni ufać. Gareth zwrócił uwagę przede wszystkim na 3 czynniki: duży udział linków z komercyjnymi anchorami, linków site-wide oraz linków z dziwnych domen. Warto przy tym zwrócić uwagę na parametry takie jak Citation Flow i Trust Flow. GPrzedstawił też narzędzie „Link Risk”, które automatycznie wykonuje audyt linkowania i wskazuje podejrzane linki oraz ryzyko nałożenia kar przez Google. Zaskoczył mnie nieco sposób jego postępowania przy zdejmowaniu filtrów – udostępnianie bardzo, ale to bardzo szczegółowych arkuszy z dokładnym opisem, które linki i kiedy dokładnie zgłosiliśmy webmasterom z prośbą o ich usunięcie, 3-krotne próby kontaktu w razie braku odpowiedzi, pełna spowiedź przed Google itp.

Konstantin KaninNa koniec została najciekawsza prezentacja, którą przedstawił Konstantin Kanin. Dotyczyła ona pozycjonowania w Yandexie i od razu odsyłam do jego strony www.konstantinkanin.com. Yandex to wyszukiwarka regionalna, dlatego trzeba dokładnie przemyśleć, na jaki region kierować swoje działania. Na szczęście są dostępne narzędzia, które pomogą w wyborze i sprawdzeniu jak wyglądają SERPy w różnych regionach. Nie ma więc sensu próbować wypozycjonować się w wynikach globalnych i bardzo ważne jest, aby doboru słów kluczowych, czy też samego tłumaczenia strony i przypisanych do niej fraz, nie oddawać w ręce osoby nie znającej tematu od środka i nie będącej nativem. Co ciekawe, wyszukiwarka ta zwraca uwagę na zachowania użytkowników na stronie, analizując m.in. wskaźnik odrzuceń, czas na stronie, czy też CTR w wynikach wyszukiwania. A co jeszcze ciekawsze, podejście do link buildingu jest skrajnie odmienne od prezentowanego przez Google, tj. jeśli serwis stać na stałe kampanie reklamowe, w tym zdobywanie płatnych linków, to jest to znak, że poważnie podchodzi do biznesu i tym samym zasługuje na wysokie pozycje. No cóż… nas, seowców, zapewne ucieszyłoby podobne podejście ze strony wyszukiwarki, która dominuje na naszym rynku 😉

Podsumowując, konferencja się udała i mam nadzieję, że na kolejną w końcu dotrę 😉 Byłam bardzo ciekawa, jaki będzie jej poziom merytoryczny i nie zawiodłam się. Często czytając angielskie blogi czy książki dziwił mnie zachwyt komentujących nad ogólnikami, które u nas streszcza się w kilku zdaniach i przechodzi od razu do konkretów. Tutaj bardziej ogólne prezentacje przeplatały się ze szczegółowymi case study, jednak nawet z tych pierwszych zawsze można było zanotować coś interesującego. Mimo prezentowania różnych podejść do SEO, w temacie zdobywania linków większość była zgodna co do tego, aby bardziej skupić się na linkowaniu brandowych fraz, a nie tych komercyjnych, szukać mocnych jakościowo stron i… działać z głową.

PS Kiedy jeszcze nie wiedziałam, że będę mogła wziąć udział w SMD sądziłam, że wystarczy mi jeśli przeczytam później szczegółowe relacje ze spotkania, lub przejrzenie udostępnionych później prezentacji (o ile będą publicznie dostępne). Ale naprawdę nie ma porównania czytania czyichś relacji do tego, kiedy można słuchać prelegentów na żywo i wyłapać każdy detal z tego, co mówili.

KATEGORIE: Szkolenia SEO
Comments (24)

Jak zawsze świetny post 🙂 Dzięki za to podsumowanie, zwłaszcza, że opisałaś rzeczywiście najistotniejsze punkty programu.

Dzięki za krótkie streszczenie tego co było.

Niezle opracowanie ale powiedz, co nowego się dowiedziałem? Co było nowością?

Dla mnie nowością była większość informacji przedstawionych przez Ralpha – nie siedzę w ogóle w black hacie, więc nigdy nie wnikałam w sposób działania tego typu metod, a już tym bardziej ich rezultatów. Nie zajmuję się też Yandexem, więc ciekawie się o nim słuchało. Dominik pokazał fajny case i takie konkretne tematy zawsze czyta się/słucha się z zaciekawieniem tym bardziej, że wszystko bardzo szczegółowo opisywał i pokazywał dane na slajdach.

Pozostali mieli tematy bardziej ogólne, jednak często jest tak, że zapomina się o najprostszych metodach i przy okazji takich spotkań po prostu się o nich przypomina. Niektórzy przedstawili też ciekawe teorie, nad którymi warto się zastanowić.

W ogóle w sytuacji, kiedy oprócz ciągłego testowania własnych rozwiązań, ma się do dyspozycji książki, w których 80% to lanie wody, albo fora, na których bardzo ciężko doszukać się konkretów, fajnie jest siedzieć bite 9-10 godzin i w końcu słuchać non stop konkretów. Chociaż przyznam, że część informacji wg mnie była tylko domysłami, ale jak już wspomniałam, ma się wtedy porcję rozwiązań do sprawdzenia na własnej skórze.

Będzie wersja wideo relacji?:D

faktycznie to są jakieś przydatne informacje, a nie – wiem ale nie powiem z polskich for.

A że tak zapytam czy cos z tych nowości będziesz próbowała wdrożyć?

Z tych drobnych ciekawostek na pewno i część planuję przetestować. Black hatowych rozwiązań – zdecydowanie nie.

Nie wiem, poczekajmy aż ktoś z organizatorów się na ten temat wypowie.

Możesz napisać coś więcej na temat kwestii zakupu wygasłych domen poruszanej przez Dana i Twojej, na temat wykorzystania do tego celu Xenu? Nie bardzo rozumiem to zagadnienie, a wydaje się bardzo interesujące.

bardzo dobre streszczenie konferencji, jak będzie video nie omieszkam się z nim zapoznań

Dzięki za streszczenie. Pomysł Ralpha jest po prostu świetny, mimo że black to chętnie coś takiego przetestuję. Dla siebie, z ciekawości.
Również opis case’a Dominika jest dobry. Dzięki.

Raz jeszcze – już post factum – dziękuję za wygrane zaproszenie na konferencję 🙂

Osobiście dnia „konferencyjnego” nie rozpatrywałbym w zakresie „co nowego powiedzieli”. To było raczej jak konferencje TED-a – ciekawe persony, ciekawe idee. Jak się ma otwarty umysł i pasjonuje branżą, to warto zajrzeć. Zwłaszcza, że before i afterparty dały okazję do osobistych rozmów ze znanymi nazwiskami (plus darmową whisky 😉

Jeśli ktoś szuka twardej wiedzy, to – przynajmniej na dniu konferencyjnym – nie było jej zbyt wiele. Poziom prezentacji był różny, ale samą wiedzę można wyłuskać z anglojęzycznych źródeł. Niestety komentując posty w blogach, trudno nawiązać wartościowe znajomości 😉

Ciekawe streszczenie konferencji. Interesuje mnie jaki to serwis postawił Dominik Wójcik…. Są na ten temat jakieś informacje? 😉 Dzięki Lexy za relację;)

Widzę, że to temat nr jeden na wszystkich SEO blogach 🙂

Tak, pojawiły się już niektóre prezentacje z konferencji na http://dejanseo.com.au/smd/

Xann – przecież konferencje a szkolenia to dwie różne rzeczy. Na konferencje nie jedzie się z myślą nauczenia czegoś nowego… Chyba o tym wiesz 🙂

Raczej nie będzie, rok temu też nie było.

Dzięki Lexy za podsumowanie, napisz jak to działało z transmisją online? Dobra była jakość?

Na konferencji byłem i uważam, że wypadła bardzo dobrze. Niektóre prezentacje były naprawdę ciekawe – Dominik, Dan, Josh, Marcus, Konstantin, Razvan nie zawiedli, wysoki poziom. W kwestii Dominika – zrobił tą stronę jako zakład z kimś, że to możliwe bez linka 😉

Obok konferencji były też mini-targi, gdzie można było poznać osobiście np: ekipę wpseo czy pozycjonusz. Cała otoczka konferencji bardzo pozytywna.

„napisz jak to działało z transmisją online? Dobra była jakość?”
Tak, wszystko działało bez zarzutu. Dostałam linka i dane do logowania do serwisu, w którym transmisja była dostępna. Nie było żadnych problemów z obrazem, ani głosem i fajnie się słuchało całości po angielsku 🙂

Oczywiście slajdy były mało czytelne, ale tego można było się spodziewać.

Dziękuje za streszczenie, mam nadzieje ze w przyszlosci bedzie co raz wiecej mozliwosci zeby ogladac takie konferencje online w dobrej jakosci i z czytelnymi w pelni slajdami.

Oby więcej takich wydarzeń. Wymiany własnych trików i poglądów zawsze wspomagają powstawanie nowych metod na skuteczne pozycjonowanie. Dzięki lexy. Świetna relacja.

Zastanawiam się w jaki sposób metoda Ralph’a miała wpłynąć na pozycjonowanie i po co była strona A z której zysków nie było 😛

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Copyright 2005-2023 SEO blog Lexy. All Right Reserved.