Wczoraj uczestniczyłam w konferencji Search Marketing Day – co prawda nie na żywo, ale w ostatniej chwili na szczęście pojawiła się możliwość wzięcia udziału w transmisji online ze spotkania SEO Heroes (dziękuję 😉 ). Podczas gdy ja robiłam notatki, Artur Strzelecki na bieżąco relacjonował każdą z prezentacji, a teraz czas na moje podsumowanie.
Konferencja rozpoczęła się od prezentacji Dana Petrovica na temat automatyzacji części działań przy zachowaniu zasad białego SEO. Przede wszystkim zaproponował on podzielić analizę słów kluczowych na 2 etapy: w pierwszej kolejności ma to być analiza danych z GWT w celu znalezienia fraz, które już generują ruch i zajmują wysokie pozycje, i na których należy się skupić. W celu znalezienia nowych fraz należy skorzystać z ogólnodostępnych narzędzi, np. Googlowych. Zwrócił również uwagę na problem optymalizacji dużych serwisów, w szczególności w kontekście nieprawidłowej nawigacji po stronie, w związku z którą generowane są wyjątkowo duże liczby podstron. W temacie link buildingu wspomniał o analizie backlinków konkurencji i o szukaniu na tej podstawie nowych źródeł linków – mocno podkreślił, aby były to linki wysokiej jakości, o które faktycznie warto zawalczyć. Jako jeden ze sposobów wskazał sprawdzanie niedziałających już linków do konkurentów i zakup takich wygasłych domen w celu ich przekierowania na stronę klienta. Sama do podobnych działań wykorzystuję program Xenu, który skanuje wybrane serwisy (w szczególności te tematyczne) i wskazuje niedziałające już strony. Wtedy wystarczy zebrać listę takich serwisów i sprawdzić, które z nich są najmocniejsze.
Następnie powitał nas Ralph Tegtmeier, przedstawiciel czarnej strony mocy 😉 który całą swoją prezentację poświęcił tematowi cloakingu. Oprócz wyjaśnienia różnych jego rodzajów i podśmiewania się z tych, którzy uważają cloaking za przeżytek, opisał dość szczegółowo sposób, w jaki prowadzi kampanie dla klientów. Strona A to strona klienta (np. kasyno online), która jest w 100% czysta pod kątem SEO i nie można się do niej za nic przyczepić. Wszelkie działania mające na celu zwiększenie zarobków z serwisu odbywają się na stronie B – sklonowanym serwisie, który w żaden sposób nie jest powiązany ze stroną klienta. Strona B nie powinna być nawet zaindeksowana, bo to powodowałoby duplicate content. O co więc chodzi? O masowe wygenerowanie jak największej liczby tzw. domen cieni, których zadaniem jest przekierowywanie ruchu na stronę B. Kampania taka daje rezultaty nawet po 2 tygodniach – nie wpływa na pozycje strony klienta, ale wpływa na… grubość jego portfela. Ralph oczywiście nie poleca takich działań osobom o słabych nerwach, a zatem ja traktowałam te informacje raczej jako ciekawostkę, a nie pomysł na zastosowanie w praktyce. Smaczku dodał wykładowi ostry język Ralpha, który nawet w panelu dyskusyjnym podniósł nieco ciśnienie rozmówcom 😉
Razvan Gavrilas skupił się na temacie nienaturalnych linków i kar od Google – oryginalny tytuł to „Unnatural links & Penguins„. Zwrócił uwagę na sygnały, które mogą wskazywać na nienaturalny profil linków, wymieniając wśród nich m.in. wysoki udział linków z anchorami komercyjnymi (zawierającymi pozycjonowane słowa kluczowe), w większości zdobywanych masowo z blogów czy forów. Dobrze, że wspomniał tu o skali – pojedyncze linki tego typu nie muszą szkodzić, ale jeśli ktoś już ma sporo podejrzanych backlinków, kolejne mogą spowodować nałożenie kary. W skrócie – to co jest korzystne dla mnie, nie musi być korzystne dla Ciebie. Ponieważ lepiej jest zapobiegać, niż leczyć, Razvan proponuje aby jak najszybciej dokonać analizy backlinków do swojej strony i w razie potrzeby oczyścić profil linków – czy to przez usunięcie podejrzanych linków, czy to przez zgłoszenie pozostałych przez disavow links tool. Oczywiście dalsze linkowanie nie powinno zbyt mocno skupiać się na działaniach typowych dla SEO, ale bardziej na budowaniu marki, wzmacnianiu autorytetu domeny. Wspomniał też o pewnej ciekawostce – twierdzi, że jeśli nawet zgłosi się przez narzędzie wszystkie linki, zgłoszenie ponownego rozpatrzenia może zostać odrzucone i znowu możemy przeczytać o tym, że do naszej strony nadal prowadzą nienaturalne linki. Jak to wyjaśnił? Jego zdaniem, aby żądanie ponownego rozpatrzenia zakończyło się sukcesem, jak najwięcej zgłoszonych linków musi się pokrywać z tymi, które Google uznało za nienaturalne.
W czasie jednej z kolejnych prezentacji Josh Bachynski omówił temat drugiej z najpopularniejszych obecnie aktualizacji – Pandzie – i jej szczegółowej analizy na podstawie danych z Google Analytics i MOZ (lista update’ów). Zwrócił on uwagę na to, aby nie podejmować zbyt pochopnie decyzji w związku ze spadkami pozycji, ponieważ można się skupić nie na tych działaniach, które faktycznie miały na to wpływ. Dlatego tak ważna jest znajomość dat wypuszczania kolejnych aktualizacji i możliwość sprawdzenia, czy daty wahań pozycji się z nimi pokrywają. Następnie skupić się tylko na analizie bezpłatnego ruchu z Google generowanego dla poszczególnych stron docelowych. Zwrócił on uwagę m.in. na czas spędzony na stronie, szybkość ładowania, ale także statystyki dotyczące zachowania mobilnych użytkowników.
W międzyczasie były 2 tematy, które mnie zbytnio nie zainteresowały – jeden praktycznie w całości był prezentacją giełdy linków, natomiast drugi opisywał sposób powstawania i działania wyszukiwarki. Dla zainteresowanych tymi tematami, na silesiasem.pl można przeczytać skrót.
Następnie na salę wszedł Dominik Wojcik z naprawdę fajnym case’m. Mimo że większość odbierałam w ramach zwykłych ciekawostek, to jednak było co notować 😉 Dominik odpowiedział, jak udało mu się w szybkim czasie stworzyć nową stronę i zaindeksować 1 milion podstron. Przede wszystkim wyszedł z założenia, że strona nie może wyglądać jak marne zaplecze, dlatego postanowił znaleźć ładny szablon graficzny i samemu napisać skrypt, zamiast korzystać z gotowców. Aby sprawić wrażenie poważnego, zaufanego projektu, skorzystał z Google Analytics i zweryfikował stronę w narzędziach dla webmasterów. Opierał się na generowaniu wielu subdomen ze scrapowaną treścią (sam blokując scrapery przed pobieraniem treści od niego 😉 ), a żeby wzmocnić serwis, przekierował na niego ponad 100 przechwyconych domen z dość mocnymi parametrami. Aby zdobyć linki, stworzył widget, który dość szybko wpłynął na statystyki backlinków. Wspomniał też o kilku trickach, m.in. o tym pozwalającym zmniejszyć wskaźnik BR przez zablokowanie przycisku „Wstecz” w przeglądarce. W sumie to cały case był listą ciekawych tricków 😉
Następny temat to czynniki rankingowe w Google na podstawie danych z Polski. Zostały one porównane przez Marcusa Tobera z SearchMetrics z danymi opublikowanymi kilka dni temu. Analizie podlegały 3 pierwsze strony wyników dla 10 000 słów kluczowych. W przeciwieństwie do danych dotyczących USA, w Polsce czynniki społecznościowe odgrywają nieco mniejszą rolę, a najważniejsze nadal są linki, w szczególności te z polskich stron. Mam nadzieję, że ranking czynników wpływających na pozycję polskich wyników zostanie później opublikowany, bo w ten sposób najłatwiej będzie go porównać z tym. Marcus zwraca uwagę, że coraz większą rolę odgrywa jakość linków, niż ich liczba, czy nawet stopień zróżnicowania. Ciekawy był case niemieckiej strony, która ucierpiała w wyniku jednej z aktualizacji Pingwina, a dzięki podjętym działaniom (usunięcie najsłabszych linków i zdobywanie nowych, mocnych linków, bez komercyjnych anchorów) kilkakrotnie zwiększyła swój ruch organiczny. Marcus wielokrotnie (nawet podczas panelu dyskusyjnego) musiał podkreślać, jak analizować dane na temat czynników rankingowych, aby nie interpretować ich błędnie. Należy zrozumieć, że analiza polegała na sprawdzeniu wspólnych czynników dla stron zajmujących wysokie pozycje, w porównaniu do tych na bardziej odległych pozycjach. Część z nich wcale nie musi wpływać w żaden sposób na ranking – są to po prostu elementy wspólne dla popularnych serwisów zajmujących topowe pozycje.
Dixon Jones miał raczej mało techniczną prezentację o tym, w jaki sposób dzięki linkom… przewidywać przyszłość. Następnie Maik Metzen mówił o SEO w afiliacji, ponieważ jednak sama nie siedzę w tym temacie, a przedstawione informacje (unikalna treść, zadbany profil linków itp.) były dla mnie w miarę oczywiste, przejdźmy dalej. Gareth Hoyle po raz kolejny poruszył temat nienaturalnych linków, a konkretnie – sposobów ich wyłapywania. W końcu przy tysiącach domen linkujących, nie jest łatwo ręcznie przeprowadzić taką analizę, a automatom nie można w pełni ufać. Gareth zwrócił uwagę przede wszystkim na 3 czynniki: duży udział linków z komercyjnymi anchorami, linków site-wide oraz linków z dziwnych domen. Warto przy tym zwrócić uwagę na parametry takie jak Citation Flow i Trust Flow. GPrzedstawił też narzędzie „Link Risk”, które automatycznie wykonuje audyt linkowania i wskazuje podejrzane linki oraz ryzyko nałożenia kar przez Google. Zaskoczył mnie nieco sposób jego postępowania przy zdejmowaniu filtrów – udostępnianie bardzo, ale to bardzo szczegółowych arkuszy z dokładnym opisem, które linki i kiedy dokładnie zgłosiliśmy webmasterom z prośbą o ich usunięcie, 3-krotne próby kontaktu w razie braku odpowiedzi, pełna spowiedź przed Google itp.
Na koniec została najciekawsza prezentacja, którą przedstawił Konstantin Kanin. Dotyczyła ona pozycjonowania w Yandexie i od razu odsyłam do jego strony www.konstantinkanin.com. Yandex to wyszukiwarka regionalna, dlatego trzeba dokładnie przemyśleć, na jaki region kierować swoje działania. Na szczęście są dostępne narzędzia, które pomogą w wyborze i sprawdzeniu jak wyglądają SERPy w różnych regionach. Nie ma więc sensu próbować wypozycjonować się w wynikach globalnych i bardzo ważne jest, aby doboru słów kluczowych, czy też samego tłumaczenia strony i przypisanych do niej fraz, nie oddawać w ręce osoby nie znającej tematu od środka i nie będącej nativem. Co ciekawe, wyszukiwarka ta zwraca uwagę na zachowania użytkowników na stronie, analizując m.in. wskaźnik odrzuceń, czas na stronie, czy też CTR w wynikach wyszukiwania. A co jeszcze ciekawsze, podejście do link buildingu jest skrajnie odmienne od prezentowanego przez Google, tj. jeśli serwis stać na stałe kampanie reklamowe, w tym zdobywanie płatnych linków, to jest to znak, że poważnie podchodzi do biznesu i tym samym zasługuje na wysokie pozycje. No cóż… nas, seowców, zapewne ucieszyłoby podobne podejście ze strony wyszukiwarki, która dominuje na naszym rynku 😉
Podsumowując, konferencja się udała i mam nadzieję, że na kolejną w końcu dotrę 😉 Byłam bardzo ciekawa, jaki będzie jej poziom merytoryczny i nie zawiodłam się. Często czytając angielskie blogi czy książki dziwił mnie zachwyt komentujących nad ogólnikami, które u nas streszcza się w kilku zdaniach i przechodzi od razu do konkretów. Tutaj bardziej ogólne prezentacje przeplatały się ze szczegółowymi case study, jednak nawet z tych pierwszych zawsze można było zanotować coś interesującego. Mimo prezentowania różnych podejść do SEO, w temacie zdobywania linków większość była zgodna co do tego, aby bardziej skupić się na linkowaniu brandowych fraz, a nie tych komercyjnych, szukać mocnych jakościowo stron i… działać z głową.
PS Kiedy jeszcze nie wiedziałam, że będę mogła wziąć udział w SMD sądziłam, że wystarczy mi jeśli przeczytam później szczegółowe relacje ze spotkania, lub przejrzenie udostępnionych później prezentacji (o ile będą publicznie dostępne). Ale naprawdę nie ma porównania czytania czyichś relacji do tego, kiedy można słuchać prelegentów na żywo i wyłapać każdy detal z tego, co mówili.