7 przydatnych darmowych narzędzi SEO

Każdy z nas na co dzień korzysta ze stałego zestawu narzędzi SEO. Ja w dzisiejszym wpisie chcę zaprezentować kilka spośród tych dostępnych online – nie kombajnów, tylko małych narzędzi skupionych na jednej konkretnej funkcjonalności. Zachęcam również Was do dzielenia się informacjami o innych softach, które polecacie.

  1. Bulk HTTP Status & Redirect Checker

Narzędzie dostępne pod adresem www.urlitor.com pozwala na masowe odpytanie o nagłówki HTTP listy adresów, które do niego wprowadzimy, a w przypadku wykrycia przekierowań zwróci nam ich pełną ścieżkę. Wykorzystuję je często do odpytania o podstrony zaindeksowane w Google, dzięki czemu mogę szybko sprawdzić, gdzie wprowadzić poprawki.

Aby z niego skorzystać, należy przejść na stronę www.urlitor.com i w polu wyszukiwania wkleić max 150 adresów do sprawdzenia. Może to być lista pobrana z Google, lista podstron wyeksportowanych z Google Analytics, z narzędzia do analizy backlinków (np. Majestic) albo bezpośrednio z mapy strony. Poniżej znajduje się przykład dla domeny seostation.pl, na której w ostatnim czasie uległa zmianie struktura adresów URL na blogu.

Bulk HTTP Status and Redirect Checker

Wyniki skanu

Jak widać, tam gdzie narzędzie trafiło na przekierowanie, można rozwinąć pełną ścieżkę przez kliknięcie w plusik w kolumnie „# of Redirects”. To, co powinno nas jednak interesować bardziej, to podstrony z nagłówkami innymi niż 200 albo 301, czyli głównie 404, które należy odpowiednio przekierować.

Pełny raport można wyeksportować m.in. do pliku CSV i tam na nim wygodnie pracować.

2. HTTP/HTTPS Header Check

Narzędzie www.webconfs.com/http-header-check.php jest podobne do opisanego już, ale podające bardziej szczegółowe dane i umożliwiające odpytanie tylko o 1 adres URL.

Oto wynik sprawdzania:

Header check

3. Rozszerzenie Scraper do Google Chrome

Wspomniałam wcześniej o odpytywaniu pierwszego z wymienionych narzędzi o zaindeksowane podstrony. Te w bardzo łatwy i szybki sposób można wyciągnąć za pomocą rozszerzenia do Google Chrome o nazwie Scraper. Wystarczy ustawić w Google wyświetlanie po 100 wyników per strona, a następnie wpisać interesującą nas komendę. Dodam, że Google od pewnego czasu mocno ogranicza ilość danych wyświetlanych dla komendy site, dlatego czasem lepiej jest odpytywać o bardziej szczegółowe komendy, np. site:lexy.com.pl inurl:.html niż po prostu o site:lexy.com.pl który może zwrócić mniej wyników. Aby to zweryfikować, najłatwiej jest wybrać dość nietypowe adresy podstron do sprawdzenia, np. te ze starej struktury adresów URL. Najpierw sprawdzamy wszystkie podstrony samym site’m, a potem doprecyzowujemy komendę dopisując do niej fragment adresu – w drugim przypadku powinniśmy uzyskać więcej wyników.

No dobrze, jak zatem wyeksportować z Google listę zaindeksowanych podstron? Wpisujemy komendę i mając włączone rozszerzenie Scraper klikamy np. na podlinkowany tytuł strony (klikając na adres, niektóre z nich – te dłuższe – mogą być ucięte i w rezultacie ich analiza niewiele nam da) prawym przyciskiem myszki i wybieramy „Scrape similar„. To pozwoli na wylistowanie tego samego elementu (w tym przypadku tytułu) ze wszystkich wyświetlonych wyników.

Scraper

Otrzymujemy wynik w następującej postaci, który również możemy wyeksportować i zapisać w osobnym pliku.

Wyniki Scrapera

Aby tak wygenerowaną listę podstron wrzucić do HTTP Status & Redirect Checkera, wystarczy wkleić adresy z drugiej kolumny raportu.

4 i 5. Narzędzia zgłaszania stron do Google

Dostępne są 2 narzędzia zgłaszania stron do indeksu Google. Pierwsze z nich jest dostępne dla zewnętrznych osób, które nie muszą być powiązane ze zgłaszaną stroną. Znajduje się ono pod adresem www.google.com/webmasters/tools/submit-url – tak, to właśnie te narzędzie, które istnieje od lat i które już wiele lat temu było uważane za nieskuteczne, a teraz wygląda na to, że działa na takich zasadach jak drugie, o którym za chwilę napiszę.

Zgłaszanie strony do Google

Warto przetestować szybkość działania tej metody, ponieważ z moich obserwacji wynika, że indeksacja jest możliwa dosłownie w ciągu kilku sekund. Oczywiście takie zgłoszenie nie zapewnia nam stałej indeksacji, ponieważ strona może jeszcze wiele razy wypadać i wracać do Google. Pamiętajmy również, że inaczej zachowa się strona zaindeksowana dzięki trafieniu na nią za pośrednictwem linka, który przy okazji przekaże jej moc, a inaczej jeśli wysyłamy robota Google w ten właśnie sposób.

Kolejny sposób jest dostępny dla zweryfikowanych właścicieli, dlatego wymagany w tym przypadku będzie dostęp do panelu Search Console wybranego serwisu. Interesować nas będzie zakładka Indeksowanie -> Pobierz jako Google, w której należy wpisać adres zgłaszanej strony, poczekać na sprawdzenie jej stanu, a następnie kliknąć przycisk „Poproś o zaindeksowanie„.

Pobierz jako Google

Przesyłanie strony do indeksu

Do wyboru wyświetlą się 2 opcje:

  • Indeksuj tylko ten adres URL – miesięczny limit ilości podstron przesyłanych w ten sposób do  indeksu to 500;
  • Indeksuj ten adres URL i jego linki bezpośrednie – tu limit miesięczny wynosi zaledwie 10.

Warto już w momencie wpisywania adresu w narzędziu „Pobierz jako Google” odpalić logi serwera i sprawdzić, w którym dokładnie momencie Googlebot zawita na naszą stronę. Dodam, że nie zawsze czas pierwszej wizyty jest identyczny z czasem indeksacji danej strony. To, co zwróci naszą uwagę, to plik, do którego robot Google zagląda w pierwszej kolejności – będzie to plik robots.txt „mówiący” robotom, do jakich sekcji strony mogą, a do jakich nie mogą zaglądać.

6 i 7. Narzędzie do usuwania wyników z Google

Tutaj też mamy do wyboru 2 opcje. Pierwsze z narzędzi jest dostępne dla osób niepowiązanych ze zgłaszaną stroną, a znajduje się ono pod adresem https://www.google.com/webmasters/tools/removals Nie będzie ono skuteczne dla każdego zgłoszenia, a jedynie dla tych, dla których:

  • zmianie uległa zawartość strony, a my zgłaszamy w zasadzie nie prośbę o jej usunięcie, ale o jej uaktualnienie – można z tego skorzystać np. w przypadku, gdy usunęliśmy naszą zawartość z cudzej strony albo poprosiliśmy jej właściciela o zmianę lub usunięcie naszych danych. W takim przypadku zgłoszenie będzie skutkowało tym, że kopia ulegnie zmianie i znikną z niej stare dane, a tym samym wynik przestanie się wyświetlać w Google dla dawnej zawartości;
  • strona została usunięta przez jej właściciela, ale jej kopia nadal znajduje się w Google – wtedy zgłoszenie będzie skutkować usunięciem wyniku z Google.

Usuwanie nieaktualnej treści

Zwróćmy uwagę na to, że Google zapisuje na podstronie www.google.com/webmasters/tools/removals wszystkie nasze zgłoszenia. Na podobnej zasadzie może gdzieś zapisywać (ale nie wyświetlać) adresy stron, które zgłosiliśmy do Google korzystając z narzędzia dodawania ich do Google przez osoby niepowiązane ze stroną. Tym samym należy z nich korzystać ostrożnie, jeśli nie chcemy, aby Google powiązało wiele naszych stron (np. zapleczowych) z naszymi kontami.

Ostatnie z opisywanych narzędzi jest dostępne z poziomu Search Console, a zatem mogą z niego skorzystać osoby z dostępem do panelu. Można przejść od razu na stronę www.google.com/webmasters/tools/url-removal i z jej poziomu wybrać serwis.

Usuwanie treści

Teoretycznie bez zastosowania 404 albo noindex, wyniki zostaną usunięte tymczasowo i w każdej chwili mogą wrócić do indeksu. W praktyce jednak nie zauważyłam tego. Warto zwrócić uwagę na opcje dostępne w kolejnym kroku, wśród których istnieje m.in. możliwość ukrycia w indeksie całego katalogu, a nie tylko konkretnej podstrony.

A z jakich Wy korzystacie narzędzi?

 

 

KATEGORIE: Narzędzia SEO
Komentarze (35)

Każda funkcja jest przydatna. Podoba mi się zwłaszcza 6 jako zgłaszanie aktualizacji. A co do samych narzędzi to ostatnio listę 33 opublikowało semahead http://semahead.pl/blog/33-darmowe-narzedzia-wspomagajace-dzialania-seo.html

A propos narzędzi do zwracania statusów kodów odpowiedzi. Próbowałem wykorzystywać wiele narzędzi udostępnionych online. Różne narzędzia potrafiły zwracać inne kody dla tych samych URLi. Najczęściej błędnie interpretowane były przekierowania 301 i 302. Jedno narzędzie pokazywało, że URL zwraca odpowiedź 301 a drugie, że 302. W końcu zleciłem oprogramowanie autorskiego narzędzia. Jak do tej pory narzędzie to nie pomyliło się. W najbliższym czasie udostępnię to narzędzie publicznie, aby można było z niego skorzystać. Wtedy podeślę do niego linka.

Całą powyższą listę, która z pewnością przyda się każdej osobie rozpoczynającej swoją przygodę z SEO/SEM, uzupełnię o kolejne dwa – zupełnie podstawowe – rozszerzenia do Chrome:
– External Followed Link Highlighter jest rozszerzeniem podświetlającym linki wychodzące na zewnątrz, które nie zostały opatrzone atrybutem nofollow, co z pewnością ułatwia analizę strony,
– SEOQuake z kolei prezentuje nam informacje dotyczące indeksacji danej domeny w różnych wyszukiwarkach oraz ma możliwość masowego sprawdzenia i porównania tych danych dla różnych adresów domen. W ustawieniach można zaznaczyć, aby linki nofollow znajdujące się na stronie były przekreślane, co również pomaga w analizie, a panel narzędzia (seobar wyświetlany na samej górze przeglądarki) zawiera sporo skrótów, np. do szybkiego sprawdzenia wyników dla zapytania site: czy do bezpośrednich wyników z web.archive.org dla konkretnej domeny.

Wskazane dodatki nie są absolutnym must have, ale z pewnością ułatwiają/uprzyjemniają prace nad stroną, więc fajnie uzupełniają listę zaproponowaną przez Lexy.

Jestem zwolennikiem czystego SEO bez zbędnych narzędzi, niemniej jednak dzięki za opisy

Do listy można też dodać darmowe narzędzie web archive do sprawdzania historii domeny, przydatne szczególnie jeśli jesteśmy zainteresowani kupnem/zmianą domeny lub też w przypadku sprawdzenia domeny klienta.

A nie ma narzędzi do pingowania i sprawdzania zaindeksowania treści?

Ahm, te narzędzia, nie ma to ja stare, dobre Google search Console 😛
Ale wyniosłem przynajmniej z tekstu jak bezpiecznie ukryć niektóre linki przed Google.

A po co narzędzia? Nigdy bym nie zatrudnił specjalisty SEO bez znajomości podstaw programowania: JS, CSS, HTML, PHP, bash, Python.

Pierwsze 2 narzędzia jakie opisujesz można zastąpić jedną komendą:

daniel@dell:~/temp > curl -I http://www.lexy.com.pl 2>/dev/null | head -n 1 | cut -d$’ ‚ -f2
200
daniel@dell:~/temp > curl -I http://lexy.com.pl 2>/dev/null | head -n 1 | cut -d$’ ‚ -f2
301

Plus do tego zebrane URLe w pliku tekstowym, 1 per linia, potem read z pliku linia po linii zapisanie jako CSV i raporcik gotowy 😀

Bardzo dobry artykuł, mi jako początkującemu w tym temacie na pewno sie przyda. Te narzędzia wydają się być bardzo przydatne podczas pozycjonowania i na pewno będę z nich korzystał

Dla mnie najważniejsza jest możliwość z Google serach consol, bo dzięki niej mogę stronę szybko zaindagować w google

Warto też wspomnieć o narzędziach jakie oferuje np. Google w panelu dla webmasterów oraz Google PageSpeed Insights https://developers.google.com/speed/pagespeed/insights/ , także Bing w panelu do webmasterów ma też przydatne do pozycjonowanie narzędzia + polecam do sprawdzania wydajności strony bo szybkość wczytywania też jest kluczowa https://gtmetrix.com

Scraper wydaje się być bardzo ciekawy, dziwne, że to tej pory nie był mi znany 🙂

Ciekawe zestawienie, scraper definitywnie do przetestowania:)

Dzięki za porady – właśnie czegoś takiego było mi trzeba!

Miałem okazję pozycjonowania jakiś czas temu paru nowych stron, z których jedna z uporem maniaka nie chciała się zaindeksować w „Patrzałkach”. Spróbuję skorzystać z porad z punktu „Narzędzia zgłaszania stron do Google”. 🙂

Pozdrawiam serdecznie!

cześć Marta , dzięki za te narzędzia .. zaraz zabieram się , za sprawdzenia wstyd się przyznać ale niektórych nie znałem

Muszę zapoznać się z narzędziami google.

Każdego dnia robię ci trochę ruchu, bo google ma tak mało przyjazne własne linki, że aby skorzystać z narzędzia do dowania stron najpierw wchodzę na stronę lexy i dopiero google submit url 🙂

Ja też albo wchodzę do tego wpisu, albo googluję "google add url" lub coś w tym stylu 😉

Od siebie dodam jeszcze Screaming Frog, jako bardzo fajne narzędzie do analizowania mniejszych stron internetowych (przy większej ilości podstron musimy wykupić pakiet). Osobiście bardzo często z niego korzystam i naprawdę pomaga, zwłaszcza w szybkiej analizie strony.

Najczęściej zdecydowanie korzystam z google add URL

Search Console jest niezbędne według mnie. Czasem nawet lepsze niż duża ilość płatnych narządzi do SEO.

[…] sprawdzić, warto skorzystać np. z dodatku Scraper do Google Chrome, który opisałam w 3. punkcie zestawienia ciekawych narzędzi. Pozwoli on nam wyeksportować listę zaindeksowanych adresów, którą następnie sprawdzimy w […]

Z ciekawych narzędzi Google można zaliczyć jeszcze:

Interesującym narzędziem jest również http://answerthepublic.com do wskazania sugestii Google. Nie zawsze jednak działa w języku polskim, także trzeba brać na to poprawkę.

http://www.screamingfrog.co.uk – nieograniczone możliwości (niedziałające linki, przekierowania, duplikaty, tytuły, meta, własne crawly) darmowa wersja ograniczona do skanowania tylko 500 url, ale mimo wszystko warto używać dla mniejszych stron.

https://goo.gl – do skracania linków, pomaga w szybszej indeksacji

https://www.google.com/webmasters/tools/spamreport – zgłoszenie stron stosujących złe praktyki

https://adwords.google.com/home/tools/keyword-planner/ – nieodzowne narzędzie do pracy ze słowami kluczowymi

Warto jeszcze rzucić okiem na tę listę – https://www.emarketing.pl/narzedzia/darmowe-narzedzia-seo/
Z pewnością każdy znajdzie coś dla siebie 🙂

Fajna lista 🙂 jest jeszcze kilka innych ciekawych takich jak HTTP Status CodeChecker, HreflangTestingTool czy serp.watch do monitoringu zmian w algorytmie przydatnych do codziennej pracy seowca 🙂

Bardzo fajny artykuł, dzięki za podzielenie się narzędziami, które wykorzystamy w swojej pracy.

Świetne porady i wskazówki. Muszę bliżej zapoznać się z tymi narzędzami. Z pewnością okażą się bardzo przydatne.

Od jakiegoś czasu dość intensywnie korzystam z Search Console dla kilku stron i muszę przyznać, że to działa, zarówno indeksowanie, jak i usuwanie stron z wyników wyszukiwania. Przy tym pierwszym rezultat mam zwykle po kilku minutach. Usunięcie stron trwa dłużej, ale do tej pory skuteczność jest 100%. Urlitor nie znałem wcześniej, a możliwość sprawdzenia poprawności przekierowania jest przydatna.

Często korzystam z narzędzia do usuwania treści z wyników googla. Bez tego strasznie długo zajmuje poprawa linków i ich wyników pod nowym adresem strony.

A czy ktoś zna może jakąś alternatywę dla Scraper'a do Chroma tylko że na Firefoxa? Nie wiem dlaczego ale jakoś nie mogę przekonać się do używania googlowskiej przeglądarki.

Fajna lista, natomiast brakuję tutaj screamingfrog i narzędzi darmowych od Google, aczkolwiek z chęcią przetestuję te które są uwzględnione tutaj.

Witajcie, na wstępie powiem, że jestem blada w temacie o który pytam.
Otóż w google search console monitoruję 3 wersje jednej strony – z www, bez i z https – dane na każdej się różnią ale to ponoć normalne, a jedna z nich jest ustawiona jako główna.
Natomiast w zakładce stan indeksowania widzę, że zaindeksowano 0 stron, a w statystykach indeksowania są już wykresy pokazujące , że chyba googlebot był a w szczytowym momencie na wykresie widnieje 424 stron zaindeksowanych, wykonując komendę site: widzę 85 wyników, choć jeszcze wczoraj było ich 560.
Dodam jeszcze ,że mam problem z sitemap – sklep mam na home.pl i sitemap brałam przygotowany przez nich w moim panelu administracyjnym. – wprowadzając go w GSC otrzymałam mnóstwo błędów :
Ten adres URL jest niedozwolony dla mapy witryny w tej lokalizacji. – widzę , że adres pokazany obok to ten, na którym strona była widoczna zanim zakupiłem domenę. Pomoc home nie potrafi pomóc uważają ze sitemap jest ok, i chcieli wejść do mojego GSC żeby szukać winy po tej stronie. ponadto jest klika błędów o braku w tagu xml.

Proszę o pomoc w znalezieniu odpowiedzi na moje problemy związane z sitemap, czy te błędy mają wpływ na indeksowanie? czy lepiej wykasować ten sitemap? i o co chodzi z tymi różnicami w indeksowaniu?
Lexy Twój blog jest świetny – rozjaśnia temat takim szaraczkom jak ja

Dość ciekawie opisane chociaż narzędzi przydatnych do pozycjonowania jest o wiele więcej niż tylko 7.
Pozdrawiam

Natknąłem się na ten artykuł przez przypadek ale dla mnie jako osoby początkującej, muszę przyznać, że jest on bardzo ciekawy i przydatny

Dziękuję za ciekawy artykuł. Wiedza jaka została przekazana będzie wykorzystana praktyce. Szczególnie zainteresował mnie scraper, na pewno to narzędzie zostanie przez mnie przetestowane.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Copyright 2017 Lexy's SEO blog. All Right Reserved.