Jakiś czas temu pisałam o tym, jak przez swój błąd wszystkie subdomeny jednej z moich domen wyleciały z indeksu. Ponieważ miałam małe zamieszanie z ustawieniami niektórych stron (np. przekierowania 302 zamiast 301 itp.), poprawiłam wszystko co się dało i zgłosiłam stronę do ponownego rozpatrzenia. Ku mojemu zdziwieniu dowiedziałam się, że strona jest niezgodna z wytycznymi.
Szczerze mówiąc nie miałam pojęcia, co mam w ogóle poprawić. Postanowiłam wyindeksować jedyną z subdomen, do której można było się na upartego przyczepić jeśli chodzi o jej ubogą zawartość i zostawiłam tylko 2 subdomeny:
- www.migrena.4info.org
- www.depresja.4info.org
Żeby już kompletnie nie było się do czego przyczepić, do tych mniej tematycznych linków dodałam nofollow. Dzisiaj ponownie dostałam wiadomość informującą o tym, że „witryna jest niezgodna ze wskazówkami jakościowymi Google”.
Treści na obu stronach są unikalne i autorskie – o migrenie pisałam sama na podstawie swoich doświadczeń z tą dolegliwością (dlatego to do tej strony jestem bardziej przywiązana i głównie w jej sprawie wysyłam zgłoszenia), a na temat depresji teksty pisała koleżanka. W szczególności strona o migrenie cieszyła się dużym zainteresowaniem – pojawiały się oferty współpracy, podziękowania za porady od innych osób cierpiących na migrenę, generalnie to właśnie z tej strony dostawałam najwięcej maili z pochwałami, a momentami miałam wrażenie, jakby myśleli, że piszą do lekarza specjalisty zajmującego się migreną 😉
Co do linków na obu stronach, generowały od 20 do 70 kliknięć dziennie. Największą klikalność miał odnośnik do forum wstawiony po tym, kiedy użytkownicy zasugerowali mi otwarcie forum dla tej strony, a ja stwierdziłam, że najlepiej będzie odesłać do odpowiedniego tematu na istniejącej już grupie dyskusyjnej. Czas spędzony na podlinkowanych stronach i wskaźnik odrzuceń również nie wskazywały na to, aby linki te okazały się nie być zbyt przydatne. Skoro więc użytkownicy docelowi byli zadowoleni z tych stron, to czemu Google nie jest?
Macie jakieś pomysły co do tego, którą z wytycznych strony te mogą naruszać? Nigdy wcześniej nie miałam sytuacji, w której nie wiedziałabym albo nawet nie podejrzewałabym, za co strona mogła dostać filtra lub bana. Od ostatniego zgłoszenia, które zostało rozpatrzone negatywnie, nie zmieniałam na stronie nic oprócz usunięcia z robots.txt domeny 4info.org blokady przed robotami i jej zamiany na noindex. Widzicie więc strony w identycznej formie, w jakiej mają nałożone kary.
Aktualizacja:
Temat ten poruszyłam także na forum Google i wypowiedział się w nim m.in. Guglarz odsyłając do tego wpisu.
Sugeruje to, że przechwyciłam tę domenę i po jej odkupieniu nie zapewniłam na niej treści o wystarczająco wysokiej jakości. Przypominam, że użytkownicy docelowi siedzący w temacie uważają je za przydatne, a inne serwisy ją ode mnie kopiują (także z podaniem źródła, przez co nie powinno być problemów z rozpoznaniem oryginału od kopii). Poza tym, nie jest to przechwycona domena (chociaż w dniu publikacji tego wpisu dowiedziałam się, że była używana 5 i 6 lat wcześniej). No ale Google wie lepiej 😉
W pozostałych postach forumowicze pisali, że domena mogła oberwać za to, co dawno temu trzymałam w subdomenach (m.in. precel i katalog) i że właśnie to zepsuło jej historię. Z drugiej strony, już przy pierwszym banie pisałam o tym w zgłoszeniu i poinformowałam o naniesieniu odpowiednich zmian (m.in. dodaniu metataga noindex w katalogu stron, a co do precla to został usunięty tak dawno, że zdążyłam o nim zapomnieć) i wtedy zgłoszenie nie zostało odrzucone, więc czemu znowu wracamy do punktu wyjścia?
Jaki z tego wniosek na przyszłość? Nie tracić czasu i nie bawić się w dostosowywanie stron pod wytyczne, bo jak ktoś się uprze to i tak coś znajdzie.