Jest to kontynuacja moich wpisów o tematyce SEO. Wcześniej opisałem najważniejsze czynniki w SEO wpływające na polepszenie pozycji w wyszukiwarkach, teraz czas na coś zupełnie innego. Zajmiemy się bowiem czynnikami, które mogą przyczynić się do zbanowania naszej domeny (lub w najlepszym przypadku nałożenia filtra na pozycjonowane słowa kluczowe).
Również i ta lista będzie zawierała jedynie podstawowe zakazane techniki SEO, aczkolwiek najważniejsze i najczęściej wychwytywanych przez roboty wyszukiwarek.
Nie jestem specjalistą z zakresu SEO, jednak tak podstawowa wiedza powinna zostać przyswojona przez każdego freelancera, który uczestniczy w tworzeniu kompletnych serwisów (jakiejkolwiek wielkości).
Lista zakazanych technik SEO
-
Cloaking
Jest to technika optymalizacyjna polegająca na serwowaniu różnej treści dla użytkowników i robotów wyszukiwarek. Treść dla wyszukiwarki jest tutaj specjalnie spreparowana (np. zwiększa się natężenie słów kluczowych, optymalizuje się zawartość pod algorytmy robotów wyszukiwarek).
Wykryć robota wyszukiwarki można na kilka sposobów, o czym powstał zapewne niejeden artykuł. Tutaj krótko wypiszę podstawowe sposoby detekcji robota wyszukiwarki:
- IP Agent Cloaking (IP Cloaking) – rozpoznawanie robota wyszukiwarki na podstawie adresu IP (adresy IP robotów wyszukiwarek).
- User Agent Cloaking (UA Cloaking) – polega na rozpoznawaniu robotów wyszukiwarek na podstawie nagłówka HTTP User-Agent.
- IP i User Agent Cloaking (IPUA Cloaking) – zastosowanie obu powyższych metod jednocześnie, celem lepszej detekcji robota wyszukiwarki.
- JavaScript Cloaking – polega na rozpoznawaniu (w JavaScript) czy strona została otworzona przez użytkownika, czy może robota. Jeśli stronę wyświetlił ten pierwszy, część treści może zostać np. schowana.
- Flash Redirection – wykrywanie robotów odbywa się na poziomie zagnieżdżonego pliku flash.
Do głowy przychodzi mi jeszcze kilka pomysłów na wykrycie robota chodzącego po naszej stronie, np. mierzenie czasu przechodzenia pomiędzy poszczególnymi podstronami (robot robi to dużo szybciej niż człowiek). Hybryda kilku rozwiązań mogłaby być całkiem skuteczna w praktyce i trudna do wykrycia przez roboty.
-
Kupowanie linków w farmach oraz linkowanie z „niewłaściwych” stron
Przez „niewłaściwe” mam na myśli tutaj strony pornograficzne oraz pokrewne, zabronione przez Google. Również kupowanie linków jest zabronione. Także korzystanie z SWL nie jest szczególnie lubiane przez wyszukiwarki.
Wcześniej pisałem, że ilość linków prowadzących do naszej strony przekłada się na jej pozycję w wyszukiwarkach. Teraz należałoby dodać, iż linki te nie mogą pochodzić z farm linków, nie mogą być kupowane, kierować ze stron zbanowanych przez Google czy stron pornograficznych. Linki tego typu mogą co najwyżej zaszkodzić.
-
Strony zawierające spam
Jeśli na Twoim serwisie znajduje się sporo spamu to możesz zapomnieć o wysokich pozycjach w SERP-ach. Spam to nic innego jak bezwartościowe, nikomu nie przydatne treści, tj. kopie wiki, kopie katalogów, strony wygenerowane z automatów i inne (służące najczęściej za zaplecze dla innych stron).
Również linki ze spamerskich stron nie są najlepszą formą pozycjonowania. Strony spamujące wcześniej czy później zostaną wykluczone z indeksu przeglądarki (zbanowane), a strony do których linkują mogą zostać ukarane.
-
Niedostępność serwera
Bywa, że Twój serwer od czasu do czasu przestaje działać? Strona się nie wczytuje albo wczytuje zbyt długo? Najprawdopodobniej czas na zmianę hostingu na lepszy.
Otóż częsta niedostępność serwera może doprowadzić do nałożenia filtrów na stronę, a czasem nawet zbanowania domeny.
Nawiasem mówiąc, tak było ostatnio z jednym z moich serwisów – serwer (superhost.pl, nie polecam nikomu) przestał działać na kilkanaście godzin. Później było kilka kolejnych awarii. Po paru dniach moja strona zupełnie znikła z indeksu Google i nie udało mi się jej z powrotem zindeksować. Po ok. miesiącu się poddałem i nie przedłużyłem domeny, nie było warto (ruch z wyszukiwarek stanowił 80% całego ruchu).
-
Ukrywanie tekstu
Kolejną niebezpieczną techniką jest ukrywanie słów kluczowych przed użytkownikiem, natomiast prezentowanie ich robotom wyszukiwarek.
Ukrywać można na wiele różnych sposobów, m. in. przez cloaking, przy pomocy JavaScript, przez zastosowanie CSS (kolor tekstu = kolor tła, tekst pozycjonowany na liczbach ujemnych) czy tekst ukrywany pod innymi warstwami HTML.
-
Nadmierna częstotliwość występowania słów kluczowych
Czasem chcąc dobrze, możemy wyrządzić sobie krzywdę. Mowa tutaj o nadmiernej ilości słów kluczowych, na które się pozycjonujemy. Skutkiem tak nachalnego działania może być kara w postaci nałożenia filtra na dane słowa kluczowe.
Wcześniej wspominałem o częstym umieszczaniu słów kluczowych na stronie, np. w tagu title strony, w nagłówkach Hx czy treści. Musimy jednak pamiętać o odpowiednim natężeniu słów kluczowych (7-8% tekstu).
Do obliczania % natężenia słów kluczowych na stronie stworzono już wiele narzędzi, np. Keyword Density Tool.
Poza nadmiernym natężeniem słów kluczowych na stronie, niekorzystnie wpływa także zbyt częste linkowanie do tego samego adresu. Nie jest to zbyt naturalne linkowanie i może zostać ukarane przez wyszukiwarki.
-
Duża ilość dynamicznych parametrów w adresie URL
Także i dynamiczne strony nie są dobrze przyjmowane przez roboty wyszukiwarek, a przy zbyt dużej ich ilości robot wyszukiwarki może zaprzestać dalszej indeksacji.
Developerzy często przechowują w tablicy $_GET języka PHP mnóstwo informacji – o aktualnie wyświetlanej stronie, o sposobie sortowania, o ilości (np. artykułów) na stronie czy o aktualnej godzinie :-) Zapominają przy tym o zastosowaniu adresów kanonicznych i mamy duplicate content czy inne problemy ze strony wyszukiwarek.
-
Różne domeny linkujące na tym samym serwerze
Czasem wykupujemy kilka różnych domen, tworzymy stronę główną (na której najbardziej nam zależy) oraz kilka zapleczy tematycznych. Wszystko to wrzucamy na jeden serwer i z zapleczy linkujemy do strony głównej. Mimo wszystko strona nadal jest daleko w SERP-ach. Dlaczego?
Otóż wszystko leży w jednym bloku IP – ta sama maszyna fizyczna (nasz serwer) przechowuje wszystkie zawartości naszych domen. Google i inne wyszukiwarki to wykrywają, przez co moc zapleczy znacząco spada i nie przynosi wymiernych korzyści.
Warto w takim przypadku zaopatrzyć się w kilka serwerów, lub mając jeden serwer dokupić dodatkową pulę adresów IP.
Podsumowanie
Niedozwolonych technik pozycjonowania i optymalizacji stron internetowych jest naprawdę wiele, a powyższa lista stanowi tylko nieliczną ich część (choć najistotniejszych i najczęściej wychwytywanych przez wyszukiwarki).
Bywa, że developerzy mogą być nieświadomi powyższych (zakazanych) technik, nieumyślnie je stosując – dlatego powstał taki wpis. W końcu często spotykamy się z sytuacją, w której musimy ukryć znaczne ilości tekstu (w różnego rodzaju sliderach i tabach), wyświetlając je dopiero w interakcji z użytkownikiem.
Niestety techniki takie mogą nie zostać dobrze przyjęte przez algorytmy robotów wyszukiwarek i trzeba starać się zapobiegać takim sytuacjom.
Warto jeszcze wspomnieć o czasie ładowania się strony, który jest brany pod uwagę w Google. Im ten czas krótszy, tym wyżej strona znajdzie się w indeksie. Aby zapewnić jak najkrótszy czas ładowania się strony, należy stosować cache generowany nie na żądanie (czyli podczas requestu), a generowany z automatu (np. w cronie).
To prawda, choć tego właśnie też dotyczył ptk. 4 „Niedostępność serwera” :-) Ale dobrze, że wyraźnie to zaznaczyłeś – ostatnio coraz więcej mówi się o wpływie szybkości ładowania strony na pozycję w indeksie.
Przypuszczam, że czynnik ten będzie miał jeszcze większe znaczenie w przypadku większej ekspansji rynku przez mobile – tam liczy się każdy kilobajt, więc pewnie Google będzie premiować takie witryny.
To się nazywa „poprawność polityczna”. Do każdego z punktów podam Ci tysiące, jak nie setki tysięcy stron które to robią i są wysoko :).
@shypo: wiem wiem, SEO to dziwka :D nie lubię tego biznesu, ale staram się choć podstawy ogarnąć. A myślę, że ten artykuł (po przeglądnięciu kilka różnych źródeł, głównie SEOmoz) jest zbiorem takich podstaw z zakresu „czego nie robić, bo może zaboleć”.
Przede wszystkim trochę pomieszałeś w tej liście – np. umieszczenie obok cloakingu zbyt dużej ilości parametrów w URLu to jest nieporozumienie. O ile pierwszą rzecz można (ale też nie zawsze!) do „technik niedozwolonych” za którą można zostać ukaranym, tak niezoptymalizowanego URLa już nie.
Druga sprawa – nawet jesli ograniczymy się do technik niedozwolonych, to z nimi sprawa też nie jest oczywista. One właśnie są (czy były) efektywne, tyle że ryzykowne – dobrze pasuje tutaj dzisiejsze tłumaczenie z SeoMoza na http://www.sprawnymarketing.pl/artykuly/black-hat-nie-jest-nieetyczne/
@Paweł: subskrybuję Sprawny Marketing, także już czytałem wcześniej :-) Black hat seo można wykorzystywać, ale dla zapleczówek czy mniej istotnych stron – nie zaryzykowałbym stosowania tego typu technik dla serwisów, na których zarabiam.
Z tymi parametrami to chodzi tutaj głównie o DC, by ustrzec się przed kopiowaniem treści. Np:
– strona.pl/artykuly/?order=date
– strona.pl/artykuly/?order=title
– strona.pl/artykuly/?order=comments
– strona.pl/artykuly/?limit=10
– strona.pl/artykuly/?limit=20
– strona.pl/artykuly/?limit=50
I na każdej stronie ta sama treść, tylko w innym układzie…
Ciekawy artykuł, aczkolwiek z tego, co widzę, wszystkie wymienione metody wymagają dodatkowego nakładu pracy programisty. Chociażby z tego powodu (KISS), są niepolecane. ;]
Kamil. Napisałeś w artykule że nie mogłeś przywrócić strony do indeksu. A czy tak samo się dzieje z podstronami ? czy można przywrócić podstronę do indeksu która z niego wyleciała ? Czy lepiej stworzyć nową podstronę o tej samej treści. Jak to w ogóle działa ?
@merlin5000: to zależy czy dostałeś bana, filtr, a może tylko pingwin czy inny filtr wywalił Cię na koniec SERPów. Zależy też czy podstrona, która wyleciała jest bardzo wartościowa i była wcześniej naturalnie pozycjonowana. Czasem warto walczyć i poszukać przyczyn spadków pozycji, czasem lepiej po prostu zmienić adres/olać problem – w moim przypadku po prostu odpuściłem.