Przyrost linków wraz z upływem czasu

Przyrost linków wraz z upływem czasu

Każda strona internetowa z założenia musi przejść przez kilka etapów — począwszy od jej powstania, do czasu uzyskania pierwszych wejść z wyszukiwarki. Jeżeli zbudujemy ciekawą stronę, wstawimy ją na serwer, usiądziemy i z założonymi rękami będziemy czekać na pierwszych gości, prędzej zapuścimy korzenie, niż ktoś nas odwiedzi. Aby zaistnieć w indeksie wyszukiwarki, musimy zdobyć odnośniki prowadzące do naszej strony.

Pierwszy etap zdobywania linków to zazwyczaj dodanie strony do katalogów stron internetowych. Podczas odwiedzin strony katalogu robot wyszukiwarki napotka nasz adres i sprawdzi go, a następnie doda do bazy.

Przy zdobywaniu odnośników obowiązuje prosta zasada, zgodnie z którą im więcej linków, tym lepiej, ponieważ roboty szybciej do nas trafią. Niestety, obecnie obowiązuje również zasada, zgodnie z którą należy zdobywać linki z rozwagą.

Jeżeli dodamy stronę zaledwie do kilku katalogów, które są odwiedzane przez roboty raz w miesiącu, to możemy czekać cały miesiąc na indeksację naszej witryny. Dlatego pewnie natychmiast zaświta nam myśl, aby dodać stronę do kilkuset katalogów albo nawet kilku tysięcy. Ponadto jeżeli mamy punkty w systemach wymiany linków i dodamy tam stronę, to zwiększymy prawdopodobieństwo odwiedzin przez robota wyszukiwarek. Możemy jeszcze odwiedzić kilka tysięcy ksiąg gości i kilkaset razy zarejestrować się na różnych forach internetowych, gdzie pochwalimy się swoją stroną. Za pomocą odpowiednich programów możemy zdobyć tysiące linków w kilka godzin po stworzeniu strony internetowej. Przy takiej liczbie odsyłaczy jest więcej niż pewne, że nasza strona zostanie zindeksowana w krótkim czasie, a z pewną dozą szczęścia nawet w kilka lub kilkanaście godzin.

Jednak w praktyce sytuacja nie przedstawia się tak kolorowo, a zdobywanie odnośników to proces wymagający czasu i rozwagi. W tym momencie należy wrócić do etapów, które są naturalne dla większości stron internetowych. Jak pisaliśmy wcześniej, algorytmy nowoczesnych wyszukiwarek są oparte na naturalnym linkowaniu, gdzie link prowadzący do danej strony jest głosem oddanym na jej rzecz. Logiczne jest, że naturalnych linków nie może być od razu parę setek czy tysięcy. Każda strona musi przejść przez swoje etapy rozwoju, począwszy od kilku katalogów, do naturalnych linków na blogach, forach czy innych stronach internetowych.

Oczywiście zdarzają się wyjątki. Doskonały przykład stanowi tutaj strona pewnego polskiego polityka, o haśle „kretyn”. Akcja ta została opisana przez jedną z największych polskich gazet, dzięki czemu jednego dnia pojawiło się kilka tysięcy odnośników do strony. Ludzie znudzeni beznadziejną sytuacją panującą wśród rządzących postanowili dać upust swojej dezaprobacie i samodzielnie zaczęli przyłączać się do akcji przez dodawanie odpowiednich odwołań na swoich stronach. Uzyskane w ten sposób linki były idealne, pochodziły z różnych adresów IP i miały bardzo zróżnicowane opisy, w związku z czym spełniały wszystkie wymogi naturalnego odsyłacza. Strona nie została ukarana i wyniki akcji były dostępne przez kilkanaście miesięcy. Dopiero na początku 2007 roku Google usunął stronę z rankingu.

Stwierdzenie, że zbyt duża liczba linków może mieć negatywne skutki, budzi wiele kontrowersji. Podobnie jest z teorią, która głosi, że strona może być ukarana za linki ze złego otoczenia (z ang. bad neighbourhood). Powodem tych kontrowersji jest fakt, że nie możemy mieć kontroli nad tym, kto się do nas odwołuje. Na przykład przedstawiciele wyszukiwarki Google cały czas twierdzą, że strony nie są karane za coś, nad czym ich właściciel nie może zapanować. Nie sposób nie zgodzić się z tym założeniem. Gdyby przestawione powyżej teorie były prawdziwe, to pozycjonowanie już dawno skupiłoby się na tworzeniu „złych” stron i umieszczaniu na nich odwołań do konkurencji lub nagłym dodawaniu wielu odsyłaczy, aby w ten sposób pozbyć się konkurentów.

Oczywiste jest, że wyszukiwarki nie mogą pozwolić, aby można było niszczyć konkurencję w taki sposób, więc większość twierdzeń, że strona spadła w wynikach lub wyleciała z indeksu z powodu nagłego przyrostu linków, jest nieprawdziwa. Z testów dotyczących szybkiego wzrostu linków można wyciągnąć wnioski, że strona w takim przypadku nie jest karana, lecz linki zdobyte w krótkim okresie (zazwyczaj z takim samym opisem) i w dużej liczbie po prostu nie są liczone na rzecz strony docelowej. Przypadłość nosi nazwę sandbox, czyli piaskownica. W uproszczeniu działanie piaskownicy polega na tym, że linki są umieszczane w takiej wirtualnej piaskownicy, aby nabrały jakiejś wartości. Okres spędzony w piaskownicy może trwać od 3 miesięcy nawet do roku. Jeżeli po okresie przebywania w piaskownicy linki w dalszym ciągu są dostępne, to prawdopodobnie dadzą one moc pozycjonowania stronie docelowej. Warto jednak nadmienić, że w okresie tym linki często znikają. Sytuacja taka ma miejsce bardzo często, a przyczyną tego stanu rzeczy jest ogromna popularność systemów do wymiany linków.

Musimy również pamiętać, że algorytmy wyszukiwarek biorą pod uwagę setki, jeśli nic tysiące czynników w celu ustalenia wyników wyszukiwania na dane hasło. Czynników związanych z linkami jest na pewno więcej, niż opisaliśmy, a o wielu z nich osoby postronne (niezwiązane bezpośrednio z pracami nad algorytmem wyszukiwarki) nie mają pojęcia.

Często możemy się spotkać z wypowiedziami ludzi, których strony stosunkowo szybko zajmowały wysokie miejsca w wynikach wyszukiwania, a po dodaniu dużej liczby linków spadły z tych pozycji. Wytłumaczeniem tego zjawiska jest tzw fresh site bonus (FSB). Chodzi o to, że nowa strona dostaje stosunkowo szybko dobre miejsce w rankingu na krótki czas, a następnie spada na pozycję, która jest odpowiednia według algorytmu. Należy tutaj zauważyć, że właściciele stron widzą, jak ich witryny pną się w górę po drabinie wyników, i pracują nad tym, aby pozycja była jeszcze wyższa — zdobywają nowe linki. W trakcie takiego działania bardzo łatwo można przekroczyć granicę i przesadzić z liczbą nowych odsyłaczy z takim samym opisem, co owocuje wpadnięciem linków do piaskownicy. Następnie mija okres zwany FSB, strona spada, a mozolnie zdobyte odsyłacze „leżakują” w piaskownicy i są chwilowo bezużyteczne.

Jeżeli nie mamy liczących się stałych odsyłaczy, które dają nam wysoką pozycję dla różnych słów kluczowych, to zdarza się, że do piaskownicy wpadają wszystkie nasze linki, a wtedy wydaje nam się, że strona została ukarana na wszelkie możliwe frazy. To jednak tylko złudzenie, ponieważ po prostu nie mieliśmy żadnych linków, które by nam dawały pozycje na różne frazy.

Dlaczego w takim razie strona, o której pisaliśmy nieco wcześniej (sejmowa strona pewnego polityka i hasło „kretyn”), nie odczula negatywnych skutków dużej liczby linków? Na pewno jest wiele czynników, o których nie wiemy, ale nie bez znaczenia pozostaje fakt, że strona nie była nowa i działała na trudno dostępnej rządowej domenie ,gov. Poza tym do tej strony już wcześniej prowadziło wiele linków z różnymi opisami. Można uznać, że strona była dobrze osadzona w indeksie i miała swój autorytet.

Określenie sandbox jest przez wiele osób nadużywane i czytając o nim w sieci, prędzej można skołowacieć, niż zrozumieć, na czym polega działanie tego filtra. Przedstawiony powyżej opis tego zjawiska jest, w naszym przekonaniu, prawdziwy, co nie oznacza, że wiele osób się z nim zgodzi.