niedostępność

Niedostępność sklepu internetowego – po jakim czasie spadną pozycje w Google

Właściciele sklepów internetowych często pytają o kwestie niedostępności i konsekwencje z tego wynikające. Nie tak dawno po raz kolejny spotkałem się z tym pytaniem: Po jakim czasie niedostępności sklepu wynikającego z awarii serwera mogą spaść pozycje w Google. Aby przybliżyć odrobinę ten temat postanowiłem opublikować swoją odpowiedź na SocialTrends. Czy kilkunasto-godzinna niedostępność sklepu może być powodem do zmartwień? Zdecydowanie tak!

Niedostępność serwera – uszczerbek dla Twojego biznesu

Czas, po którym Google wyindeksuje stronę lub obniży jej pozycje w wynikach wyszukiwania zależy od kilku czynników. Z mojego dotychczasowego doświadczenia w projektach e-commerce mogę powiedzieć, że czynnikami o największym znaczeniu są: jak długo nasz sklep internetowy był niedostępny oraz jak często w trakcie niedostępności sklep był/jest odwiedzany przez Google bota. Te dwa elementy są punktem wyjściowym do wszelkich dalszych oszacowań.

Od czego zależy częstotliwość odwiedzin Google bota na stronie?

[1] Od liczby linków przychodzących i jakości miejsc na których znajdują się – jeżeli sklep jest lepiej podlinkowany tj. prowadzi do niego więcej odnośników, w dodatku z miejsc które wykazują wysoką odwiedzalność przez Google bota (na przykład serwisy z newsami), częstotliwość odwiedzin Google bota wyraźnie wzrasta.

[2] Od ustawień prędkości indeksowania w Google Search Console – każdy właściciel sklepu może zdecydować, jak często jego stronę ma odwiedzać Google bot. W przypadku problemów z wydajnością serwera, można zdecydować się obniżyć częstotliwość indeksowania zaznaczając opcję: Ogranicz maksymalną szybkość indeksowania Google.

Ustawienia witryny - Google Search Console
Ustawienia witryny w Google Search Console

Proszę mieć jednak na uwadze, że wspomniane ustawienie nie ma zastosowania, gdy sklep już jest niedostępny, wtedy „na siłę” tej opcji nie wolno używać. Gdy już niedostępność wystąpi, nie kombinuj, postaraj się o jak najszybsze przywrócenie funkcjonowania serwera. PS. Duże sklepy internetowe mają wdrożone „failover” – o tym opowiem w kolejnych artykułach.

Jak to rozwiązał kolega Google – Bing? Bing poszedł o krok dalej i udostępnił swoim użytkownikom świetne narzędzie do zarządzania procesem indeksowania strony.

Kontrola przeszukiwania - Bing
Ustawienia indeksowania strony przez Bing

Narzędzie dostępne jest z poziomu Bing Webmaster Tools.

Zobacz takżeUstawienia częstotliwości indeksowania w Bing Webmaster Tools.

W przypadku niedostępności sklepu punkt 3 wpływa pośrednio na czas rewizyty bota.

[3] Mapa witryny sitemap.xml i priorytety indeksowania. Gdy bot posiada informacje z mapy strony, dostaje wskazówki o priorytecie indeksowania oraz informacje o czasie, po którym ma nastąpić rewizyta. Szczegółowo o priorytetyzacji w mapie witryny można przeczytać w oficjalnej dokumentacji na stronie www.sitemaps.org oraz na stronach supportu Google.

Do omówienia zostały ustawienia indeksowania poprzez dyrektywy meta-tagów. W części przypadków możemy jeszcze spotkać się z zastosowaniem meta tagu revisit-after, który w założeniu miał informować wyszukiwarki o częstotliwości indeksowania, jednak wszystko na to wskazuje, że obecnie jest on całkowicie ignorowany.

<meta name=”revisit-after” content=”2 days”>

Podobnie robots.txt i dyrektywa Crawl-delay – z racji tego, że przy niedostępności serwisu internetowego nie można przetworzyć pliku (a boty przy dostępie do serwisu odpytują plik robots.txt), z przeanalizowanych przypadków wynika, że nie miało to wpływu na końcowy wynik. Warto jednak zwrócić uwagę, że plik robots.txt przetwarzany jest z opóźnieniem – widać to choćby w Google Search Console po częstotliwości odświeżania danych w zakładce.

Podobnie sytuacja wygląda w przypadku nagłówka HTTP X-Robots-Tag, który rzecz jasna przy niedostępności nie zostanie zwrócony.

Podsumowując, ustawienia revisit-after, Crawl-delay i HTTP X-Robots-Tag nie miały wpływu na szybkość spadków pozycji, natomiast pozostałe 3 czynniki: liczba backlinków i jakość stron na których zostały umieszczone, ustawienia prędkości indeksowania w Google Search Console oraz dane historyczne z sitemapy przed wystąpieniem awarii serwera wykazują duże znaczenie. Aby dokładnie określić wagę każdego z czynników, temat ten wymaga dalszych badań.

Niedostępność serwisu – to kiedy właściwie spadną pozycje?

Nie można jednoznacznie odpowiedzieć na to pytanie. Trzeba odnosić się do każdego przypadku z osobna. W jednym ze sklepów trwało to zaledwie 7,5 godziny, w innym zajęło to 4 dni, w jeszcze innym tydzień, kiedy klient przed wyjazdem na urlop zapomniał opłacić hostingu, no cóż… zdarza się, oby tylko raz w życiu.

Po jakim czasie od wznowienia działania serwera można spodziewać się powrotów pozycji?

Od kilku godzin do kilku tygodni. Są metody, aby przyśpieszyć „powroty”. O tym też napiszę w jednym z kolejnych poradników.

Czy wróci stara pozycja, czy też zostanie obniżona za karę?

Google nieustannie aktualizuje swój algorytm, większe aktualizacje ogłaszane są przez pracowników Google, z kolei mniejsze nieoficjalnie wdrażane są każdego dnia. W czasie, gdy Twój sklep był niedostępny, mogły zmienić się zasady rankingowe i w naturalny sposób, całkowicie niezwiązany z niedostępnością sklepu mogło dojść do zmiany pozycji (zarówno na plus, jak i na minus).

Niedostępność sklepu to nie tylko spadek pozycji!

Właścicielu sklepu! Musisz pamiętać, że spadek pozycji nie jest jedyną rzeczą, która wynika z niedostępności sklepu. W przypadku częstych awarii serwera możesz stracić zaufanie klientów, a stali klienci z reguły kupują najwięcej. Zadbaj o dobry serwer. Koniecznie przeczytaj jeden z moich artykułów: Jaki hosting dla sklepu internetowego.

Jeżeli masz pytania, skontaktuj się ze mną za pośrednictwem formularza lub zapytaj w komentarzu.

4 komentarze

  • Od ponad miesiąca pozycje naszej strony spadają w google. Strona była pozycjonowana przez agencje przez półtora roku. Sprawdzaliśmy linki i dodaliśmy do disavow ale nie widać poprawy. Czy jest jeszcze coś co możemy zrobić?

    • Powodów spadku pozycji może być wiele, od filtrów za linki przychodzące (Pingwin), aż po filtry on-site (Google Panda). Ostatnio mieliśmy też aktualizację Pingwina, choć w mojej ocenie to nie tylko sam Pingwin został zaktualizowany, również core Pandy został zmodyfikowany lub wdrożyli coś nowego, co także dotychczasowe czynniki on-site modyfikuje, przynajmniej tak wynika z analiz, które przeprowadziłem, ale na konkretne wnioski przyjdzie czas za 2-3 miesiące, kiedy zbiorę więcej danych.

      Od wieków to powtarzam, sam disavow nie gwarantuje powrotów na pozycje, jeżeli strona nie ma wsparcia ze strony dobrych mocnych linków. Może też być na stronie filtr on-site’owy, który uniemożliwia powroty lub też nie wszystkie linki zostały wykluczone. Niestety czy to Google Search Console, czy też zewnętrzne systemy monitorowania backlinków nie gwarantują wykrycia wszystkich linków prowadzących do strony, dlatego stosuje się dodatkowe metody, aby odkryć jak najwięcej, ale i tak 100% backlinków nie odkryjesz. Mówimy tutaj o liczbach rzędu 10 tyś – kilka mln linków. Jeżeli strona była pozycjonowana przez agencję, to też kwestia jakich metod używali, masz raporty od nich? Jeżeli tak to świetnie, jeżeli nie – poproś o nie. Często agencje zasłaniają się tajemnicą i nie udostępniają raportów, nie wiem jak będzie w tej sytuacji, ale transparentność działań to podstawa pracy z klientem, szczególnie jeśli chodzi o SEO. Bez raportów o wiele trudniej później prześledzić historię strony. Dane z Google Analytics okej, z Search Console masz tylko 3 miesiące wstecz, z kolei z systemów zewnętrznych danych w ogóle może nie być lub będą na tyle nieprezycyjne, że zamiast pomóc zaszkodzą w wyciągnieciu trafnych wniosków.

      Pojawia się tutaj jeszcze kilka dodatkowych pytań, o jakich w ogóle spadkach mówimy? Obniżeniach pozycji -10 czy -100 oczek? Kiedy konkretnie nastąpiły? Czy były objawy poprzedzające spadki? Czy wszystkie szkodliwe linki zostały wykluczone? Czy był przeprowadzany przez agencję audyt seo onsite strony? Może w tym czasie były jakieś „prace remontowe” na stronie? Czy witryna ma jakieś elementy np. reklamy (above the fold) lub wkurzające pop-up’y, które mogą zmniejszać użyteczność strony i pogarszać readability? Jest wiele pytań, które trzeba sobie zadać i udzielić odpowiedzi, w tej chwili nie jestem w stanie odpowiedzieć, ponieważ aby to zrobić, potrzeba gruntownej analizy witryny i uzyskania odpowiedzi na powyższe i inne pytania, a niestety tylko z pozoru wydaje się to proste w sensie, okej wykluczę linki i to załatwia sprawę, niestety często tak nie jest i na tematy filtrów algorytmicznych od Google trzeba zerknąć z góry tj. z szerszej perspektywy. Jak coś napisz do mnie na kontakt(małpa)socialtrends.pl podając adres strony internetowej, rzucę na nią okiem w wolnej chwili.

  • Mój sklep przez 2 tygodnie był niedostępny ze względu na przeniesienie strony z jednego serwera na drugi. Firma która przenosiła uspokajała że nic się nie stanie. Niestety przez ten czas spadły pozycje, czy mogę jakoś sprawdzić kiedy dokładnie spadły i czy jest szansa na szybki powrót? Minął już tydzień od wznowienia działania sklepu ruch z google spadł obroty spadły jestem w kropce.

    • @Dawid, jeśli przenosiny były zrobione w sposób prawidłowy to pozycje z czasem wrócą. Pamiętać trzeba jednak, że w tym czasie mogło dojść do zmian w algorytmie Google, które zmieniły zasady gry i siłą rzeczy obniżyły lub poprawiły pozycje strony.

O autorze…

Mariusz Kołacz

Marketingiem internetowym zajmuje się od 2008 roku, a informatyką i nowymi technologiami od ponad 15 lat. Tworzę narzędzia marketingowe, piszę teksty, a po godzinach lubię przeczytać dobrą książkę z zakresu medycyny lub parapsychologii. Dowiedz się, jak możesz rozwinąć swój biznes korzystając z SEO, SEM, Social Media oraz automatyzacji marketingu.