Nagłówki HTTP, czyli kody odpowiedzi serwera

Nagłówki HTTP, czyli kody odpowiedzi serwera


Tym razem artykuł będzie poświęcony nagłówkom HTTP, czyli kodom odpowiedzi serwera. Słowo nagłówki może być tutaj mylące, gdyż w języku polskim obejmuje zarówno informacje otrzymane bezpośrednio z serwera, jak i nagłówki w kodzie HTML[1]. Wiedzy w tym zakresie jest bardzo dużo, stąd zostanie omówiona część informacji przydatna w pozycjonowaniu i e-marketingu.

Nagłówki HTTP[2] to dodatkowe dane, przesyłane między komputerem klienta (np. przeglądarką), a serwerem (np. stroną www). Zawierają między innymi:

  • HTTP Referer – adres odsyłający – może być to adres, z którego użytkownik odwiedził naszą witrynę, np. Google czy Facebook.
  • USER Agent – aplikacja klienta, opis urządzenia, z którego nastąpiło odwołanie do serwera (np. Firefox czy Googlebot).
  • X-Robots-Tag – informacja dla robotów, które zasoby podlegają indeksowaniu w wyszukiwarkach.
  • Server – informacja na temat typu serwera, np. Apache, nginx.
  • Cache-control (oraz powiązane, np. Expires) – dane dla aplikacji klienckich, dotyczące zapisywania zasobów w pamięci podręcznej, co wpływa na poprawienie wyników szybkości ładowania strony oraz ocenę Google PageSpeed.

Przydatność nagłówków HTTP w e-marketingu

Adres odsyłający HTTP Referer jest jedną z ważnych danych analitycznych. W przypadku podmiotów, które pojawiają się w wielu różnych mediach społecznościowych, służy do rozróżnienia źródła wizyt. Można sprawdzić, czy użytkownik przeszedł ze strony np. Facebook-a, Pinterest-a lub innej. Dzięki takiemu porównaniu można odrzucić media o niskiej rentowności, a skupić się na tych wykazujących wyższą konwersję.

Jak wykorzystać nagłówki HTTP w pozycjonowaniu i analityce internetowej?

User Agent, czyli aplikacja klienta może wskazywać dane dotyczące urządzenia odwołującego się do serwera. Te informacje są niezwykle cenne w dobie urządzeń mobilnych. Można rozróżnić źródła wizyt nawet na poziomie systemu, np. Android, IOS, Windows itp. W przypadku witryn responsywnych możliwa jest dzięki temu analiza porównawcza dla użytkowników mobilnych i biurowych. Oprócz tego da się sprawdzić częstotliwość odwiedzin robotów wyszukiwarek. Google przedstawia się jako wspomniany wyżej „Googlebot”.

Wskazówki dla robotów, czyli jak wskazać noindex dla plików PDF

X-Robots-Tag[3] jest bardzo przydatnym nagłówkiem w pozycjonowaniu, gdyż pozwala na dodatkowe instrukcje dla robotów. Szczególnie jest to wartościowe w przypadku plików otwieranych bezpośrednio w przeglądarce, np. plików PDF czy obrazów. Dla takich plików nie ma innego sposobu wskazania dyrektywy noindex jak za pomocą X-Tobots-Tag. Pliki PDF nie posiadają własnej sekcji meta.

Typ nagłówka – „Server”

Choć może wydawać się to mało znaczące, warto zwrócić na uwagę na ten nagłówek. W przypadku serwerów znanych (wspomniane Apache i Nginx) i tych posiadających szeroką dokumentację, wprowadzanie optymalizacji w procesie pozycjonowania nie powinno przysporzyć większych problemów. Problemy mogą pojawić w szczególnych przypadkach, np. gdy typ serwera jest nieznany, a informacje o konfiguracji są szczątkowe. W takich wyjątkowych sytuacjach zdarzają się kłopoty z wprowadzaniem przekierowań czy przyjaznych adresów URL.

Pamięć podręczna – czy to naprawdę przydaje się w pozycjonowaniu?

Cache-control – często kojarzona bardziej z użytecznością witryny i szybkością jej ładowania, pamięć podręczna jest także ważna w procesie SEO. Wynik w Google PageSpeed jest jednym z czynników rankingowych Google i wpływa pośrednio na pozycje w rankingu wyszukiwarki. Warto zatem zastosować mechanizmy przyspieszające ładowanie strony. Pamięć podręczna przechowuje część danych na dysku komputera klienta, są to np. obrazy czy style CSS.

Kiedy nie warto używać nagłówków HTTP?

Jak wszystko, nagłówki serwerowe mają swoje wady. Po pierwsze, nagłówki HTTP wysyłane przez komputer klienta można zmodyfikować, a co za tym idzie, nie zapewniają one wysokiego bezpieczeństwa w rozwiązaniach IT[4]. Po drugie, jeśli na serwerze został umieszczony złośliwy kod, to także nagłówki odpowiedzi serwera mogą zostać zmienione. Często spotykanym sposobem ukrycia włamania na serwer jest zmiana treści strony dla konkretnego nagłówka User-Agent odebranego przez serwer. W takim przypadku, jeśli treść została podmieniona tylko dla robota Google to w przeglądarce użytkownika nie będzie widać żadnych zmian. Dopiero zmiana User-Agent po stronie przeglądarki wskaże taką niechcianą treść.

Nagłówki odpowiedzi serwera są cennymi danymi dla celów deweloperskich, jak i e-marketingu. W większości przypadków użytkownicy przeglądarek nie mają złych zamiarów, informacje te są poprawne i można na nich polegać. Ze względu na możliwość ich modyfikacji, mogą być obarczone pewnym błędem pomiaru, ale przy dużej próbce danych potrafią dostarczyć cennych informacji.

——————–
[1] W języku angielskim jest to rozróżnione: headers (nagłówki HTTP) i headings (np. <h1>).
[2] https://pl.wikipedia.org/wiki/Lista_nag%C5%82%C3%B3wk%C3%B3w_HTTP
[3] https://developers.google.com/search/reference/robots_meta_tag?hl=pl#korzystanie-z-nagwka-http-x-robots-tag
[4] https://en.wikipedia.org/wiki/HTTP_header_injection


1 Komentarz

Dodaj własny

+ Napisz komentarz