Optymalizacja stron internetowych


<p>W swojej pracy wielokrotnie spotykamy się z pytaniami dotyczącymi elementów, które są analizowane podczas przygotowywania audytu strony. W związku z powyższym chciałbym poruszyć ten temat w tym wpisie. Przygotowując audyt strony analizuję kilkadziesiąt elementów, których znaczna część została wymieniona poniżej. Nie jest moją intencją, aby opisywać w tym temacie poszczególne elementy, dlatego też opisy są bardzo ogólne. Tak naprawdę to każdy z poniższych elementów może być tematem na oddzielny wpis. Jeśli będziecie mieli jakieś pytania dotyczące któregoś z elementów to zapraszam do pozostawienia komentarza. Postaram się odpowiedzieć/rozbudować post o dłuższy opis lub przygotować nowy, rozbudowany wpis.

Optymalizacja kodu:

  • Tytuł strony – jeden z ważniejszych elementów optymalizacyjnych, który powinien zawierać najważniejsze słowa kluczowe. Zaleca się, aby maksymalna liczba znaków nie przekraczała 70 znaków. Z naszych testów wynika jednak, że wyszukiwarka google czyta/analizuje także zdecydowanie dłuższe tytuły stron.
  • Description – w chwili obecnej posiada on głównie znaczenie marketingowe.
  • Keywords – nie jest uwzględniany przez wyszukiwarkę google.
  • Nagłówki (H1, H2, H3) – zaleca się, aby nagłówek H1 znajdował się tylko raz na stronie i ogólnie charakteryzował stronę. Nagłówki H2, H3 warto jest zastosować do wyróżnienia np. nazw kategorii czy nazw produktów.
  • Układ strony – budując stronę internetową warto pamiętać, aby ważne słowa klucze znajdowały się możliwie wysoko w kodzie. Warto jest także przeanalizować czy struktura kategorii/podkategorii jest właściwie zbudowana. Przykładowo nazwy kategorii powinny być frazami trudniejszymi niż podkategorie itp.
  • Wyróżnienia tekstu – warto jest stosować je do najważniejszych słów kluczowych znajdujących się w obrębie strony. Obecnie najpopularniejszym wyróżnikiem tekstu jest pogrubienie (<strong></strong>.
  • Pliki graficzne – dobrze jest zoptymalizować pliki graficzne opisując je atrybutami ALT oraz nazywając je zgodnie ze słowami kluczowymi. W przypadku sklepu internetowego może to być np. nazwa produktu. Nie opłaca się również publikować treści pisanej w postaci obrazka (chyba, że nie chcemy, aby została przeczytana przez roboty googla).
  • Odnośniki wewnętrzne – ważne jest, aby anchor tekst opisany był słowami kluczowymi. W przypadku plików graficznych warto zastosować jest znacznik alt oraz title (tak dla pewności). Zaleca się również, aby liczba odnośników wewnętrznych w obrębie jednej podstrony nie przekraczała 90. Nie należy również zapominać o zasadzie first link count.
  • Odnośniki zewnętrzne – koniecznie trzeba ograniczyć liczbę linków wychodzących do minimum.

Optymalizacja linkowania:

  • Przyjazne adresy stron – istotne jest, aby adresy podstron opisywały jej zawartość. Przykładem może być adres wpisu, na którym aktualnie się znajdujemy: http://blog.widzialni.pl/optymalizacja-stron-internetowych/.
  • Moduły linkowania wewnętrznego – warto jest wzbogacić strony internetowe o moduły, które poprawią linkowanie wewnętrzne strony. Mogą to być moduły typu: tagi, powiązane produkty, losowe produkty itp.
  • Menu tekstowe/graficzne – należy zwrócić uwagę w jaki sposób zbudowane jest menu strony. W sytuacji, gdy zbudowane jest oparciu o JS/Flash zalecane jest, aby przygotować również wersję w formie tekstowej.
  • Breadcrumb – dobrym rozwiązaniem jest umieszczenie ostatniego elementu ścieżki nawigacji w znaczniku <strong>. Moim zdaniem nie warto jest, aby był on odnośnikiem (po co linkować do strony, na której aktualnie się znajdujemy?).
  • Nofollow – osobiście w zasadzie już go nie stosuję, ponieważ nie spełnia już swojej roli (tzn właściwie to teraz spełnia swoją rolę:)). Są na szczęście alternatywne metody na PageRank Sculpting.
  • Podstrony wykluczone z indeksownaia – warto jest wykluczyć z indeksowania podstrony, które nie powinny zostać zaindeksowane np. koszyk, duplikaty treści itp.
  • Canonical – teoretycznie powinno stosować się go do walki z duplikatami treści w obrębie strony. W moim przekonaniu nie działa on w 100% poprawnie.
  • Weryfikacja przekierowań – zaleca się, aby zwrócić uwagę czy w obrębie strony nie stosuje się np. przekierowania 302 zamiast 301.
  • Przekierowanie między adresami „z www” i „bez www” – tego podpunktu chyba nie trzeba opisywać.
  • Inne przekierowania – dobrze jest sprawdzić czy wykonane są przekierowania 301 np. ze stron, które nie są już dostępne lub są dostępne pod nowymi adresami.
  • Strona błędu 404 – na ten temat można przeczytać tutaj: strona błędu 404.

Przydatne moduły:

  • Mapa strony HTML – podobno pomocna jest także dla użytkowników, ale wiadomo, że chodzi o roboty google :).
  • Mapa strony XML – tego podpunktu chyba też nie trzeba opisywać. Ważne jest, aby zawierała wszystkie podstrony, które powinny być zaindeksowane.
  • Pingowanie – warto jest dodać moduł, który będzie informował wyszukiwarkę o dodaniu nowego produktu itp. Można go tez wykorzystać do pingownaia sitemapy.
  • Kanały rss – temat, którego nie trzeba opisywać.
  • Strony społecznościowe – nawet oficjalne stanowisko google mówi, że linki z największych portali społecznościowych mają wpływ na pozycję strony w google. Dlaczego więc nie skorzystać zwłaszcza, że można dzięki nim wygenerować dodatkowy ruch?

Pozostałe:

  • Zgodność W3C – czystość kodu nie ma jeszcze bezpośredniego wpływu na pozycję strony (chyba, że jestem do tyłu:)). Warto jest jednak zadbać, aby kod strony był zgodny ze standardem W3C.
  • Plik robots.txt – ważne jest, aby zablokować przy jego użyciu adresy, do których roboty wyszukiwarek nie powinny mieć dostępu.
  • Szybkość ładowania strony – element ten ma wpływ zarówno na pozycję strony jak i na ilość indeksowanych podstron przez roboty google. Dlatego warto jest zadbać, aby strona ładowała się możliwie szybko.
  • Meta tag robots – dobrze jest go zastosować, aby określić uprawnienia robotów wyszukiwarek na poszczególnych stronach internetowych.
  • Gęstość słów kluczowych – często mówi się, aby zagęszczenie słów kluczowych wynosiło 3-5%. Osobiście jednak nie przeprowadzałem testów, które potwierdziłyby, że taka wartość jest najbardziej optymalna.
  • Unikalna zawartość stron – google coraz lepiej radzi sobie z wykrywaniem stron, które posiadają zduplikowane treści. Dlatego warto jest zadbać, aby treść w obrębie strony była unikalna.
  • CSS i JS w plikach zewnętrznych – warto jest zoptymalizować ilość kodu poprzez przeniesienie stylów i JS do plików zewnętrznych.
  • Optymalizacja grafiki – nadal bardzo często zdarza się, że na stronach ładowane są zdjęcia w rozmiarze dużo większym niż jest on wyświetlany. Po co denerwować naszych użytkowników długim wczytywaniem strony?
  • Stosowanie Flash/JS – google radzi sobie już w pewnym stopniu z Flash i JS. Po co jednak utrudniać sobie życie i wyświetlać np tekst przy użyciu Flash skoro można wyświetlić go w kodzie html?
  • Optymalny kod strony – w tym temacie można byłoby skupić się na elementach, które opisane były wcześniej. Warto jest jednak pamiętać, aby budować strony w oparciu o Divy, a nie tabelki.
  • Częstotliwość aktualizacji strony – nie będzie odkryciem jeśli napiszę, że strony często aktualizowane są częściej odwiedzane przez roboty google.
  • Nielegalne techniki pozycjonowania – warto jest sprawdzić czy na stronie nie stosuje się praktyk, które mogą skończyć się nałożeniem kary na stronę. Może to być np. cloaking, ukryty tekst itp.
  • Towarzystwo domeny” – dobrze jest także sprawdzić jakie strony znajdują się na tym samym ip co optymalizowana strona. Osobiście wolałbym, żeby moja strona nie znajdowała się na tym samym ip co spam, pornografia itp.

2 Komentarze

Dodaj własny
  1. 1
    miha$

    Świetny artykuł – w jednym miejscu zebrane wszystko co najważniejsze. Człowiek już robi optymalizację tak mechanicznie że aż czasami zapomina o niektórych elementech a ten poradnik zbiera wszystko w jednym miejscu. Kamilu super wpis !!

+ Napisz komentarz