Zapowiada się kolejna zmiana algorytmu Google


W ostatnim czasie Google coraz częściej „zaszczyca nas” zmianami algorytmu, które mają ogromny wpływ na pozycjonowanie. Październikowa zmiana algorytmu uderzyła głównie w firmy i pozycjonerów, dla których głównym źródłem linków przychodzących były systemy wymiany linków, a w szczególności system E-weblink. Paradoksalnie w chwili obecnej system ten rozwija się w bardzo szybkim tempie. Październik nie okazał się także łaskawy dla części stron, które były pozycjonowane od kilku lat. Następnie przyszła kolejna zmiana, która zintegrowała wyniki naturalne z mapkami. Miała ona ogromny wpływ na wyniki regionalne, a właściciele firm zajmujących się pozycjonowaniem musieli opracować nowe metody rozliczania się za pozycjonowanie tych fraz.

W chwili obecnej czekamy natomiast na wprowadzenie kolejnej aktualizacji, która uderzyć ma w strony zawierające treści niskiej jakości, które nie prezentują wartości dla użytkowników internetu. Aktualizacja ta wprowadzona została już w USA i miała wpływ na około 12% zapytań. Z analizy, która przeprowadzona została przez pracowników Google w oparciu o informacje dostarczone przez wtyczkę do wyszukiwarki Google Chrome o nazwie „Personal Blocklist” wynika, że aż 84% zgłaszanych w ten sposób stron pokrywa się ze stronami, których pozycje obniżył nowy algorytm.

Z powyższych statystyk wynika, że nowa aktualizacja może przynieść wiele dobrego użytkownikom internetu. Warto jest jednak zastanowić się na jakiej zasadzie określa się, które strony są niskiej jakości. Gdyby zmiana miała dotyczyć tylko stron, które zawierają powielone treści to kryterium oceny wydawałoby się jasne. Problem w tym, że zmiana dotyczy szerszego zakresu stron. Przykładem mogą być tutaj domeny opublikowane przez serwis sistrix, gdzie znajduje się zestawienie domen, które ucierpiały najbardziej. Co ciekawe, domeny te nie zawierały powielonych treści. Charakteryzuje je ogólnotematyczność, jednak sama w sobie wielotematyczność nie może być powodem do karania strony… Porównywanie wyników aktualizacji ze stronami zgłoszonymi na „Personal Blocklist” wskazywałoby też, że nowe wyniki nie były opracowane na podstawie tej listy (co potwierdza Matt Cutts z Google). Stosunek ilości reklam do ilości treści na stronie także nie powinien być wyznacznikiem. Na jakiej podstawie algorytm wybiera więc strony niskiej jakości??

Pomimo, że w chwili obecnej nie jesteśmy w stanie określić na jakiej podstawie Google wybiera strony zawierające niskiej jakości treść, to możemy dokonać szybkiej analizy na podstawie danych dostarczonych przez Sistrix.

Źródło: Sistrix.com

Powyższa tabela jest w stanie dostarczyć nam wielu ciekawych informacji na temat zmian powstałych w wyniku wdrożenia nowego algorytmu. Do dyspozycji mamy procentową zmianę współczynnika SISTRIX, który budowany jest w oparciu o ruch ze słów kluczowych, ranking oraz CTR na poszczególnych miejscach, jego wartość przed i po zmianie algorytmu oraz zestawienie liczby słów kluczowych przed i po wprowadzeniu algorytmu. Jak widać wyraźnie wszystkie wymienione powyżej strony zanotowały spadek wskaźnika SISTRIX przekraczający 70% , a w niektórych przypadkach było to nawet 94% (właściciele tych witryn z pewnością odczuli ten spadek). Z ostatnich dwóch kolumn wynika, że zmiana dotyczyła przede wszystkim fraz z long tail (co nie powinno nikogo dziwić).

Pozostaje tylko czekać, kiedy powyższa aktualizacja zostanie wprowadzona w Polsce oraz jak duże rotacje w wynikach wyszukiwania spowoduje.

4 Komentarze

Dodaj własny
  1. 1
    ekipa skrypty.pro

    Jeżeli nowy algorytm wejdzie w Polsce,to pozostaje mieć nadzieje,że nie zrobi takiego „boom” jak w przypadku serwisu „sistrix”.

  2. 2
    Silver Apartments

    Jedna z moich witryn spadła dziś na 900 fraz z długiego ogona wygenerowanych automatycznie.
    Zmiana algorytmu w Google już jest w POLSCE. Strony nawet z 1-2 miejsca wyleciały z indeksu.
    Na co Google patrzy – na automatyczne generowanie treści 🙂 i ich umiejscowienie w serwisie!

  3. 3
    Silver Apartments

    Mała zmiana – dokładnie przeanalizowałem zmiany:

    strony – pozycje | spadek na:
    top10 | ~150
    top20 | >200
    >top30 | ~100

    Strony nadal są w indeksie. Na poniedziałk zaplanowałem duże zmiany i pewną strategię przywrócenia tych pozycji. Do przyszłego piątku dam znać co pomogło – jeśli pomoże.
    Życzę mniejszych spadków.
    Ps. Domena na kluczowe frazy (jest ich około 200) na zielono – idzie w górę, wg przyjętych strategii.

  4. 4
    dieta dukana

    Ja miałem kilka testowych stronek tzw. MFA. Treść była unikalna, ale było jej niewiele (maks. 300 znaków na podstronę) – zaliczyłem spadek tak ok. 10 pozycji. W przypadku stron, gdzie treść była obszerniejsza pozycje zostały. Patrząc ogólnie na indeks top 30 to zamieszanie spore się zrobiło. Na pierwszych miejscach potrafią być podstrony zagranicznych forum.

+ Napisz komentarz