Zmiana algorytmów Google. O czym warto wiedzieć?
Obecnie do tworzenia rankingu najbardziej pasujących odpowiedzi w algorytmach wyszukiwania wykorzystuje się sztuczną inteligencję (np. elementy uczenia maszynowego - algorytm BERT i MUM), która tworzy coraz to nowsze, bardziej precyzyjne kryteria rankingowe.
Zatem ciągły rozwój algorytmów wyszukiwania sprawia, że użytkownik otrzymuje wśród najpopularniejszych najbardziej trafne, aktualne i wartościowe odpowiedzi w ciągu kilku sekund.
Co to jest algorytm wyszukiwarki?
Pod pojęciem algorytmu wyszukiwarki kryje się z jednej strony ciąg skomplikowanych czynności mający pomóc w zrozumieniu zapytań wyszukiwania (tzn. wpływać na lepsze zrozumienie intencji użytkownika), a z drugiej ciągłe dostosowywanie czynników rankingowych (kryteriów), aby nastąpiła poprawa jakości wyników wyszukiwania (tzn. odrzucanie linków do stron o niskiej jakości contentu - treści przekopiowanych, spamerskich, tworzonych na potrzeby pozycjonowania).
Zgodnie z powyższym wyszukiwarka internetowa Google, która wykorzystuje różne algorytmy, jest kompleksowym narzędziem do odnajdywania, zbierania, indeksowania i oceniania publicznie dostępnych w sieci informacji. Dzięki temu każdy z użytkowników wyszukiwarki Google może liczyć na to, że w odpowiedzi otrzyma najbardziej trafne, zbliżone treści wśród oczekiwanych przez niego wyników wyszukiwania.
Jak działa algorytm Google?
Należy na wstępie podkreślić, że dokładne działanie wszystkich algorytmów Google nie jest publicznie udostępniane, ponieważ jednym z priorytetów Google jest eliminowanie nieuczciwych praktyk. Chodzi szczególnie o te nieetyczne czynności, które po wprowadzonych zapytaniach wyszukiwania przez użytkowników powodują, że w wyszukiwarce Google strony internetowe o niskiej jakości (np. zawierające skopiowane treści, spam) będą się wyświetlały na pierwszych miejscach w rankingu stron.
Wyszukiwarka Google do tworzenia systemu rankingowego w wynikach wyszukiwania lokalnego, wykorzystuje szereg zróżnicowanych algorytmów, ponieważ każdy algorytm oparty jest o inne kryteria, dzięki czemu użytkownik bardzo szybko otrzymuje listę odnośników do witryn z najlepiej dopasowaną do zapytania informacją.
Dodatkowo obecne algorytmy Google, których jest bardzo dużo (setki - dokładna liczba nie jest znana), uczą się na bieżąco zachowań, preferencji i potrzeb użytkowników na całym świecie. W związku z tym w zależności od lokalizacji, kultury, języka naturalnego, nawet branży, czy zawodu w danym regionie, algorytmy działają inaczej, gdyż dostosowują się właśnie do wyszukiwania lokalnego.
Zatem każdy algorytm Google zawiera inne, ściśle określone kryteria, za pomocą których analizuje jakość i trafność treści stron internetowych względem zadanych słów kluczowych. Obecnie najwyżej oceniane kryteria to np. jakość i rozmiar tworzonych tekstów z poszanowaniem praw autorskich, szybkość ładowania strony (również na urządzeniach mobilnych), a także ilość reklam i wiele innych.
Najważniejsze algorytmy wyszukiwania Google
W 1998 r. Google wprowadził algorytm PageRank, który stał się prekursorem oceny jakości stron. Algorytm ten przydzielał wyższe miejsce na liście rankingowej stronie, która posiadała największą ilość linków udostępnianych przez inne serwisy.
Szybko jednak okazało się, że umożliwiał on stosowanie nieetycznych praktyk. Tworzono specjalne serwisy (lub wykorzystywano już istniejące, ale o słabej jakości linków), od których pozycjonowane witryny uzyskiwały odnośniki. W ten sposób podbijano sztucznie pozycję takiej strony w rankingu. Mimo przeprowadzanych aktualizacji algorytmu wyszukiwania nie udało się tego procederu wyeliminować i od 2016 r. zaprzestano stosowania PageRank, a Google wprowadził szereg nowych, bardziej zaawansowanych algorytmów.
Poniżej prezentujemy przykładowe, acz kluczowe algorytmy dla systemu rankingowego. Należy mieć świadomość, że niektóre algorytmy, mimo że są podobne, to odpowiadają za inne obszary i mają inne zadania. Są to między innymi algorytmy dotyczące:
-
lokalnych wyszukiwań:
-
Opos - lokalizacja geograficzna urządzenia i lokalne słowa kluczowe determinują pozycjonowanie w rankingu, dzięki temu użytkownik otrzymuje konkretne, stacjonarne informacje np. z wizytówek Google,
-
Gołąb - determinuje lokalne wyniki wyszukiwań, ponieważ sczytuje z witryn lokalne dane strukturalne (pełne dane teleadresowe), dzięki czemu jeszcze lepiej może dopasować się do intencji użytkownika,
-
-
bezpieczeństwa danych, o które dba Pirat, który z jednej strony premiuje strony z oryginalną, interesującą zawartością objętą prawami autorskimi, z drugiej karze, nie uwzględniając stron ze skopiowanymi treściami,
-
rozumienia intencji i języka naturalnego:
-
Panda - fundamentalne narzędzie do analizy jakości publikowanych treści, które wyczulone jest np. na duże zagęszczenie słów kluczowych,
-
Koliber - jego zadaniem jest lepsze rozpoznawanie intencji użytkowników nie tylko ze słów kluczowych, ale z całego contentu,
-
RankBrain - wykorzystuje technologię uczenia maszynowego, aby lepiej dopasować odpowiedzi do zachowań, potrzeb i standardów lokalnej społeczności,
-
BERT (Bidirectional Encoder Representation from Transformers) - odpowiada za interpretację semantyki i kontekstu długich i skomplikowanych zapytań long-tail (z trzech lub większej ilości słów),
-
MUM (Multitask Unified Model), bardzo rozwinięty system, który precyzyjnie dopasowuje wyniki nie tylko z tekstu, ale też obrazów oraz innych zadanych wyszukiwarce poleceń,
-
-
pozycjonowanie strony, za które odpowiada między innymi Pingwin. Algorytm docenia tylko odnośniki tematyczne i jakościowe, a odrzuca witryny z nienaturalnym (nagłym) przyrosty linków. W tym obszarze należałoby wspomnieć jeszcze o Original Content System, Page experience system, czy Coati, które są nowszą precyzyjniejszą wersją powyższych.
Aktualizacja algorytmów Google
Należy mieć świadomość, że aktualizacje algorytmu Google są z jednej strony odpowiedzią na zachodzące zmiany trendów i preferencji użytkowników oraz przepisów prawa (np. polityki cookies w kontekście RODO). Z drugiej pozwalają eliminować luki i redukować nadużycia w zakresie SEO, które mogłyby spowodować, że w wynikach wyszukiwania pojawi się witryna o niskiej jakości contentu.
Dlatego każda aktualizacja algorytmu Google, szczególnie obszerna, ma wpływ na techniki pozycjonowania i wyświetlany ranking stron, np. obszerna październikowa aktualizacja Core Update, której wdrażanie trwało dwa tygodnie, polegała na usunięciu z SERP - specjalnej strony wyszukiwarki, na której wyświetlane są wyniki wyszukiwania - stron i ich adresów, niespełniających warunków jakości contentu.
Warto zwrócić uwagę, że Google również zmienia swoje priorytety, ponieważ w ostatnich aktualizacjach (Core Update, Spam Update, Helpful Content Update - więcej na Google Search Central) coraz większą uwagę zwraca na UX (User experience), czyli na ogół wrażeń użytkowników, których doświadczają podczas korzystania ze stron; dotyczą one np. szybkości ładowania strony, łatwości nawigacji czy dostępności na urządzeniach mobilnych, ilości wyświetlania reklam.
W wyniku powyższego Google zaleca tworzenie treści zgodnie z zasadami EEAT (Experience, Expertise, Authority, Trustworthiness), gdzie oprócz rzetelnie (opartych na prawdziwych i aktualnych informacjach), dobrze napisanych treści, kluczowe jest doświadczenie i kwalifikacje autora.
Warto wiedzieć, że Google zaleca dopasowywać i ciągle udoskonalać strategie SEO o najnowsze aktualizacje, ponieważ tylko to gwarantuje zachowanie lub uzyskanie wysokich pozycji rankingowych.
Google udoskonala również swoje darmowe usługi - Google Search Console - które wspomagają np. administratorów witryn w eliminowaniu problemów z pozycjonowaniem strony, a także w monitorowaniu jej pozycji w wynikach wyszukiwania Google.