5 mitów SEO Rafał Grochala

Wraz z biegiem czasu wokół branży SEO narasta ilość mitów z nią związanych. Poniżej prezentujemy 5 mitów SEO, które przygotował i omówił Rafał Grochala z NPROFIT, oto one:

1. Nie da się: zrozumieć algorytmów, aktualizacji, czynników rankingowych itd.

Krótkie spostrzeżenie dla nabrania perspektywy: komputery i komórki, na których czytany jest ten artykuł, funkcjonują w oparciu o tranzystory bezpośrednio korzystające z odkryć mechaniki kwantowej. Ludzkość dokonała reverse engineeringu praw natury, zrozumiała mechanikę kwantową i wykorzystała ją do swoich potrzeb. Oczywiście, że 150 lat temu byli fizycy, którzy mówili – nie da się, zrozumienie tego jest niemożliwe, nie warto nawet próbować – ale na szczęście byli też inni ludzie, którzy nie posłuchali. Z tego punktu widzenia, teksty twierdzące, że nie da się zrozumieć wyszukiwarki Google, pisane i czytane na maszynach korzystających z mechaniki kwantowej, są wręcz autoironią.

O ile do klasycznej fizyki Newton potrafił dojść niesamowitą intuicją i złożoną matematyką, o tyle mechanika kwantowa wymagała już rygorystycznej metodologii eksperymentalnej. Można to (oczywiście lekko na wyrost) odnieść do SEO. Z pewnością podstawowe działania da się prowadzić w oparciu o intuicję oraz wytyczne firmy Google, natomiast do bardziej skutecznych i zaawansowanych wdrożeń potrzebne są co najmniej testy z udziałem wielu domen/podstron. Działają równie dobrze, co w “prostszych” czasach wyszukiwarki, jedyną różnicą jest kwestia przygotowania – bardziej złożone warunki wymagają lepiej zaplanowanych działań, a najbardziej klarowne wyniki daje dopiero pełna metodologia naukowa. Użycie grup kontrolnych, izolacja wyników, przenoszenie eksperymentów ze środowiska izolowanego do rzeczywistego, odpowiednie próby badawcze, a także analiza statystyczna łącznie z określeniem pewności to arsenał, który wystarcza na zdecydowaną większość aspektów wyszukiwarki. Do tego kluczowa jest replikacja eksperymentów, czyli powtarzanie nie tylko w odstępie czasowym, ale również przez różne osoby i w różnych środowiskach. Eksperymenty można projektować, tak by były znacznie bardziej opłacalne niż standardowe w marketingu A/B – na przykład przez zastosowanie metody 2^k wyjaśnionej na stronach Pennsylvania State University.

SEO nie jest jedyną dziedziną na świecie, w której ludzie borykają się z nieznanymi algorytmami czy zjawiskami. Wystarczy skorzystać z istniejących narzędzi. Tym bardziej w świetle coraz większej ilości algorytmów machine learningowych, które już mają opracowane mechanizmy pozwalające je łamać od zewnątrz (więcej – świetna publikacja).

2. Listy czynników rankingowych

Listy czynników SEO to bardzo dobre źródła dezinformacji Klientów i początkujących pozycjonerów. Zazwyczaj są dowolnie wymyślone, podparte dowolnymi danymi, a czasem nawet kryje się za nimi całkowicie błędna próba użycia narzędzi naukowych. Mowa tu m.in. o korelacjach, które są ważną metodą w wielu dziedzinach nauki – pod warunkiem użycia poprawnej statystyki i po zebraniu właściwych danych. Tymczasem typowe “badanie korelacyjne SEO” nie ma w sobie ani badań ani korelacji ani praktycznego SEO. Powstałe w ten sposób listy od lat często twierdzą, że słowo kluczowe w znaczniku title nie ma znaczenia, ale w rzeczywistości to na tyle silny element, że wystarczy dowolne wstawienie słowa kluczowego w dowolnym zapytaniu by zaobserwować wzrost. Działa to niezmiennie, identycznie od wielu lat.

Innym problemem jest sam skład tych list, ponieważ nie tylko poruszają nieistotne elementy, ale też pomijają wiele ważnych i prostych. Na przykład na próżno szukać tam elementarnego błędu towarzyszącego jeszcze wielu pozycjonerom, którym jest pogrubianie słów kluczowych w treści (znacznik strong lub b) – zawsze obniża pozycje w stosunku do treści z brakiem pogrubień tych słów. Listy takie zazwyczaj też skupiają się na czynnikach optymalizacyjnych, podczas gdy nadal w wielu zapytaniach decyduje przede wszystkim to co dzieje się w linkach. W końcu też, istotnym kłopotem jest generalizacja, podczas gdy czynniki charakteryzuje zmienna waga pomiędzy niszami oraz zapytaniami. Prawidłowe, dobre listy rankingowe nie trafiają do publikacji, ponieważ są bardzo wąskie i czasem mogą pasować nawet tylko do jednego specyficznego Klienta. Pozycjoner sam – lub dzięki doświadczeniu innych w danej niszy – tworzy swoją listę, bez opierania się o zewnętrzne, wątpliwe artykuły.

3. Wystarczy tworzyć najlepszą treść

Od wielu lat angielskojęzyczny świat SEO powtarza (głównie za pracownikami Google), że wystarczy tworzenie dobrej treści by dojść do TOPu. W ostatnich latach moda na to twierdzenie doszła również do Polski. To oczywiście zwykły bon-mot realizujący myślenie życzeniowe, którego analogi w większości innych branż są wyśmiewane – tak jak należy wyśmiać radę, że wystarczy napisać dobrą książkę by sprzedać ją w setkach tysięcy egzemplarzy lub wystarczy utworzyć dobrą aplikację by zostać milionerem. Nie, nie wystarczy, tutaj droga dopiero się zaczyna. Dobra treść to tylko i aż fundament SEO. W dalszej kolejności trzeba ją optymalizować, właściwie indeksować, linkować i utrzymywać.

4. Pracownik Google powiedział, że…

Powoływanie się na firmę Google oraz jej pracowników w kontekście pozycjonowania to zawsze cherry picking – wybór wypowiedzi, które akurat odpowiadają cytującemu, niestety z pominięciem pozostałych, często sprzecznych stanowisk.

Twierdzenia Johna Muellera, Garry’ego Illyesa czy Danny’ego Sullivana to miecz obosieczny. Wiele ich wypowiedzi bezpośrednio uderza w seowców. To podejście zresztą aż wylewa się z profilów twitterowych wymienionych osób, których odpowiedzi są w najlepszym wariancie zdawkowe, a zazwyczaj zwyczajnie wyśmiewają wszystko co jest związane z SEO. Nie można tu istotnie winić samych autorów, ponieważ – jak pokazał przykład Sullivana, który był długi czas po właściwej stronie barykady – realizują politykę firmy Google. Trzeba jednak uderzyć w branżę i setki blogów pozycjonerów, którzy ignorują to zjawisko, a nawet mu przytakują, znów wprowadzając w błąd wielu adeptów SEO. Rzeczywistość jest, można nawet określić, brutalna: pracownicy Google nie tylko mogą realizować politykę i uprawiać PR, ale często zwyczajnie kłamią oraz zaprzeczają sobie wzajemnie w wypowiedziach. Swego czasu Rand Fishkin dość dokładnie rozprawił się z tym tematem, ale to była jaskółka w grudniu. Pozycjonerzy, z nielicznymi wyjątkami, boją się publicznie zauważyć, że wypowiedzi pracowników Google często wprowadzają w błąd (celowo lub nie), jednak warto o tym pamiętać w osobistym odbiorze wszystkiego co mówią (a także nie pozwolić na wystraszenie Klientów). Być może jednak coraz bliżej wiosny w tym temacie, ponieważ zachodnie media coraz częściej wskazują na negatywną stronę polityki firmy Google, a raz po raz wybuchają skandale takie jak śledzenie lokalizacji nawet tych użytkowników, którzy nie wyrazili na to zgody w ustawieniach. Podobnie jak wiele innych trendów, w ciągu kilku lat te opinie mogą dotrzeć do Polski :).

5. Dzisiejsze SEO jest całkowicie inne

Nie ma wątpliwości, że SEO zmienia się – ewoluuje razem z wyszukiwarką oraz światem technologii. Użytkownicy komórek już dawno stanowią większość. Algorytmy w coraz większym stopniu korzystają z machine learningu. Szczegóły metod i sposobów dostosowują się do najnowszych aktualizacji. A jednak nadal chodzi o treść, linki i poprawki techniczne! Nadal działa algorytm PageRank, nadal filtry wręcza Pingwin, nadal podstawą optymalizacji jest zarządzanie przekierowaniami. Branże marketingowe uwielbiają żyć modą i nowymi terminami, jednak pozycjonowanie jest tą bardziej techniczną częścią świata reklamy, i w takiej postaci na przestrzeni lat obserwuję regularne nabieranie ludzi na stare rzeczy opakowane w nowe, błyszczące nazwy, a także standardowe “SEO się całkowicie zmieniło”.

RankBrain wprowadził niesamowite możliwości nowego przetwarzania zapytań – w identyczny sposób AltaVista reklamowała w 1998 roku swoje algorytmy dotyczące tego co użytkownik wpisuje w wyszukiwarkę. Pingwin zaczął bardziej precyzyjnie oceniać profil linków, dzięki czemu ograniczył spam w internecie – tymczasem samemu powstaniu PageRanka (również w 1998!) towarzyszyły zachwyty nad tym, że jak jest precyzyjny, a jego ocena jest odporna na manipulację spamerów. Nie musimy też sięgać aż do takiej prehistorii, niedawno natrafiłem na ekstremalnie zabawny przypadek: artykuł Randa Fishkina, opublikowany w 2017 roku, pod tytułem “Czas przestać robić SEO jak w 2012 roku”. Padły w nim standardowe tezy, takie jak zerwanie z ilością słów kluczowych, zwrócenie uwagi na intencję wyszukującego, powiązywanie podobnych tematów, oderwanie się od linków, wybranie dobrego hostingu. Otóż identyczne porady o porzuceniu ilości słów kluczowych, optymalizowaniu pod intencję itd. padły również w artykule… opublikowanym w 2012 roku. 5 lat różnicy, a publicyści nadal każą rzucać te same zwyczaje! Ironia na bok, po prostu wiele aspektów SEO nie zmieniło się, wiele rzeczy nadal działa tak samo dobrze, a pojawienie się modnych terminów, takich jak “crawl budget” w 2017 nie sprawia nagle, że w 2015 byliśmy jaskiniowcami, którzy nie potrafili oszczędzać zasobów robotów indeksujących. Robiliśmy to zarówno wtedy jak i dzisiaj. Warto pamiętać, że to tylko recykling idei, pod którym nadal kryje się codzienne pozycjonowanie.

 

Rafał Grochala

Artykuł opracował:

Rafał Grochala – Head of SEO – NPROFIT

Comments

  • Damian

    Czy dobrze rozumiem, że nie należy używać znaczników strong i b jako pogrubienie słów kluczowych na podstronach? Masz z tym złe doświadczenia?

    October 9, 2018 at 8:55 am
  • wedro

    Lubię to!

    October 9, 2018 at 11:42 am
  • Rafał

    Tak, zarówno w izolowanym środowisku testowym jak i w rzeczywistych wynikach zamknięcie słów kluczowych w treści w strong/b obniża pozycje. Lata nadużywania takiej formy zwróciły się przeciwko pozycjonerom.

    October 10, 2018 at 11:17 am

Comments are closed.

THANK YOU!
If you have any questions in the meantime, please contact help@majestic.com
You have successfully registered for a Majestic Demo. A Customer Advisor will contact you shortly to schedule a suitable time to connect.