Jakub Alizade Sani

Wraz z biegiem czasu wokół branży SEO narasta ilość mitów z nią związanych. Poniżej prezentujemy 5 mitów SEO, które przygotował i omówił Jakub Alizade Sani z seohouse, oto one:

1) Przewaga starszych domen nad nowymi w odniesieniu do aktywności SEO

Bardzo często rozmawiamy o „wieku” domeny w kontekście SEO i potencjalnej wyższości nad nowo zarejestrowanymi domenami. Jednak tak często jak ten temat jest poruszany, tak często pomijamy fakt iż jest to stosunkowo nieistotne kiedy domena została po raz pierwszy zarejestrowana. Kluczową rolę odgrywają tutaj takie kwestie jak;

– Kiedy po raz pierwszy odwiedził ją bot indeksujący

– Czy przez te wszystkie lata wstecz w sposób ciągły funkcjonowała, była aktualizowana – zgłoszony patent 0039:

gp-0039

– Jakiego typu treści były wcześniej na domenie – zgłoszone patenty 0097 / 0098:

gp-0097-0098

– Jakie interakcje zachodziły pomiędzy treściami i jakie linki pozostały w profilu linkowym domeny – zgłoszone patenty 0115 / 0116:

gp-0115-0116

Wówczas domeny tego typu w rzeczywistości mogą już mieć zarówno historię pozytywną (np. pozostałe wysokiej jakości linki i treści jakie możemy odtworzyć) jak i negatywną (filtry za przeszłe przewinienia związane np. z linkami). Dopiero będąc w pełni świadomym powyższego, możemy świadomie odpowiedzieć na pytanie czy starsza domena w konkretnym przypadku będzie bardziej wartościowa od nowej. Kluczem sukcesu jest tutaj brak stagnacji w postaci zaparkowania domeny na wiele lat czy też wyświetlania pod nią strony z błędem typu 4xx.

*Istotna uwaga dot. patentów Google. Pamiętajmy, że zgłoszenie patentu przez Google nie musi wcale oznaczać jego realnego wykorzystania tu i teraz w algorytmie wyszukiwarki. Jest to opcja, którą Google może wziąć pod uwagę w momencie takiej decyzji.

2) Znacząca wartość linków ze stron z rozszerzeniem .edu / .gov

Niejednokrotnie słyszeliśmy i jeszcze usłyszymy o dużej wartości linków z domen typu .edu bądź .gov ze względu na ogromny autorytet tego typu stron. Jak dowiadujemy się, jest wręcz bezcenna. Niestety przez te wszystkie lata w związku z powyższym nastawieniem i chęcią znaczącej poprawy swojego rankingu pozycji – zdążyliśmy już wystarczająco za-spamować tego typu miejsca.

Co dodatkowo potwierdza John Mueller w jednym ze swoich tweetów jako ignorowanie przez Google linków z domen .edu w związku z dużą ilością spamu tam znajdujących się.

Oczywiście weźmy pod uwagę fakt, że link – linkowi nierówny. Biorąc pod uwagę jakość ponad ilość, im trudniej o dany link – tym więcej docelowo wartości przyniesie dla naszej strony. Nie bądźmy jednym z wielu linków na stronie. Bądźmy tym jednym z kilku.

3) Filtr Google za duplikację treści

Bardzo często możemy przeczytać, że treści odgrywają bardzo istotną rolę obok linków. Co nie powinno dziwić. Z podobną częstotliwością dowiadujemy się też o licznych filtrach w związku marną jakością treści w obrębie witryny czy też spamowym profilem linkowym. Jednak biorąc pod uwagę fakt iż duplikacja treści jest bardzo powszechna w sieci, zarówno dla stron informacyjnych jak i eCommerce – nie możemy bezpośrednio przypisać zależności duplikacja treści=filtr. Możemy na to spojrzeć przez pryzmat niezadowalających efektów kampanii niżeli typowych karach za naruszenie wytycznych Google.

Google już teraz dobrze radzi sobie z ignorowaniem stron z’duplikowanych poprzez częsty brak nagradzania tego typu stron w wynikach wyszukiwań. Piszę „częsty”, ponieważ zważywszy na różne okoliczności danego przypadku – zachowanie algorytmu może być różne. Dążenie do ideału to seria prób. Z przeważającą ilością tych nieudanych. Pisząc wprost, nie uzyskamy wystarczająco satysfakcjonujących nas efektów widoczności SEO naszego serwisu w perspektywie długofalowej przy wykorzystaniu treści z’duplikowanych / nisko-merytorycznych. Stąd też tak istotny staje się audyt treści w poszukiwaniu „luk” w treści.

4) Nasycenie tekstu frazami

Skupianie się jedynie na frazach kluczowych w treści i ilości ich powtórzeń – nie jest celem samym w sobie. Jest to zazwyczaj strata czasu i odejście od głównego celu przekazania istoty treści. Przygotowując dowolną treść dla Twojej grupy odbiorców – istotna jest jej merytoryczność i możliwie jak najszersze rozwinięcie tematu o wątki poboczne. Rozumiane jako dodatkowe intencje.

Google przy każdej nadarzającej się okazji potwierdza iż radzi sobie coraz lepiej ze zrozumieniem przekazu Twojej treści bez dopasowywania wyszukiwanej frazy przez użytkownika do znalezionych słów na stronie.

Wobec tego skupienie się na realnych problemach Twojej grupy jako kompleksowych tematów do rozwiązania ma większy sens niż skupienie się na pojedynczych frazach i sztywnym ich ulokowaniu w rozłożeniu procentowym.

5) Disavow Links Tool jest bezużyteczne w przeciwdziałaniu linkom spamowych

W związku z ciągłym procesem doskonalenia algorytmu Google i komunikatów związanych z automatyzacją procesów czy też wykrywaniem/przeciwdziałaniu nienaturalnych tendencji – należy do tego typu tematów podchodzić z pewną dozą ograniczonego zaufania.

W przypadku tego drugiego (automatyczne wykrywanie/przeciwdziałanie), wbrew komunikatom o bezproblemowym wykrywaniu linków własnych (dodanych przez właścicieli stron) i linków w związku z negatywnym SEO (dodanych przez osoby trzecie) – nigdy nie możemy być pewni jak to zadziała w praktyce. Google może nie wiedzieć czy linki odwołujące się do Twojej witryny zostały dodane świadomie czy też nie. Być może zostały dodane w celu obniżenia Twojego rankingu Google. Nie teraz, to może w przyszłości. Google może jedynie je zobaczyć i w odpowiednim czasie zareagować nakładając filtr.

Po wypuszczeniu Pingwina 4.0 (działanie w czasie rzeczywistym) nadal mieliśmy potwierdzenie iż Google Disavow Tool ma się świetnie i nic nie uległo zmianie wobec jego użycia w przypadku spamowych linków.

Artykuł opracował:
Jakub Alizade Sani, Head of SEO – iProspect.