W tym case study postaramy się przybliżyć Wam działania związane z kompleksowym audytem backlinków, które wykorzystaliśmy przy pracy nad odbudową widoczności strony naszego klienta z dosyć konkurencyjnej branży finansowej (rankingi chwilówek).

Początek współpracy i analiza

Klient zdecydował się na współpracę z Neadoo w kwietniu 2019, czyli w momencie, kiedy organiczny ruch praktycznie zbliżył się do zera. 

Przy analizie tego typu przypadków warto rozpocząć pracę od sprawdzenia historii aktualizacji algorytmów wyszukiwarki np. w searchenginejournal.com itp. Przy porównywaniu danych warto wziąć pod uwagę lokalizację, większe aktualizacje algorytmu potrafią być wdrażane miesiącami pomiędzy konkretnymi data center. Obecnie mniejsze lub większe aktualizacje zdarzają się prawie w każdym tygodniu, warto śledzić doniesienia społeczności na seroundtable.com, oficjalne informacje znajdziecie na oficjalnym profilu Google na twitterze

Analizowana strona największy spadek odnotowała na początku października, co mogło być pokłosiem aktualizacji z sierpnia 2018 r., która dotknęła stron YMYL (Your money your life).

Jeżeli zauważymy większe lub mniejsze spadki, a przyjęta strategia nie zakłada szkodliwych działań, warto wstrzymać się z większymi zmianami na stronie. Część zmian w algorytmie potrafi w przeciągu kilku tygodni zostać skorygowana, warto więc przeanalizować swoją stronę, ale jeżeli nie zauważymy większych problemów, a w top 10 znajdziemy strony niższej jakości, możemy po cichu liczyć na powrót na zajmowane wcześniej miejsce.

Analiza konkurencji nie wykazała większych spadków na domenach, które do tej pory były bezpośrednią konkurencją naszego klienta. Zakładając, że wiemy, co mogło być powodem spadków, przygotowaliśmy strategię, która krok po kroku wykluczała kolejne czynniki mogące spowodować filtr nałożony na stronę. 

  1. Kompleksowy audyt linków i przygotowanie pliku disavow
  2. Techniczny audyt strony
  3. Analiza i korekta treści
  4. Optymalizacja profilu linkowego


Audyt linków przychodzących i przygotowanie disavow

Audyt linków pozwolił nam na poznanie obecnego profilu domeny, zwracając uwagę na opisane poniżej statystyki i informacje dotyczące pozyskanych linków, przygotowaliśmy listę ok 10% domen linkujących do strony klienta, które powinny zostać usunięte oraz dodane w dedykowanym pliku disavow. 

Standardowy audyt linków przychodzących można przygotować przy wykorzystaniu prostego arkusza zawierającego najważniejsze dane. Do analizy najlepiej wykorzystać informacje pochodzące z kilku źródeł np. GSC i Majestic. 

Podstawowe dane przydatne w analizie linków to między innymi:

  • statystyki witryny (np. TrustFlow, CitationFlow dla danych z majestica) 
  • typ linku
  • anchor
  • url, na który prowadzi dany link
  • tematyka domeny
  • tytuł strony z odnośnikiem

Bardziej zaawansowane analizy można wzbogacić też o szczegółowe dane np. dotyczące ilości linków wychodzących i przychodzących do danej domeny, ilość odnośników pozyskanych z zaufanych stron np. .gov itp.

Aby usprawnić analizę, warto wybrać tylko jeden url pochodzący z danej domeny i usunąć duplikaty, które mogły powstać podczas importu danych z kilku źródeł.

Przy analizie zwróciliśmy także uwagę na dosyć szybki przyrost linków, gdzie w przeciągu 5 miesięcy mogliśmy zanotować przyrost linków o 400%. W tym przypadku były to tematycznie powiązane domeny o wysokim DR. Naszą uwagę zwróciły jednak wpisy oznaczone jako artykuły sponsorowane, które mogły wskazywać na nienaturalnie pozyskane odnośniki.

Jeżeli klienci korzystali wcześniej z usług płatnej publikacji artykułów, warto sprawdzić, czy wpisy zostały odpowiednio podlinkowane w danym serwisie. Z doświadczenia wiemy, że zdarzają się sytuację, w których wykupiona publikacja zostaje dodana bez odnośnika wewnątrz serwisu, co uniemożliwia skuteczną indeksację danego wpisu, a co za tym idzie linku prowadzącego do domeny klienta.

Mimo że skuteczność zrzekania się szkodliwych linków za pomocą narzędzia disavow tool jest kwestią sporną, wychodzimy z założenia, że lepiej zrobić wszystko, co możliwe w kwestii pozbycia się szkodliwych linków. Dodatkowo po zaktualizowaniu pliku disavow, ze względu na możliwą karę algorytmiczną związaną z nienaturalnym profilem linkowym, zdecydowaliśmy się na zmianę i przekierowanie części najbardziej podejrzanych adresów URL. Tego typu filtr może okazać się pomocny w krytycznych sytuacjach.

Optymalizacja profilu linkowego

Ze względu na to, że zastany profil linkowy oparty był w większości na artykułach sponsorowanych, zdecydowaliśmy się na naturalizację odnośników tak, aby dopasować profil do bardziej naturalnych proporcji słów kluczowych, odnośników brandowych, jak i rozkładu linków w strukturze witryny. 

Warto pamiętać, że naturalnego profilu linkowego nie możemy zaplanować, czy przewidzieć. W opisywanym przypadku staraliśmy się dostosować zastany profil linkowy, tak aby naśladował bardziej naturalne schematy. Według naszych założeń ostatecznie zmianie powinno ulec 40% anchorów oraz url’i użytych w wykupionych artykułach.

źródło: https://www.screamingfrog.co.uk/web-scraping/

Proces pozyskiwania adresów kontaktowych do właścicieli domen został zautomatyzowany z wykorzystaniem narzędzia screaming frog, które pozwoliło nam wyciągnąć adresy kontaktowe z większości domen. Poniżej przykład funkcji możliwych do wykorzystania przy tego typu działaniach. Do pozyskiwania adresów e-mail z danych stron można wykorzystać też gotowe rozwiązania np. hunter.io .

Następnie utworzyliśmy odpowiedni schemat, który wykorzystaliśmy przy automatycznej wysyłce wiadomości do właścicieli/redaktorów danych portali. Dedykowany szablon zawierał nazwę domeny, prośbę oraz anchor i url, który chcieliśmy poddać zmianie. 

Ostatecznie w kilka tygodni udało nam się osiągnąć 70% skuteczności w planowanej zmianie linków. 

Pozostałe działania

Techniczny audyt strony

Poza analizą i optymalizacją profilu linkowego staraliśmy się wykluczyć wszystkie możliwe błędy, które zostały popełnione przy budowie oraz dalszych działaniach na stronie. Największe podejrzenia wzbudziły w nas błędy związane z implementacją AggregateRating, czyli danych strukturalnych, które pozwalają na wyświetlanie oceny gwiazdkowej w SERPach podobnie jak na poniższym zrzucie. Błędne wdrożenie tego typu elementów może skończyć się filtrem, a co za tym idzie utratą wypracowanych pozycji. Jeżeli zdecydujemy się na implementację tego typu rozwiązań, zróbmy to w możliwie najbardziej naturalny sposób, wykorzystując dane strukturalne pasujące do typu strony. Poniżej przykład zastosowania tego elementu przez konkurencję naszego klienta.

Analiza treści

Po przeanalizowaniu contentu, na podstronach, które wcześniej bardzo dobrze radziły sobie w wynikach, zdecydowaliśmy się na naturalizację części tekstów. Poprzez odsycenie ich z nadmiernej ilości fraz użytych często w formie docelowej.

Finalne rezultaty

Nasze działania przyniosły pierwsze rezultaty w listopadzie 2019, po prawie 7 miesiącach od rozpoczęcia prac. 

Jak widać na poniższych zrzutach, z dnia na dzień kolejne podstrony uzyskiwały utracone ponad rok wcześniej pozycje, przeskakując z pozycji 19-20 bezpośrednio na miejsca 1-3.

Na przełomie listopada/grudnia udało się w pełni odzyskać utracone pozycje, notując dalsze wzrosty i generując ruch z kolejnych fraz.

Obecnie strona notuje topowe pozycje dla konkurencyjnych fraz

TL;DR

Jeżeli mierzysz się ze spadkami, nie panikuj – zapoznaj się z informacjami dotyczącymi możliwych zmian algorytmu, zrób ponowny audyt swojej witryny w poszukiwaniu możliwych błędów i obserwuj ruchy konkurencji w wynikach wyszukiwania. Przeanalizowanie swoich działań i naprawa błędów, które poczyniliśmy wcześniej (możliwe, że dana technika przynosiła kiedyś rezultaty, obecnie warto skupić się na możliwie jak najbardziej naturalnych sposobach pozycjonowania Twojej strony) może przynieść wspaniałe rezultaty nawet po wykluczeniu Twojej strony z topowych pozycji na ponad rok.

Analizując profil linkowy, skupcie się nie tylko na wykluczeniu szkodliwych linków, warto zbadać także strukturę odnośników, tematykę witryn i wszystkie elementy, które mogą wskazywać na to, że linki nie zostały pozyskane w naturalny sposób.

Warto pamiętać, że jeżeli trzymamy się dobrze zaplanowanej strategii opartej na udoskonalaniu swojej strony, nie powinniśmy się martwić nagłymi spadkami. Jeżeli wyprzedzają Cię gorsze jakościowo strony, zmiana algorytmu może zostać cofnięta, a my możemy odzyskać zajmowane wcześniej pozycje.


Artykuł opracował:

Paweł Gront – Starszy specjalista SEO w Neadoo Digital. Prywatnie współautor bloga spakowani.com.


THANK YOU!
If you have any questions in the meantime, please contact help@majestic.com
You have successfully registered for a Majestic Demo. A Customer Advisor will contact you shortly to schedule a suitable time to connect.