Na przestrzeni ostatnich kilku lat korzystanie z AI stało się codziennością, a narzędzia wykorzystujące AI i chatboty niemalże już nam spowszedniały. Modele językowe mogą przyspieszyć wykonywanie zadań i zwiększyć ich jakość w wielu branżach, również w SEO. Prompt engineering staje się tak naprawdę nową kompetencją, którą powinien posiadać każdy specjalista SEO, aby zwiększać efektywność codziennych zadań. O czym nie można zapomnieć, pisząc prompty? Mam dla Ciebie 8 wskazówek!

1. Określ kontekst i rolę dla modelu językowego

Pierwszym krokiem do uzyskania wysokiej jakości odpowiedzi jest nadanie AI konkretnej roli. W realnym życiu po opinię czy wykonanie usługi udajemy się do osób wyspecjalizowanych w danym temacie – po poradę prawną idziemy do prawnika, po wskazówki odnośnie do urządzenia mieszkania – do architekta wnętrz czy dekoratora, a po zaplanowanie diety – do dietetyka. 

Aby AI przygotowało nam najlepsze możliwe odpowiedzi, trzeba nadać modelowi językowemu rolę eksperta z odpowiedniej branży. Stworzenie takiej persony nie powinno się jednak zamykać tylko na nazwaniu stanowiska, np. “Pisz jak specjalista SEO”. Taka komenda może okazać się zbyt mało precyzyjna. Lepszy rezultat osiągniemy, nadając dodatkowy kontekst, np. lata doświadczenia, specjalizację w specyficznej niszy, styl komunikacji, jakim się posługuje, a nawet priorytety.

Przyjmijmy, że mamy 2 zadania: analizę treści pod kątem E-E-A-T oraz weryfikację poprawności implementacji hreflangów w kodzie strony. Do obydwóch zadań można kazać AI wcielić się w specjalistę SEO, ale na dwa różne sposoby.

  • Analiza treści pod E-E-A-T: Jesteś specjalistą SEO z 15-letnim doświadczeniem w audytowaniu jakości treści zgodnie z rygorystycznymi wytycznymi Search Quality Rater Guidelines. Skupiasz się na weryfikacji dowodów na doświadczenie autora, merytorycznej głębi publikacji oraz budowaniu autorytetu marki poprzez wiarygodne źródła. Twoja analiza opiera się na surowej ocenie zgodności z systemem Helpful Content oraz eliminowaniu ogólnikowych i małowartościowych informacji. Mówisz o konkretnych brakach w zaufaniu (Trustworthiness) i wskazujesz precyzyjne metody wzmocnienia sygnałów E-E-A-T w każdym fragmencie tekstu.
  • Weryfikacja hreflangów: Jesteś technicznym specjalistą SEO z 10-letnim stażem w optymalizacji dużych serwisów e-commerce na rynkach międzynarodowych. Skupiasz się na bezbłędnej składni kodów językowych ISO, weryfikacji wzajemności linków powrotnych oraz poprawnej implementacji tagów x-default. Twoje podejście opiera się na detekcji konfliktów w kodzie źródłowym i eliminowaniu błędów uniemożliwiających robotom Google poprawne powiązanie wersji językowych. 

2. Zastosuj grounding – zasil AI materiałami źródłowymi

Groundingiem nazywamy dodanie do promptu materiału źródłowego, z którym AI może pracować lub który AI może traktować jako źródło wiedzy. Dzięki materiałom źródłowym w postaci kodu HTML, pełnych treści artykułów konkurencji, logów serwera czy listy fraz z Google Search Console, AI będzie generowało odpowiedź w konkretnym, zamkniętym kontekście. Aby model nie pogubił się przy dużej ilości danych, warto stosować delimitery (np. tagi XML <tekst>), które jasno oddzielają instrukcje od materiału do analizy.

W SEO grounding można wykorzystać w wielu przypadkach. Przykładem będzie chęć dopracowania landingów ofertowych pod kątem mocnych stron firmy. Możemy przygotować dokument z najważniejszymi informacjami o marce, a następnie, optymalizując landing, dodać go do prompta (jako pełną treść lub w postaci embeddingu). Dokument będzie stanowił naszą bazę danych (grounding), którą posłuży się LLM. 

Innym przykładem będzie optymalizacja meta title i meta description. Do prompta możemy załączyć zescrapowane informacje o meta danych z TOP10 z SERP na konkretną frazę, które będą stanowić punkt odniesienia. 

3. Wykorzystaj tzw. chain of thought

Technika chain of thought polega na wymuszeniu na modelu przejścia przez pewien proces kilku zadań zamiast wykonania jednego skomplikowanego od razu. A więc nie dajemy modelowi jednego ogólnego zadania, np. “Przeanalizuj tekst pod kątem E-E-A-T”, tylko listę kroków do wykonania w ramach, np. “Przeanalizuj tekst pod kątem E-E-A-T w 4 krokach:

  1. Określ, czy tekst wskazuje na doświadczenie autora 
  2. Określ, które elementy treści potwierdzają ekspercką wiedzę autora
  3. Określ elementy na stronie wzbudzające autorytet marki i/lub autora
  4. Określ fragmenty tekstu, które wzbudzają zaufanie i potwierdzają wiarygodność informacji”

Takie etapowe podejście da nam pewność, że AI nie pominie lub nie zbagatelizuje ważnego aspektu zadania. Dodatkowo, pracując w ramach tej techniki, możemy łatwiej identyfikować elementy promptu do poprawy. Przykładowo, jeśli widzimy, że wynik AI odnoszący się do kroku trzeciego mógłby być bardziej szczegółowy i potrzebujemy dogłębnej analizy, nie musimy poprawiać całego promptu, a tylko część odpowiadającą za krok trzeci zadania. 

4. Podaj przykłady, czyli few-shot prompting

Technika few-shot prompting to jedna z najczęściej stosowanych metod prompt engineeringu, stosowanych wtedy, gdy nie chcemy wykorzystywać fine-tuningu. Polega ona na podaniu modelowi od 2 do 5 konkretnych przykładów „pytanie-odpowiedź” przed wydaniem właściwego polecenia. Modele językowe świetnie radzą sobie z podążaniem za określonymi wzorcami – gdy widzą gotowy schemat, automatycznie dostosowują swoją strukturę neuronową do naśladowania wskazanego w przykładzie stylu, poziomu skomplikowania języka czy sposobu argumentacji. 

Stosowanie przykładów będzie przydatne m.in. przy optymalizacji treści pod GEO (Generative Engine Optimization). Zakładając, że naszym zadaniem jest dostosowanie treści pod cytowanie w AI, możemy dodać w prompcie 2-3 przykłady tekstów zoptymalizowanych pod GEO (np. z cytatami ekspertów, odpowiednią składnią zdań bez tzw. lania wody czy statystykami liczbowymi) i 1-2 złe przykłady. W ten sposób AI nauczy się schematu, według którego ma działać, i nie będzie się domyślać, co ma zrobić.

Dodawanie przykładów to też patent na zachowanie stylu komunikacji marki. Jeśli nie chcemy, aby treści generowane z AI brzmiały tak samo jak u konkurencji albo żeby nie miały typowych sformułowań wykorzystywanych przez sztuczną inteligencję, dodajmy kilka przykładów treści pisanych w stylu, w jakim marka chce się komunikować. W ten sposób zadbamy też o wizerunek marki w internecie, a dział PR nam za to podziękuje. 

5. Określ, czego NIE MOŻE robić AI

W prompt engineeringu równie ważne jak to, co model ma zrobić, jest określenie tego, czego mu robić nie wolno. AI nie wie o blokerach, które dla nas mogą być oczywiste, albo do których już się przyzwyczailiśmy podczas codziennej pracy. Modele mają też tendencję do nadmiernego komentowania czy rozpisywania zadania na wiele czynników. Nieraz jest to przydatne, ale czasami, np. w ramach automatyzacji, okaże się kompletnie zbędne. A zamiast czyścić potem wygenerowany tekst ręcznie lub wykorzystywać kolejne prompty, może wystarczyć dodanie prostych zakazów. 

Generując treści, czy to na bloga, czy opisy produktowe lub kategorii, dodanie zakazów pomoże wyeliminować lanie wody oraz charakterystyczny, nadmiernie entuzjastyczny i sztuczny dla polskiego native speakera język, który jest typowy dla surowych wyników z modeli LLM. Taki zakaz mógłby brzmieć następująco:

“W tekście obowiązuje bezwzględny zakaz używania generycznych wstępów (np. ‘W dzisiejszym świecie’, ‘W dobie cyfryzacji’) oraz pustych fraz marketingowych (np. ‘wyjść naprzeciw oczekiwaniom’, ‘odkryj nowy wymiar jakości’, ‘rozwiązanie szyte na miarę’). Zabraniam stosowania nadmiernie entuzjastycznych przymiotników (np. ‘niesamowity’, ‘rewolucyjny’, ‘unikalny’, ‘wyjątkowy’) oraz nadużywania strony biernej. Wyklucz lanie wody, zbędne wypełniacze (tzw. fluffy content) oraz kwieciste podsumowania zaczynające się od słów ‘Podsumowując’, ‘Warto zauważyć’ lub ‘Warto pamiętać’. Pisz konkretnie, rzeczowo i merytorycznie”.

Zakazy przydadzą się również w innych zadaniach SEO, np. optymalizacji meta title i description, gdzie możemy zakazać przekraczania określonej liczby znaków, czy przy generowaniu propozycji linkowania wewnętrznego, ograniczając stosowanie generycznych anchorów typu „kliknij tutaj” lub „czytaj więcej” na rzecz opisowych i nasyconych słowami kluczowymi odnośników.

6. Zdefiniuj format outputu

Jeśli już na poziomie promptu nie zatroszczymy się o zdefiniowanie, w jakim formacie chcemy otrzymać rezultat, finalnie możemy być po prostu niezadowoleni z efektów. Stosowanie tzw. structured outputs (JSON Schema) gwarantuje, że model nie doda żadnego zbędnego komentarza i zwróci wyłącznie czysty, poprawny technicznie output. 

Jest to szczególnie istotne, jeśli wykorzystujemy prompt w różnego typu automatyzacjach, budujemy agentów czy pracujemy nad orkiestracją zadań. AI może wygenerować odpowiedź w formie Markdown, JSON, XML, CSV, HTML czy prosty TXT. Najważniejsze, abyśmy to my sami potrafili określić, jaki format będzie dla nas najlepszy. 

Załóżmy, że chcemy automatycznie importować wygenerowane wcześniej treści do systemu CMS. W takiej sytuacji wymuśmy stosowanie HTML jako formatu outputu, żeby uniknąć później ręcznego poprawiania nagłówków, list wypunktowanych czy wstawiania linków wewnętrznych.

Natomiast optymalizując dane strukturalne, możemy użyć polecenia: „Na podstawie dostarczonej treści artykułu wygeneruj kod Schema.org w formacie JSON-LD dla typu Article oraz FAQ. Wyekstrahuj co najmniej 3 najczęściej zadawane pytania z tekstu i sformatuj je jako obiekty Question i Answer. Upewnij się, że kod jest w 100% poprawny składniowo, nie zawiera błędów typu ‘trailing commas’ i jest gotowy do wklejenia bezpośrednio w sekcję head strony”.

7. Zastosuj kilka krótkich promptów zamiast jednego długiego (prompt chaining)

Jeśli zadanie, które chcemy zlecić AI, jest wielowątkowe, zamiast budowania jednego długiego prompta lepsza może okazać się metoda prompt chaining, czyli łańcucha promptów. W ramach niej tworzymy kilka promptów, którymi będziemy odpytywać model sekwencyjnie jeden po drugim.

Przy pracy na bardzo długich promptach występuje zjawisko tzw. lost in the middle – model ignoruje część wytycznych i traktuje je wybiórczo (największą uwagę przykuwa do informacji z początku i końca promptu, a te w jego środku może zignorować). Aby tego uniknąć, lepiej podzielić prompt na kilka krótszych. Wtedy LLM będzie miał mniej danych do przetworzenia jednocześnie i w 100% poświęci się każdemu z zadań z osobna, a my otrzymamy lepsze rezultaty.

W SEO prompt chaining można stosować w procesie planowania treści. Zamiast jednego długiego promptu możemy stworzyć sekwencję krótszych, gdzie każdy będzie odpowiedzialny za inne zadanie. Przykładowo, poszczególne prompty mogłyby mieć rozpisane następujące zadania:

  1. Analiza treści konkurencji, rozpisanie encji, fraz kluczowych, fraz semantycznych i nagłówków i stworzenie z tego krótkiego podsumowania
  2. Pobranie wyników SERP i ich analiza pod kątem meta title, description i serp features
  3. Wykonanie analizy fraz kluczowych wyciągniętych z odpowiedniego narzędzia
  4. Przygotowanie obszernego briefu do artykułu. 
  5. Napisanie treści na podstawie briefu.
  6. Optymalizacja treści pod kątem GEO. 
  7. Dodanie linkowania wewnętrznego. 

8. Wykorzystuj prompty systemowe 

Prompt systemowy służy do zdefiniowania stałych ram, którymi zawsze będzie kierował się model. Taki prompt umieszczamy w ustawieniach modelu, a nie w polu, w którym z nim standardowo konwersujemy. Informacje, które umieścimy w prompcie systemowym, będą zapamiętane przez model przy wszystkich kolejnych rozmowach z nim. 

W prompcie systemowym powinny znaleźć się informacje:

  • jaką rolę ma przyjąć AI,
  • jakimi wartościami się kieruje,
  • jakiego języka używa,
  • w jakim formacie ma przygotowywać odpowiedzi.

Natomiast konkretne dane i szczegóły zadania umieszczamy wtedy w promptach użytkownika. 

Pracując nad zagadnieniami SEO, w prompcie systemowym może określić z góry rolę modelu jako specjalisty SEO, nadać mu ograniczenia względem stosowania zasad GEO, unikania specyficznych wyrażeń, stosowania tagów HTML. Dodatkowo, jeśli optymalizujemy strony z jednej konkretnej branży, informacje na ten temat również warto uwzględnić.

Podsumowanie

Prompt engineering staje się jedną z kluczowych kompetencji w pracy specjalisty SEO, szczególnie w kontekście rosnącej roli AI w tworzeniu i optymalizacji treści. Umiejętne formułowanie promptów pozwala nie tylko przyspieszyć realizację zadań, ale przede wszystkim zwiększyć ich jakość, przewidywalność i spójność z założeniami biznesowymi. W praktyce oznacza to przejście od prostego „zadawania pytań” do świadomego projektowania interakcji z modelami językowymi. Wykorzystanie takich technik jak nadawanie roli, grounding, strukturyzowanie zadań czy definiowanie formatu odpowiedzi pozwala lepiej kontrolować rezultaty i efektywnie integrować AI z procesami SEO.


Autorka artykułu

Aleksandra Podżorska – SEO & SXO Specialist w DevaGroup

Pierwsze doświadczenie w marketingu internetowym zbierała jako copywriterka, a z branżą SEO związana jest od 2022 roku. Współpracowała przy audytach znanych marek i instytucji publicznych, takich jak Politechnika Krakowska, Radio Kraków Kultura, Rockwool. Na co dzień przygotowuje kompleksowe strategie i prowadzi kampanie SXO i GEO dla firm z różnych branż.

Leave a Comment

Your email address will not be published.

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>
*