Prompty i komendy to jedne z częściej pojawiających się haseł dotyczących korzystania z sztucznej inteligencji. Nadal, w 2026 roku ludzie spędzają czas na tworzeniu magicznych promptów, wiele poradników się na tym skupia, a posty z takimi informacjami zbierają duże zasięgi.
Problem w tym, że obecne modele językowe są na tyle dobre, że dla większości ludzi prompt enginerring nie jest w ogóle potrzebny. Dużo ważniejsze jest dostarczenie kontekstu, i umiejętność myślenia, i wiedza o tym jak działa AI, i czym różni się rozmowa AI z człowiekiem.
Część promptów to po prostu informacja o tym jak można korzystać z sztucznej inteligencji. Tak jest np. w przypadku komendy: „znajdź słabe punkty mojego rozumowanie, przyjmij krytyczną postawę”. Tu nie ma znaczenia jakich słów i jakiej konstrukcji komendy użyjemy, ważne jest to żeby pamiętać że ai może być użyte do wstępnego wykrywania problemów i słabych punktów.
Może to działać rożnie w zależności od zadań, tak więc często najlepszym rozwiązaniem jest analiza odpowiedzi, i doprecyzowanie promptu w kolejnej komendzie.
Spis treści
Skąd się wzięła popularność haseł takich jak „promptowanie” i „prompt engineer”?
W pierwszych szeroko dostępnych modelach językowych odpowiednia struktura wiadomości była kluczowa. A jeszcze bardziej istotne to było w przypadku sztucznej inteligencji generującej grafiki, które choć bazowały na tekście, nie miały wbudowanego typowego modelu językowego. W 2022 roku , kiepsko napisany prompt sprawiał że wygenerowany obrazek w ogóle nie przypominał tego co chcieliśmy uzyskać. W przypadku tekstu, można było uzyskać dużo lepszy efekt, jeśli odpowiednie zbudowało się prompta.
Obecnie Chat GPT czy Nano Banana generują wszystko bez problemu. Tzn. nadal robią błędy, nadal można mieć problem z uzyskaniem konkretnego efektu, ale jeśli poprosimy o dowolną rzecz, np. o wygenerowanie zdjęcia butów, to uzyskamy grafikę z butami. Mogą się pojawić błędy z kończynami i inne artefakty, ale praktycznie nie zdarza się żeby na grafikach był szum, wiele rozmytych elementów, czy absurdalna liczba kończyn.
Dzieje się tak, ponieważ generatory grafik dostępne w Groku, Chat GPT czy Gemini przetwarzają tekst wiadomości użytkownika, jeśli prośba o grafikę nie jest odpowiednio skonstruowana. Jeśli napiszesz: „Wygeneruj Drzewo”, to moduł graficzny nie startuje z punktu „drzewo”, a otrzymuje on komende typu: Rozłożyste drzewo, Dąb lub Buk, rosnące na pustym polu pokrytym trawą, drzewo jest oświetlone promieniami wieczornego słońca…” itd.
W przypadku starszych modeli (czy prostszych, tańszych współczesnych modeli), nie każdy sposób promptowania jest intuicyjny. Wynika to z tego że te modele są po prostu gorsze + nie mają „nakładki” ułatwiającej korzystanie z danego modelu. Taką nakładką jest np. prompt systemowy, oraz dostrojenie za pomocą finetuningu.
Niektóre modele graficzne nie mają rozwiniętego modułu językowego bo nie jest on niezbędny, zamiast tego umożliwiają precyzyjne generowanie zdjęć za pomocą odpowiedniej struktury.
Na początku, potrzebna była nazwa na bardziej zaawansowane korzystanie z sztucznej inteligencji (z poziomu użytkownika, nie twórcy modeli).
Problem ten istnieje do dzisiaj, choć jest on mniejszy bo sztuczna inteligencja jest bardziej popularna. I użytecznym terminem jest np. operator AI, albo po prostu świadomy użytkownik, użytkownik AI, czy AI entuzjasta.
W 2023 roku ten problem był większy.
Przed publikacją Chatu GPT 3, osoby zajmujące się sztuczną inteligencją, byli na ogół doświadczonymi programistami, czy specjalistami od big data. Był więc duży próg wejścia, bo żeby tworzyć rzeczy użyteczne, trzeba było mieć wiele lat doświadczenia.
Udostępnienie modeli językowych i graficznych otworzyło nową „podbranżę” sztucznej inteligencji. Okazało się że już po 2-3 miesiącach intensywnego używania Chata GPT, można było mieć umiejętności i wiedzę która była przydatna dla innych ludzi. I tu pojawia się pytania, jak osoba tworząca poradniki albo kursy, ma się nazywać? W przypadku wielu zagadnień marketingowo-biznesowych, używa się po prostu słów takich jak: „ekspert”, czy „specjalista”. Mamy więc np. ekspertów od Canvy, specjalistów od sprzedaży, czy ekspertów od Excela.

Natomiast pojęcie Ekspert AI było domyślnie zarezerwowane dla ludzi którzy umieją tworzyć modele od zera.
Ponieważ główną czynnością wykonywaną przy korzystaniu z Chat GPT było pisanie promptów, które wtedy miały większe znaczenie, terminy takie jak promptowanie czy promt engineering stały się bardziej popularne.
Przy czym już od samego początku nie był to najlepszy termin. Wiele umiejętności korzystania z AI nie opierało się na samych promtach. Przykładowo, początkowo Chat GPT nie miał dostępu do internetu, nie można też było do niego wgrywać plików. Natomiast dość szybko powstały wtyczki dające takie funkcję, przy czym instalowanie ich wymagało testowania i pewnej wiedzy.
Wysyp poradników i szkoleń „100 promtów do Chat GPT”.
Nie widzę nic złego w sprzedawaniu poradników i szkoleń, nawet takich tworzonych po 2 miesiącach nauki (poza tymi szkoleniami o tym jak się szybko wzbogacić). Są dziedziny gdzie potrzeba wielu lat doświadczenia żeby stworzyć coś wartościowego, są zagadnienia które nie są dobrze zbadane, i które opierają się na tym że ktoś przetestował na szybko działające opcje. Tak więc opłaca się przetworzyć np. 150 godzin researchu w coś co da się przyswoić w 3 godziny, dzięki czemu można uniknąć częstych pomyłek.
Przy czym nie wszystkie kursy faktycznie dają użyteczną wiedzę. Wiele kiepskich poradników dotyczących AI, miało właśnie w tytule „100 użytecznych promtów”, później się pojawiły wersje na 1000 komend itd.
Choć część dobrych poradników miało taką liczbę w nazwie z powodów marketingowych. Część promtów była w rzeczywistości informacją o tym do czego można użyć AI.
Czym jest prompt engineering?
Można znaleźć wiele definicji, w szerszym znaczeniu każde świadome pisanie promptów i testowanie modeli tu pasuje. Natomiast według mnie, ważny jest tu „pierwiastek inżynierski”, czyli podejście techniczne, oparte na znajomości działania modeli, bądź oparte na pewnej metodologii przy testach, czymś więcej niż samej intuicji.
W szczególności jest to istotne przy wersjach deweloperskich, gdzie można ustawić wiele parametrów (np. temperaturę), i gdzie zwraca się uwagę na koszt odpowiedzi.
Zaawansowane prompty to np.: Metacognitive prompting, który wygląda mniej więcej tak: Odpowiedz na pytanie, a następnie oceń swoją odpowiedź w skali 1–10 pod względem pewności. Wskaż co mogłeś pominąć lub w czym możesz się mylić.
Pytanie: Jakie będą główne trendy w AI w 2027 roku?
Inne złożone podejścia to np. Tree-of-thought (drzewo myśli) Skeleton-of-thought (szkielet myśli), Prompt chaining (łańcuch myśli, często połączony z pętlami).
Do tego dochodzi odpowiednia struktura, z znacznikami w postaci XML lub markdown, czy pisanie promta w postaci struktury np. Json.
Przy czym należy uważać na myślenie magiczne, nie zawsze bardziej złożony prompt jest lepszy. Json czasem działa lepiej, bo w czasie pisania takiego prompta człowiek porządkuje myśli, potem taką strukturę można zapisać w inny sposób.
I nawet w przypadku programowania, gdzie wpływ złożonych promtów jest bardziej widoczny, zaskakująco dobrze działa pisanie „jak jaskiniowiec” (a dokładniej, wymaganie żeby Claude pisał jak jaskiniowiec.
Prompt, żeby był promptem (a nie po prostu tekstem w Chat GPT), powinien mieć szerokie zastosowanie. Tzn. technicznie każda wiadomość którą wysyłamy modelowi to prompt, natomiast tu chodzi o traktowanie danego tekstu jako czegoś ważnego, co warto rozpowszechniać w listach promptu. Prompt typu: ” podaj słabe strony tego planu”, to bardziej po prostu „use case”, czyli przykład użycia AI.
Co każdy powinien wiedzieć o promtach i rozmowach z modelami AI?
Podstawą jest analiza odpowiedzi, i pisanie kolejnej komendy eliminującej błędy. W ten sposób można sobie poradzić z dowolnym problemem. Jeśli otrzymamy satysfakcjonującą odpowiedź od razu, to nie tracimy wtedy czasu na tworzenie rozbudowanych promptów, a jeśli sztuczna inteligencja nie zaspokoi naszych potrzeb, możemy wtedy użyć dodatkowych komend.
Jeśli wielokrotnie korzystamy z podobnego podejścia, można poprosić model żeby napisał prompt za nas. Czasami użyteczne jest poproszenie o taki promt na samym początku.
Drugą zasadą jest kontekst, oraz podstawowa znajomość działania modeli językowych, i w jaki sposób rozmowa z modelem różni się od rozmowy z człowiekiem. Jeśli rozmawiasz z prawdziwą osobą, to ona na starcie zna wie już o Tobie parę rzeczy, podstawowy kontekst jest również przy pisaniu przez internet. Jak komentujesz jakiś post, to każdy widzi do czego odnosi się dany komentarz. Działanie AI można sobie wyobrazić w taki sposób: otwierasz komunikator, i widzisz losową wiadomość od losowej osoby. Na ogół, gdy otrzymuje się losowe wiadomości, to zakłada się że to jest spam czy reklamy. W tym wypadku może to być dowolna osoba na świecie, w dowolnej sytuacji, może to być nastolatek z Argentyny piszący zadanie domowe, może to być prezes dużej firmy z USA szukający rozwiązania biznesowego, albo rolnik z Niemiec.
Dodatkowo, dobrze jest znać minimalnie podstawy tego jak modele językowe działają. W skrócie, modele językowe opierają się na połączeniach między słowami. Dla uproszczenia, można sobie wyobrazić chmurę tagów, czy słowa umieszone na tablicy (osi współrzędnych), choć tak naprawdę jest to wielowymiarowa przestrzeń. Cała wiedza modelu jest zapisana w relacjach między słowami. Słowa „woda” „wrzenie” „100” „stopień” „Celsjusz” są stosunkowo blisko siebie, dlatego model potrafi odpowiedzieć w jakiej temperaturze wrze woda. Skąd wiemy jak rozmieścić słowa? Za tym stoi cały proces trenowania modeli, który zużywa dużo więcej energii niż korzystanie z niego.
Często do uzyskania lepszej odpowiedzi wystarczy wkleić tekst (np. z wikipedii), albo wgrać pliki, i wtedy nie jest konieczne zaawansowane promptowanie, choć jest to dobrą podstawą do złożonych promtów.
Co z tego wynika?
Nie zawsze musisz się przejmować gramatyką. Modele znają gramatykę (potrafią w końcu pisać poprawne teksty), natomiast Nie zawsze gramatyka jest niezbędna. Czasem możesz po prostu użyć ciągu słów, albo dodać słowa na końcu. Możesz też korzystać z innych struktur (np. zagnieżdżonej listy numerowanej). Czasami wygodniej się myśli, jeśli nie przejmuje się gramatyką.
Wspominałem o połączeniach między słowami. Skojarzenia na których dany model bazuje, czasami się różnią od tego jak ludzie intuicyjnie kojarzą słowa. Ponieważ w wielu przypadkach jest duże podobieństwo (bez tego model by nie był użyteczny), można o tym zapomnieć. Często inne połączenia są błędem, a czasami są one użyteczne (czasem takie inne połączenia są bliskie rzeczywistości, mimo że ludzie nie myśleli w dany sposób, czasami daje to wrażenie prawdziwej kreatywności modelu).
Jak tę wiedzę wykorzystać?
Choć nie istnieją magiczne prompty, to „magiczne słowa” w konkretnych przypadkach jak najbardziej istnieją. Czasami jedno słowo lub fraza może psuć efekt, i zamiana takiego elementu na inny, lub dodanie innego słowa może przynieść zaskakująco dobry efekt.
Najważniejsza zasada: wyobraźnia
Nie myśl „jak napisać dobry prompt”. Myśl „z kim chcę porozmawiać i co ta osoba powinna o mnie wiedzieć”.
Zamiast pytać: „Jak negocjować podwyżkę?”, wyobraź sobie konkretną osobę:
„Jesteś HR-owcem z 15 latami doświadczenia, który przeprowadził setki rozmów o podwyżkach, z obu stron stołu. Właśnie powiedziałem szefowi, że chcę rozmawiać o wynagrodzeniu. Co powinienem zrobić przed tym spotkaniem?”
Możesz też wyobrazić sobie całą scenę, nie tylko rozmówcę, ale okoliczności, presję, kontekst. Im bardziej konkretny obraz, tym lepsza odpowiedź. Wyobraźnia pozwala napisać lepszy prompt, pozwala to zwrócić uwagę na elementy o których się zapomniało. Podczas wyobrażania sceny, możesz zwrócić uwagę na wystrój wnętrza, i choć sam opis pokoju może nie mieć znaczenia, to w ten sposób model może uzyskać informacje o wielkości firmy i jej randze. Użyteczne jest tez budowanie „pseudo profilu psychologicznego”. HRowiec, poza bycie Haerowcem,
Słynny, podstawowy prompt”
Ten jeden prompt warto znać. Ma on szerokie zastosowania, jest to podstawowy prompt gdy zwykłe pisanie intuicyjne przestaje działać. Ma on też szerokie mozliwości modyfikacji, pokazuje on jak można rozbijać prompty. Warto też pamiętać że forma wpływa na treść, jeśli poprosimy model o stworzenie tabeli, a potem o napisanie tesktu na podstawie tabeli, to uzyskamy inny efekt niż gdy poprosimy od razu o tekst.
Słynny prompt składa się z 4 elementów (choć popularne są też wersje mające 3 lub 5 elementów).
[ROLA] + [KONTEKST] + [TEMAT] + [FORMA]
[ROLA] Jesteś ogrodnikiem z 20-letnim doświadczeniem w uprawie roślin tropikalnych. [KONTEKST] Mam monsterę kupioną 8 miesięcy temu — od kilku tygodni liście żółkną od brzegów, a nowe przyrastają małe i blade. [TEMAT] Zdiagnozuj problem. [FORMA] Podaj trzy możliwe przyczyny, jeden prosty test diagnostyczny i listę rzeczy, których nie powinienem robić.
Im więcej elementów wypełnisz, tym mniej model AI będzie zgadywał.
Podstawowe złożone prompty. Można je ze sobą łączyć.
| Technika | Przykład | Kiedy stosować |
| Jasne instrukcje | Napisz 3-zdaniowe podsumowanie dla dziecka | Zawsze |
| Podawanie przykładów | Uwielbiam kawę → pozytywny / Sklasyfikuj: Film był nudny | Klasyfikacja |
| Pokazywanie kroków | Rozwiąż i pokaż każdy krok myślenia | Matematyka, logika |
| Format wyjścia | Odpowiedz w formacie JSON | Integracje, dane |
| Negatywne instrukcje | Nie używaj żargonu. Nie pisz więcej niż 100 słów | Za ogólny wynik |
| Lista kroków | 1. Lista pomysłów 2. Wybierz najlepsze 3. Uzasadnij | Złożone działania |
Kiedy prompt engineering nadal ma sens?
Prompt engineering nadal ma zastosowanie w określonych przypadkach. Przede wszystkim jest to istotne dla bardziej zaawansowanych osób, np. jeśli ktoś korzysta z wersji deweloperskiej, to lepsze prompty oznaczają niższy koszt. Podobnie jest w przypadku programowania.
Jeśli tworzy się chatbota z którym będą rozmawiały inne osoby, np. klienci firmy pytający się o produkty, to tym bardziej trzeba się upewnić że model będzie poprawnie odpowiadał na pytania.
W przypadku korzystania z modeli stawianych lokalnie, oraz modeli budowanych od zera (a dokładniej, dostrajanych otwarto źródłowych modelach, bo mało kto ma możliwości tworzyć model całkowicie od zera), specjalna struktura promptów jest w szczególności istotna.
Ostatnią grupą jest tworzenie zaawansowanych grafik, np. w Midjourney, choć w Chat GPT i Nano banana też da się ten efekt osiągnąć. Jeśli chcemy mieć większą kontrolę nad tym co model generuje, użyteczne są ustrukturyzowane prompty.
Promptowanie w codziennym użytku.
Są również przypadki gdy prompty przydają się przy zwykłym korzystaniu z modeli językowych (lub graficznych). Jeśli wiele razy potrzebujesz podobnej rzeczy, np. piszesz wiele tekstów na stronę, które muszą być w podobnym stylu, to użyteczne jest stworzenie jednego prompta, zamiast wymyślać wszystko na nowo. Najważniejsze rzeczy dobrze jest dodać do instrukcji chatu (polecania któr wpływa na wszystkie odpowiedzi w danym wątku, czy w danej aplikacji.
Innym przykładem jest deep search. Jeśli model ma pracować przez kilka-kilkanaście minut, dobrze jest się upewnić że będzie robił użyteczne rzeczy.
Czas pracy modelu.
W wielu modelach językowych czas pracy zależy od rodzaju komendy. Czasami zdarza się że pomimo wybrania zaawansowanego modelu, otrzymujemy jedynie krótką i mało rozbudowaną odpowiedź, a model pracował dość krótko. W takim wypadku dodanie komend wydłużających czas pracy przynosi dobre efekty.
Można poprosić o dłuższy tekst, albo o analizę odpowiedzi po napisaniu, i napisaniu jej jeszcze raz.
Inna ważna metoda to: podawanie przykładu odpowiedzi (przydatne w szczególności gdy model ma przetworzyć wiele elementów w podobny sposób).
Analogicznie, można tez podać przykłady negatywne, czyli to czego model ma nie robić.
Bardziej zaawansowane prompty do codziennego użytku.
Poniższe przykłady to klocki, z których można składać wiele różnych promptów.
Lista kroków (wiele komend w jednej wiadomości).
Pisałem że na ogół, najprostszym rozwiązaniem jest zwykła rozmowa, i dopiero wtedy gdy natknie się na problem, konieczne jest dodawanie nowych komend na podstawie odpowiedzi.
Czasami jednak dobrze jest ten proces przyśpieszyć, poza tym w pewnych sytuacjach lepsza odpowiedź można uzyskać jeśli model przeprowadzi „rozumowanie” w jednej odpowiedzi.
Lista kroków to po prostu lista numerowana (albo punktowa, albo po prostu parę komend po kolei).
Przykład
Chcę poznać wszystkie sporty wodne podobne do surfingu, zrób też opis pojęć i sprzętu.
Zacznij od przeanalizowania poniższej listy, i zrób lepszy plan.
- Zrób listę wszystkich sportów typu surfing, windsurfing
- Przeanalizuj ją, i dodaj nowe dyscypliny
- Upewnij się że zrobiłeś listę wszystkich dyscyplin, przeszukuj aż uznasz że jest kompletna, może być dowolna lista dyscyplin
- Pogrupuj je według podobieństwa i sprzętu
- Wspomnij o dalszych sportach wodnych (np. żeglarstwo, tam gdzie to jest w miarę podobne)
- Zrób listę wszystkich pojęć używanych w tych sportach
- Podziel je na te charakterystyczne dla surfingowych, i te szersze żeglarskie
- Opisz sprzęt w każdej dyscyplinie
- Usuń z tekstu ozdobniki, wstawki typu „wyobraź sobie”, pisz jak człowiek ale bez udawanego luzu, po prostu merytorycznie pisz.
- Przeanalizuj wszystko i znajdź błędy, co po prawić, i potem napisz to jeszcze raz.
W tym wypadku, na początku dodałem kontekst, a potem dodałem listę. Jeśli nie chce się nam pisać ręcznie listy, można poprosić model żeby sam stworzył sobie listę.
[Chcę poznać wszystkie sporty wodne podobne do surfingu, zrób wielostopniony plan badania i porządkowania sportów, potem dodaj pojęcia] .
Na potrzeby eksperymentu, testowałem Gemini Pro.
Następnie przetestowałem tego prompta z prostymi prośbami o zrobienie listy sportów surfingowych [Chcę poznać wszystkie sporty wodne podobne do surfingu], i okazało się że… wszystkie prompty tworzą listę ok 11-12 elementów, różniącą się dwoma przykładami.
Przy czym najbardziej rozbudowany prompt wyróżniał się uporządkowanymi pojęciami, i całość była lepiej rozbudowana, natomiast zależało mi na tym żeby pokryć wszystkie dyscypliny.
Dodałem więc punkt: [Upewnij się że zrobiłeś listę wszystkich dyscyplin, przeszukuj aż uznasz że jest kompletna, może być dowolna lista dyscyplin], ale zwiększył on listę kategorii jedynie do 15 elementów,
Dodałem więc punkt [Załóż że ma być ich 50, jak nie dojdziesz do 50 to napisz gdzie się zatrzymałeś.], i model podał 31 elementów (i wszystkie były użyteczne, nie było tu zmyślania.
Później poprosiłem model o napisanie uniwersalnego prompta, ponieważ pisanie o 50 elementów nie jest zbyt eleganckim rozwiązaniem, zwłaszcza że dane zagadnienie może mieć więcej niż 50 elementów, opisuje to w dalszej części artykułu.
Ale znalazłem jeszcze prostsze rozwiązanie, wystarczy w drugiej komendzie poprosić o rozbudowaną, maksymalnie większą listę, a jeśli chce się to mieć w jednym prompcie, można po prostu napisać: „Zwykłe zapytania dają krótką listę. napisz mi jakiego narzędzia AI najlepiej do tego użyć”
Komenda: Zwykłe zapytanie nie robi tego czego chcę.
Potężna, uniwersalna komenda. Jeśli mamy problem z osiągnięciem danego efektu, można po prostu napisać na końcu wiadomości że „modele językowe mają z tym problem” np. robią tekst „za krótki”, umieszczają za mało elementów, za dużo, piszą w dziwnym stylu, dają zbyt wiele zdobników itd.
Inne złożone prompty
0. Znaczniki
Czasami jedna fraza może znacząco zmienić tryb działania modelu. Jeśli chcesz się upewnić, że model odpowiednio traktuje poszczególne elementy, warto użyć wyraźnego formatowania lub tagów HTML. W modelach z rodziny Claude (Anthropic) szczególnie dobrze działają znaczniki przypominające XML (np. <kontekst>, <instrukcja>, <dane_wejsciowe>), które pomagają uporządkować treść i zwiększają precyzję odpowiedzi.
Natomiast modele z serii GPT od OpenAI lepiej radzą sobie z klasycznym Markdownem. Nagłówki (np. ### Instrukcje), pogrubienia czy listy punktowane są dla nich bardziej naturalne i zazwyczaj prowadzą do bardziej przejrzystych oraz trafnych rezultatów niż użycie tagów XML.
1. Metacognitive prompting (Struktura Autorefleksji)
Używaj, gdy potrzebujesz sprawdzić wiarygodność odpowiedzi AI.
ZADANIE: [Tu opisz swój problem/pytanie] STRUKTURA ODPOWIEDZI: > 1. Podaj bezpośrednią odpowiedź. 2. Oceń swoją pewność w skali 1–10. 3. Wypunktuj potencjalne słabe punkty w Twoim rozumowaniu lub informacje, których Ci brakuje, by być w 100% pewnym.
2. Constitutional prompting (Struktura Zasad)
Używaj, gdy chcesz, aby AI trzymało się sztywnych reguł gry (np. etycznych lub technicznych).
ROLA: Jesteś [Wpisz rolę, np. Doradcą Finansowym]. ZASADY (Twoja Konstytucja):
- [Zasada 1, np. Nigdy nie polecaj kryptowalut]
- [Zasada 2, np. Zawsze podawaj źródło danych]
- [Zasada 3, np. Jeśli nie znasz odpowiedzi, napisz: „Nie wiem”] PYTANIE: [Tu wpisz treść zapytania]
3. Tree-of-thought (Struktura Drzewa Myśli)
Używaj do skomplikowanych dylematów, gdzie chcesz porównać różne strategie.
PROBLEM: [Opisz dylemat] PROCES:
- Rozważ 3 skrajnie różne podejścia do tego problemu.
- Dla każdego podejścia wypisz: [Zalety], [Wady] oraz [Ryzyko].
- Na końcu dokonaj syntezy i wybierz jedno, najbardziej optymalne rozwiązanie, uzasadniając wybór.
4. Skeleton-of-thought (Struktura Szkieletu)
Używaj przy tworzeniu bardzo długich treści, aby nie stracić kontroli nad strukturą.
TEMAT: [Wpisz temat dokumentu/artykułu] ETAP 1: Przygotuj tylko logiczną strukturę nagłówków. Nic nie pisz. Czekaj na moją akceptację. ETAP 2 (Po akceptacji): Rozwiń sekcję [Numer sekcji] w sposób [np. techniczny/prosty]. ETAP 3: Przekształć całość w [np. format prezentacji/listę kontrolną].
5. Self-consistency (Struktura Samospójności)
Używaj do zadań logicznych, matematycznych lub tam, gdzie łatwo o błąd.
ZADANIE: [Wpisz zadanie logiczne/obliczeniowe] INSTRUKCJA: Rozwiąż to zadanie 3 razy, stosując za każdym razem inną ścieżkę dedukcji. Porównaj wyniki. Jeśli są identyczne – podaj odpowiedź. Jeśli się różnią – przeanalizuj, gdzie powstał błąd w każdej z wersji i spróbuj rozwiązać problem ponownie.
6. ReAct pattern (Struktura Myśl-Działanie-Obserwacja)
Używaj do bardzo złożonych zadań analitycznych, gdzie model musi „symulować” działanie krok po kroku.
CEL: [Wpisz cel, np. Wybór najlepszego laptopa z tabeli] PROCEDURA: Wykonuj zadanie iteracyjnie wg schematu:
- MYŚL: Co już wiem, a czego muszę się dowiedzieć?
- AKCJA: Co teraz sprawdzam/liczę/porównuję?
- OBSERWACJA: Co wynika z tej konkretnej akcji? Powtarzaj, dopóki nie osiągniesz CELU.
7. Prompt chaining (Struktura Łańcuchowa)
Używaj do projektów wieloetapowych (nie dawaj wszystkiego naraz).
KROK 1: [Zadanie podstawowe, np. Stwórz profil klienta]. Po zakończeniu napisz „GOTOWE”. KROK 2: Na podstawie profilu z KROKU 1 [Zadanie kolejne, np. napisz scenariusz rozmowy sprzedażowej]. KROK 3: Na podstawie KROKU 2 [Zadanie finałowe, np. wypisz listę potencjalnych obiekcji].
8. Adversarial prompting (Struktura Ataku i Obrony)
Używaj, aby sprawdzić, czy Twój pomysł lub tekst „przetrwa” krytykę.
MÓJ POMYSŁ: [Opisz pomysł/prompt] ZADANIE:
- Wciel się w rolę [Krytyka/Hakera/Sceptyka] i znajdź 5 słabych punktów, przez które mój pomysł może zawieść.
- Następnie zaproponuj nową, ulepszoną wersję mojego pomysłu, która jest odporna na te 5 punktów krytyki.
9. Kontekst warunkowy (Struktura „Jeśli-To”)
Używaj, gdy pracujesz z różnymi typami odbiorców lub scenariuszami.
ROLA: Jesteś ekspertem od [Dziedzina]. WARUNKI ODPOWIEDZI:
- JEŚLI mój problem dotyczy [Scenariusz A] -> odpowiadaj w sposób [Styl 1].
- JEŚLI mój problem dotyczy [Scenariusz B] -> odpowiadaj w sposób [Styl 2].
- JEŚLI nie potrafisz określić scenariusza -> zadaj mi pytanie pomocnicze. PODSUMOWANIE: Każda odpowiedź musi kończyć się [np. jednym zadaniem domowym dla mnie].
Zaawansowne prompty z praktycznych przykładem.
Łańcuch Myślenia (Chain of Thought)
Kiedy używać: Gdy potrzebujesz precyzyjnych wyliczeń, logistyki lub zależy Ci na tym, by sztuczna inteligencja nie pominęła żadnego ważnego szczegółu.
Mam następujący problem do rozwiązania: [Opisz problem/sytuację w 1-2 zdaniach]. Zanim zaproponujesz ostateczne rozwiązanie, przeanalizuj to krok po kroku. Obowiązkowo weź pod uwagę następujące ograniczenia:
- [Zmienna/Ograniczenie 1, np. budżet, czas]
- [Zmienna/Ograniczenie 2] Na podstawie tej dedukcji, podaj mi najlepszy plan działania.
Uniwersalne Drzewo Decyzyjne (Tree of Thought)
Kiedy używać: Gdy stoisz przed wyborem i potrzebujesz świeżego spojrzenia na różne opcje, bez zamykania się na jedno rozwiązanie.
Szablon:
Muszę podjąć decyzję w sprawie: [Wpisz swój cel/dylemat]. Zaproponuj [Liczba, np. 3] zupełnie różne, niezależne od siebie ścieżki podejścia do tego tematu. Dla każdej ze ścieżek:
- Wypisz krótko 3 główne kroki do jej realizacji.
- Wskaż największe ryzyko (minus).
- Wskaż największą szansę (plus). Na koniec zestaw te opcje w czytelnej tabeli porównawczej.
Reduktor Przytłoczenia (Least-to-Most)
Kiedy używać: Kiedy masz przed sobą ogromny projekt i nie wiesz, od czego zacząć, co powoduje prokrastynację.
Szablon:
Moim celem jest: [Opisz duży, przytłaczający projekt]. Rozbij ten cel na [Liczba, np. 4-5] głównych, chronologicznych etapów. Następnie weź TYLKO Etap 1 i rozbij go na [Liczba, np. 3] najmniejsze, konkretne zadania, które mogę wykonać w ciągu najbliższych 24 godzin. Nie analizuj kolejnych etapów, dopóki Cię o to nie poproszę.
Pętla Autokorekty (Self-Refine)
Kiedy używać: Gdy tworzysz ważny tekst, ofertę lub plan i chcesz od razu przetestować go na „trudnym odbiorcy”.
Szablon:
Wykonaj to zadanie w trzech krokach. Krok 1: Stwórz pierwszą wersję [Co chcesz napisać, np. maila z odmową, planu treningowego] dla [Kto jest odbiorcą]. Krok 2: Wciel się w rolę [Opisz krytyka, np. surowego prawnika, bardzo wymagającego klienta] i wypunktuj 3 największe słabości lub luki w tej pierwszej wersji. Krok 3: Biorąc pod uwagę tę krytykę, napisz ostateczną, ulepszoną wersję. W odpowiedzi pokaż mi tylko wyniki Kroku 2 i Kroku 3.
Osobisty Audytor (Metoda Sokratejska)
Kiedy używać: Gdy sam nie wiesz, czego chcesz, i potrzebujesz, żeby AI pomogło Ci poukładać myśli w głowie.
Szablon:
Mierzę się z problemem: [Krótki opis dylematu]. Nie podawaj mi gotowego rozwiązania. Zamiast tego wejdź w rolę wnikliwego coacha/doradcy. Zadaj mi JEDNO konkretne pytanie, które pomoże mi odkryć moje prawdziwe priorytety lub ukryte przeszkody w tej sprawie. Poczekaj na moją odpowiedź, przeanalizuj ją i zadaj kolejne pytanie. Będziemy to kontynuować, aż sam dojdę do wniosku.
Tworzenie własnych promptów
Natknąłem się na problem tego że model generował krótką listę dyscyplin podobnych do surfingu (nawet gdy miałem rozbudowany prompt, i prosiłem maksymalnie rozbudowaną listę).
Opisałem więc modelowi problem:

Otrzymałem przyczynę zjawiska, oraz konkretne porady:
Aby zmusić model do faktycznego wyczerpania tematu, musisz uderzyć w trzy kwestie: zakazać skracania, wymusić metodyczną analizę (krok po kroku) i poinstruować, co zrobić po osiągnięciu limitu znaków.
Otrzymałem gotowego prompta:
Prompt do tworzenia złożonej listy zagadnień.
„Twoim celem jest stworzenie absolutnie wyczerpującej, w 100% kompletnej listy wszystkich elementów z tej dziedziny, włączając w to rzadkie nisze, warianty poboczne i formy historyczne. Zanim zaczniesz pisać, przeanalizuj temat systematycznie, kategoria po kategorii.
Obowiązują Cię następujące zasady:
- Zakaz skracania: Nie używaj zwrotów takich jak 'i inne’, 'na przykład’, 'w tym’, 'etc.’. Wypisz wszystko.
- Zakaz grupowania pod jednym hasłem: Jeśli dyscyplina ma wyraźnie odrębne odgałęzienia wymagające innego sprzętu lub środowiska, wypisz je jako osobne punkty.
- Kontynuacja do wyczerpania: Generuj listę dopóki nie skończą Ci się w pamięci jakiekolwiek znane elementy pasujące do kryteriów.
- Limity: Jeśli uderzysz w limit długości swojej odpowiedzi i urwiesz tekst w połowie, po prostu skończ w miejscu, w którym Ci przerwano, a ja napiszę 'kontynuuj’.”
Efekt? 70 elementów. Część trochę naciąganych, ale w tym wypadku łatwe jest odfiltrowanie nadmiarowych elementów, takich jak sketeboarding, snowboarding, czy podział Windsurfingu na Wave, Speed i Freestyle, ostatecznie uzyskałem solidną bazę 53 dziedzin
Jest to „modelowy” prompt, użyteczny, ale trzeba go mieć gdzieś zapisanego, konieczny jest system notatek, albo przypięcie go w schowku (skrót Windows + V) .
Poprosiłem więc model o skrócenie go:
Wypisz wszystkie elementy z tej dziedziny bez wyjątku. Nie używaj 'itp.’ ani nie streszczaj – wymień każdą, nawet najrzadszą niszę jako osobny punkt. Generuj aż do całkowitego wyczerpania wiedzy. Jeśli urwie Cię limit odpowiedzi, poczekaj, aż napiszę 'kontynuuj’.
Prompt ten działał, zrobił podobną listę 50 elementów.
Poprosiłem więc model o dalsze skrócenie: , efektem jest taki prompt [Wypisz wyczerpująco 100% elementów, bez 'itp.’ i streszczania. Pisz do odcięcia. W razie ucięcia czekaj na 'kontynuuj’]
Uzyskałem więc krótki prompt, którego da się zapamiętać. Sprawdziłem tez czy ostatnie zdanie jest potrzebne (okazało się że nie wpływa na efekt). Gemini proponował je, bo starsze modele miały mniejszy limit znaków
Czy nie można było do tego użyć po prostu funkcji Deep Search?
Oczywiście że można było. I w wielu przypadkach, takie podejście jest prostsze. Zwykła, intuicyjna komenda w deep search:
[Zrób rozbudowana listę sportów wodnych typu surfing. Uwzględnij różną budowę sprzętu. Zależy mi na jak największej liście, jak najwięcej elementów].
Dała lepszy wynik niż rozbudowane zapytania w Gemini Pro. Dochodzimy tu do fundamentalnego problemu, często wybór innego narzędzia wnosi więcej niż lepsze prompty. Czasami Grok, Claude czy Chat GPT działa lepiej przy takim samym zapytaniu. A czasem lepszy efekt daje Deep Search.
Przy czym wadą Deep Search jest to że zajmuje on wiele czasu, tak więc jeśli wielokrotnie robimy tę samą rzecz, to użyteczny jest dobry prompt.
Skąd wiadomo czego użyć do danego zadania?
Na ten moment nie ma prostego rozwiązania. Podczas pisania tego tekstu, zauważyłem niewykorzystaną niszę.
Modele językowe „nie znają” wszystkich funkcji danej aplikacji. Stąd np. Gemini całkowicie pomija właśnie funkcję Deep Search.
Jest tez wiele agregatorów narzędzi (np. There is An AI for That), ale one są gigantycznym zbiorem rozmaitych programów, robiących konkretne funkcje. Są też tam modele językowe, ale nie ma opcji podania konkretnego zadania, komendy, i zapytania które narzędzie sobie z tym najlepiej poradzi. W gruncie rzeczy, wystarczyłby tu spis kilkunastu/kilkudziesięciu narzędzi wraz z ich funkcjami, obsługiwany przez model językowy.
Najprostsze rozwiązania są najlepsze
Tak jak pisałem wcześniej, zamiast analizować czemu model językowy zatrzymuje się przy 11-15 elementach, wystarczy w komendzie napisać że modele mają z tym problem.
„Zrób rozbudowana listę sportów wodnych typu surfing. Uwzględnij rożną budowę sprzętu. Zależy mi na jak największej liście, jak najwięcej elementów. na końcu zrób długa listę różnych dyscyplin. Zwykłe zapytania dają krótką listę. napisz mi jakiego narzędzia AI najlepiej do tego użyć”
Dodatkowo, żeby uzyskać złożoną listę, wystarczyło po pierwszej odpowiedzi, poprosić o maksymalnie rozbudowany spis kategorii.
Konkretne, wąskie zastosowania
W tym fragmencie opisałem dość wąskie zastosowanie. Większość ludzi nie ma potrzeby robienia złożonych list zagadnień z rozmaitych tematów. Choć z drugiej strony, gdy spojrzymy liczbowo, to za pewne jest na świecie kilkaset tysięcy, czy nawet parę milionów osób które się tym zajmują.
Wniosek?
Wiele promtów ma sens, ale gdy są one podpięte od razu pod konkretne zastosowania. Ktoś kto robi research, korzysta z wielu narzędzi (programistycznych, czy „myślowych”, czyli metod postępowania, metodologii”), i jednym z takich narzędzi mogą być odpowiednie prompty.
Czyli w wielu przypadkach, wychodzi się od konkretnego problemu, i w nim znajduje się informacje o promptach, a nie na odwrót, gdzie z listy promtów szuka się zastosowania.
Są oczywiście ogólne prompty (które podałem w tym tekście) ale wystarczy znać kilka podstawowych żeby rozwiązywać większość problemów.
Jak uczyć się „promptowania”, jak skuteczniej używać modeli językowych?
Najlepszą drogą jest znalezienie takich zadań prywatnych czy zawodowych, gdzie korzystanie z modeli językowych ułatwia pracę. Ale można też robić typowe ćwiczenia, czy po prostu się bawić modelem.
Generowanie grafik i programów, nawet jeśli one Ci się nie przydadzą.
Łatwiej jest ocenić grafikę lub program, niż tekst. W przypadku np. obrazu zegara, jeśli wskazówki pokazują złą godzinę, to mamy konkretną informacje co jest do poprawy. Ocena tekstów jest bardziej płynna.
Podobnie jest w przypadku programów. Choć jest tu opcja pośrednia, gdy program działa, ale nie jest użyteczny, to ocena skuteczności promptów jest tu prostsza.
Programy możesz tworzyć i uruchamiać w wszystkich największych modelach językowych (Gemini, Chat GPT, Claude, Grok). Podobnie jest z grafikami (poza Claude, bo tam nie jest to możliwe)
Pisanie artykułów, raportów, na własny użytek.
Jeśli dajemy modelowi złożone zadanie, łatwiej można ocenić efekt. W przypadku luźnej rozmowy, jest to trudniejsze. Artykuły pisanie przez IA przydają się często przy researchu, można w ten sposób uzyskać szerszy, bardziej przekrojowy opis tematu.
Jail breaking, czyli obchodzenie blokad.
Modele językowe (oraz generatory grafik), maja pewne zabezpieczenia chroniące przed pisaniem niebezpiecznych treści, czy po prostu treści NSFW. Czasami te zabezpieczenia są zbyt mocne, bo praktycznie nie jest możliwe zrobienie idealnego systemu. Co więcej, czasami całkowicie bezpieczne słowo, sprawia że model myśli że całość ma być „niebezpieczna”.
Obchodzenie takich blokad daje jasny sygnał że dany sposób promptowania jest skuteczny. Model początkowo „nie chciał” czegoś stworzyć, udało się go „przekonać”, mamy zerojedynkowe potwierdzenie że udało się rozwiązać problem.
Jeśli nie chcemy ryzykować, można skorzystać z narzędzi tworzonych typowo do bawienia się jailbreakingiem, np. Gandalf.AI. W tym wypadku, zamiast tworzyć materiały wybuchowe, teksty z przekleństwami, brutalnością, czy treści dla dorosłych, można po prostu próbować wyciągnąć hasła od czarodzieja.
Wyobraźnia i światy
Tworzenie interaktywnego opowiadania, tekstowego świata po którym się chodzi, też jest fajną zabawą, dzięki której bez wysiłku można poznać zasady rozmawiania z modelem.
Wiele promptów to tak naprawdę „use case”, czyli informacje o tym do czego można użyć sztucznej inteligencji.
Prompt typu: „przeanalizuj mój plan/tekst, znajdź słabe strony”, to tak naprawdę informacja o tym że można użyć modelu do szukania słabych punktów. Każdy konkretny komunikat, jak choćby prośba o znalezienie słabych punktów w tekście, to w gruncie rzeczy zdefiniowany use case, który odkrywa przed użytkownikiem nową funkcjonalność modelu. Nie z każdym zadaniem model radzi sobie łatwo, więc info o tym że z dany problem AI może łatwo rozwiązać, jest dość użyteczne.
Wchodzimy tu w bardziej humanistyczne podejście, przy wielu listach promptów które można znaleźć w Internecie, bardziej chodzi o to jakie człowiek ma mieć nastawienie przy korzystaniu z Chat GPT, w jaki sposób myśleć, a samo jak najefektywniejsze wykorzystanie możliwości modelu schodzi na dalszy plan.
Prompty to tak naprawdę 30% korzystania z sztucznej inteligencji.
Te procentu sobie wymyśliłem, podaję je tylko dla ilustracji. Wiele kluczowych umiejętności w pracy z AI nie ma nic wspólnego z promptami. Ktoś, kto wie że Claude świetnie radzi sobie z formatowaniem dokumentów i arkuszy kalkulacyjnych, a Gemini potrafi wygenerować prezentację gotową do edycji, zrobi więcej niż osoba, która wykuła na pamięć kilkadziesiąt szablonów promptów.
Równie ważna jest znajomość konkretnych funkcji i integracji. NotebookLM pozwala przesłać własne dokumenty i prowadzić z nimi rozmowę, co zmienia go w osobistego analityka. Perplexity przeszukuje internet w czasie rzeczywistym i cytuje źródła, więc nadaje się do researchu inaczej niż ChatGPT. Claude potrafi czytać kod, analizować pliki PDF i pracować z danymi bez żadnych wtyczek. Ktoś, kto zna te różnice, nie traci czasu na pytanie złego narzędzia o właściwą rzecz.
Osobny rozdział to vibe coding, czyli tworzenie aplikacji i narzędzi bez znajomości programowania. Zamiast uczyć się języka programowania, opisujesz co chcesz zbudować, a model generuje działający kod. Narzędzia takie jak Cursor, Lovable czy Claude Code sprawiają, że ktoś z pomysłem i bez technicznego zaplecza może dziś stworzyć własną aplikację webową, automat do wysyłki maili albo skrypt przetwarzający dane. To umiejętność zupełnie oderwana od znajomości promptów, a otwierająca znacznie większe możliwości.
Wreszcie jest kwestia automatyzacji. Make, Zapier czy n8n pozwalają łączyć modele językowe z innymi aplikacjami tak, żeby działały bez udziału człowieka. Ktoś, kto potrafi zbudować przepływ, w którym przychodzący mail jest analizowany przez AI, a wynik trafia do arkusza i wysyła powiadomienie na Slacka, ma przewagę, której żaden prompt jej nie da.