AI Prompt Design

Struktura promptu

Dla uzyskania wi臋kszej kontroli nad zachowaniem modelu oraz aktualizacjami prompt贸w zaleca si臋 utrzymanie og贸lnej struktury promptu. W praktyce nie zawsze musisz korzysta膰 z wszystkich element贸w, a ich kolejno艣膰 i d艂ugo艣膰 mog膮 by膰 modyfikowane.

Elementy Struktury Promptu

  1. Rola: LLM mo偶e wciela膰 si臋 w r贸偶ne role, co nadaje kontekst konwersacji i zmniejsza dwuznaczno艣ci s艂贸w. Przyk艂ady r贸l to znana posta膰, specjalizacja (np. Senior JavaScript Developer), czy zachowanie (np. krytyk).
  2. Instrukcja: Okre艣lenie sposobu realizacji zadania, zachowa艅 modelu, zestawienie fakt贸w czy 艣ci艣le okre艣lonych zasad. Warto u偶ywa膰 formatu listy dla czytelno艣ci i 艂atwiejszej modyfikacji.
  3. Kontekst: Zestaw danych wykraczaj膮cych poza bazow膮 wiedz臋 modelu, dostarczany r臋cznie, generowany przez model lub dodany dynamicznie. Kontekst powinien by膰 wyra藕nie odseparowany od reszty promptu, zawiera膰 tylko istotne informacje, i by膰 ograniczony d艂ugo艣ciowo dla efektywno艣ci kosztowej.
  4. Przyk艂ady: Modele LLM ucz膮 si臋 z przyk艂ad贸w zawartych w prompcie (In-context Learning). Przyk艂ady mog膮 sterowa膰 zachowaniem modelu, jego uwag膮, stylem wypowiedzi, formatowaniem odpowiedzi i klasyfikacj膮 danych.
  5. Pytanie: Zestaw danych do transformacji, pytanie, polecenie czy wiadomo艣膰 b臋d膮ca cz臋艣ci膮 d艂u偶szej rozmowy. Pytanie mo偶e by膰 potraktowane przez model jako instrukcja, co trzeba uwzgl臋dni膰 w projekcie promptu.
  6. Odpowied藕 (Completion): Odpowied藕 modelu dope艂niaj膮ca prompt, kt贸ra staje si臋 cz臋艣ci膮 „Token Window”. W kontek艣cie czatu ka偶da wiadomo艣膰 staje si臋 cz臋艣ci膮 promptu, wp艂ywaj膮c na dalsze zachowanie modelu.

Podzia艂 promptu: System, User, Assistant

Podzia艂 promptu na te trzy role jest istotny w projektowaniu interakcji:

  • System: Instrukcja okre艣laj膮ca zachowanie modelu.
  • User: Wiadomo艣ci u偶ytkownika.
  • Assistant: Wiadomo艣ci AI.

Techniki Projektowania Prompt贸w

  1. Zero-shot Prompting: Model wykonuje zadanie na podstawie prostej instrukcji bez przyk艂ad贸w.
  2. One-shot / Few-shot Prompting: Podawanie przyk艂ad贸w prezentuj膮cych oczekiwane zachowanie modelu.
  3. Chain of Thought: Prowadzenie modelu przez ci膮g my艣lowy za pomoc膮 wiedzy dostarczonej przez nas lub wygenerowanej przez model.
  4. Zero-shot Chain of Thought: U偶ycie wyra偶enia „think step by step” do wyja艣nienia rozumowania modelu.
  5. Reflexion: U偶ycie wyra偶enia „let’s verify this step by step” w celu zweryfikowania odpowiedzi wygenerowanej przez model.
  6. Tree of Thoughts: Generowanie mo偶liwych scenariuszy, pog艂臋bianie ich, wyb贸r najbardziej prawdopodobnych i udzielenie odpowiedzi.
  7. SmartGPT: Kreatywne podej艣cie do projektowania i 艂膮czenia prompt贸w, rozwijane przez spo艂eczno艣膰.

Proces Projektowania Prompt贸w

  1. Szkic: Og贸lny szkic dla rozpoznania zachowania modelu.
  2. Weryfikacja: Przygotowanie zestaw贸w danych weryfikuj膮cych r贸偶ne zastosowania i scenariusze.
  3. Uruchomienie: Testowanie dzia艂ania promptu na kr贸tkich plikach i wprowadzanie poprawek.
  4. Brainstorm: Analiza z pomoc膮 GPT-4, wykrywanie nie艣cis艂o艣ci i optymalizacja d艂ugo艣ci promptu.
  5. Iteracja: Kontynuacja procesu do osi膮gni臋cia po偶膮danych rezultat贸w.

Zastosowania w Praktyce

艁膮czenie prompt贸w w praktyce mo偶e wymaga膰 generowania wielu odpowiedzi i przetwarzania danych w tle. U偶ytkownik widzi tylko ostateczn膮 odpowied藕, podczas gdy reszta krok贸w jest wykonywana automatycznie.

Optymalizacja i Kontrola

Dopracowanie prompt贸w jest kluczowe dla minimalizacji ryzyka niepo偶膮danego zachowania modelu. Korzystanie z narz臋dzi takich jak Playground pozwala na dok艂adne testowanie i optymalizowanie prompt贸w.

AI Prompt Design Quiz - sprawd藕 swoj膮 wiedz臋 z tego materia艂u odpowiadaj膮c na: 8 pyta艅.