Struktura promptu
Dla uzyskania wi臋kszej kontroli nad zachowaniem modelu oraz aktualizacjami prompt贸w zaleca si臋 utrzymanie og贸lnej struktury promptu. W praktyce nie zawsze musisz korzysta膰 z wszystkich element贸w, a ich kolejno艣膰 i d艂ugo艣膰 mog膮 by膰 modyfikowane.
Elementy Struktury Promptu
- Rola: LLM mo偶e wciela膰 si臋 w r贸偶ne role, co nadaje kontekst konwersacji i zmniejsza dwuznaczno艣ci s艂贸w. Przyk艂ady r贸l to znana posta膰, specjalizacja (np. Senior JavaScript Developer), czy zachowanie (np. krytyk).
- Instrukcja: Okre艣lenie sposobu realizacji zadania, zachowa艅 modelu, zestawienie fakt贸w czy 艣ci艣le okre艣lonych zasad. Warto u偶ywa膰 formatu listy dla czytelno艣ci i 艂atwiejszej modyfikacji.
- Kontekst: Zestaw danych wykraczaj膮cych poza bazow膮 wiedz臋 modelu, dostarczany r臋cznie, generowany przez model lub dodany dynamicznie. Kontekst powinien by膰 wyra藕nie odseparowany od reszty promptu, zawiera膰 tylko istotne informacje, i by膰 ograniczony d艂ugo艣ciowo dla efektywno艣ci kosztowej.
- Przyk艂ady: Modele LLM ucz膮 si臋 z przyk艂ad贸w zawartych w prompcie (In-context Learning). Przyk艂ady mog膮 sterowa膰 zachowaniem modelu, jego uwag膮, stylem wypowiedzi, formatowaniem odpowiedzi i klasyfikacj膮 danych.
- Pytanie: Zestaw danych do transformacji, pytanie, polecenie czy wiadomo艣膰 b臋d膮ca cz臋艣ci膮 d艂u偶szej rozmowy. Pytanie mo偶e by膰 potraktowane przez model jako instrukcja, co trzeba uwzgl臋dni膰 w projekcie promptu.
- Odpowied藕 (Completion): Odpowied藕 modelu dope艂niaj膮ca prompt, kt贸ra staje si臋 cz臋艣ci膮 „Token Window”. W kontek艣cie czatu ka偶da wiadomo艣膰 staje si臋 cz臋艣ci膮 promptu, wp艂ywaj膮c na dalsze zachowanie modelu.
Podzia艂 promptu: System, User, Assistant
Podzia艂 promptu na te trzy role jest istotny w projektowaniu interakcji:
- System: Instrukcja okre艣laj膮ca zachowanie modelu.
- User: Wiadomo艣ci u偶ytkownika.
- Assistant: Wiadomo艣ci AI.
Techniki Projektowania Prompt贸w
- Zero-shot Prompting: Model wykonuje zadanie na podstawie prostej instrukcji bez przyk艂ad贸w.
- One-shot / Few-shot Prompting: Podawanie przyk艂ad贸w prezentuj膮cych oczekiwane zachowanie modelu.
- Chain of Thought: Prowadzenie modelu przez ci膮g my艣lowy za pomoc膮 wiedzy dostarczonej przez nas lub wygenerowanej przez model.
- Zero-shot Chain of Thought: U偶ycie wyra偶enia „think step by step” do wyja艣nienia rozumowania modelu.
- Reflexion: U偶ycie wyra偶enia „let’s verify this step by step” w celu zweryfikowania odpowiedzi wygenerowanej przez model.
- Tree of Thoughts: Generowanie mo偶liwych scenariuszy, pog艂臋bianie ich, wyb贸r najbardziej prawdopodobnych i udzielenie odpowiedzi.
- SmartGPT: Kreatywne podej艣cie do projektowania i 艂膮czenia prompt贸w, rozwijane przez spo艂eczno艣膰.
Proces Projektowania Prompt贸w
- Szkic: Og贸lny szkic dla rozpoznania zachowania modelu.
- Weryfikacja: Przygotowanie zestaw贸w danych weryfikuj膮cych r贸偶ne zastosowania i scenariusze.
- Uruchomienie: Testowanie dzia艂ania promptu na kr贸tkich plikach i wprowadzanie poprawek.
- Brainstorm: Analiza z pomoc膮 GPT-4, wykrywanie nie艣cis艂o艣ci i optymalizacja d艂ugo艣ci promptu.
- Iteracja: Kontynuacja procesu do osi膮gni臋cia po偶膮danych rezultat贸w.
Zastosowania w Praktyce
艁膮czenie prompt贸w w praktyce mo偶e wymaga膰 generowania wielu odpowiedzi i przetwarzania danych w tle. U偶ytkownik widzi tylko ostateczn膮 odpowied藕, podczas gdy reszta krok贸w jest wykonywana automatycznie.
Optymalizacja i Kontrola
Dopracowanie prompt贸w jest kluczowe dla minimalizacji ryzyka niepo偶膮danego zachowania modelu. Korzystanie z narz臋dzi takich jak Playground pozwala na dok艂adne testowanie i optymalizowanie prompt贸w.
Time's up