-
nowość
-
promocja
Prompt engineering. Projektowanie aplikacji z wykorzystaniem LLM - ebook
Prompt engineering. Projektowanie aplikacji z wykorzystaniem LLM - ebook
Duże modele językowe (ang. large language models) są fundamentem istnienia wielu nowoczesnych aplikacji. LLM mogą realizować szeroki zakres zadań i służą do rozwiązywania złożonych problemów. Jednak projektowanie niezawodnych rozwiązań z wykorzystaniem modeli wymaga opanowania zupełnie nowych kompetencji.
Dowiedz się, na czym polega skuteczne komunikowanie się z modelami LLM i w jaki sposób przekuwać śmiałe pomysły w działające aplikacje. Poznaj filozofię działania modeli i kluczowe techniki inżynierii promptów: od pozyskiwania i oceny kontekstu, przez konstruowanie efektywnych promptów, aż po tworzenie szablonów gwarantujących wysoką jakość odpowiedzi. W książce znajdziesz także opis bardziej zaawansowanych technik, takich jak konstruowanie pętli, potoków i przepływów pracy czy budowa agentów konwersacyjnych. Poznasz też metody oceniania modeli LLM.
A ponadto:
- zrozumiesz architekturę modeli LLM i nauczysz się je stosować
- zaprojektujesz przemyślaną strategię tworzenia promptów
- nauczysz się budować kontekst i przekształcać go w skuteczne zapytania
- opanujesz najlepsze praktyki w tworzeniu aplikacji opartych na LLM
Styl autorów sprawia, że tematyka promptów staje się dostępna dla każdego!
Hamel Husain, niezależny badacz i konsultant
Spis treści
Część I. Podstawy
- 1. Wprowadzenie do inżynierii promptów
- Modele językowe to magia
- Modele językowe: Jak do tego doszliśmy?
- Wczesne modele językowe
- GPT wkracza na scenę
- Inżynieria promptów
- Podsumowanie
- 2. Modele językowe - wprowadzenie
- Czym są duże modele językowe?
- Kończenie dokumentu
- Myślenie człowieka a przetwarzanie danych przez modele językowe
- Halucynacje
- Jak modele językowe postrzegają świat?
- Różnica 1: Modele językowe używają deterministycznej tokenizacji
- Różnica 2: Modele językowe nie potrafią zwolnić i analizować poszczególnych liter
- Różnica 3: Modele językowe inaczej postrzegają tekst
- Zliczanie tokenów
- Po jednym tokenie na raz
- Modele autoregresyjne
- Wzorce i powtórzenia
- Temperatura i prawdopodobieństwo
- Architektura transformerów
- Podsumowanie
- Czym są duże modele językowe?
- 3. Przejście do czatu
- Uczenie przez wzmacnianie na podstawie informacji zwrotnych do człowieka
- Proces budowania modelu RLHF
- Utrzymywanie rzetelności modeli językowych
- Unikanie nietypowych zachowań
- RLHF daje wiele korzyści niewielkim kosztem
- Uważaj na koszty dostosowania
- Przejście od instrukcji do konwersacji
- Modele instrukcyjne
- Modele konwersacyjne
- Zmiany w interfejsie API
- Interfejs API uzupełniania czatu
- Porównanie konwersacji z uzupełnianiem
- Od konwersacji do narzędzi
- Projektowanie promptów jako sztuka dramatopisarska
- Podsumowanie
- Uczenie przez wzmacnianie na podstawie informacji zwrotnych do człowieka
- 4. Projektowanie aplikacji LLM
- Anatomia pętli
- Problem użytkownika
- Przekształcanie problemu użytkownika na model dziedziny
- Użycie LLM do uzupełniania promptu
- Powrót do dziedziny użytkownika
- Przyjrzyjmy się bliżej przejściu w przód
- Tworzenie prostego przejścia w przód
- Zagadnienie złożoności pętli
- Ocenianie jakości aplikacji LLM
- Ocena offline
- Ocena online
- Podsumowanie
- Anatomia pętli
Część II. Podstawowe techniki
- 5. Treść promptu
- Źródła treści
- Treści statyczne
- Wyjaśnienie zapytania
- Prompty z kilkoma przykładami
- Treść dynamiczna
- Odkrywanie dynamicznego kontekstu
- Generacja wspomagana wyszukiwaniem
- Podsumowywanie
- Podsumowanie
- 6. Konstruowanie promptu
- Anatomia idealnego promptu
- Jaki to rodzaj dokumentu?
- Konwersacja z prośbą o radę
- Raport analityczny
- Dokument strukturalny
- Formatowanie fragmentów
- Więcej o bezwładności
- Formatowanie przykładów do promptów
- Elastyczne fragmenty
- Powiązania pomiędzy elementami promptów
- Położenie
- Ważność
- Zależność
- Połączenie wszystkich elementów
- Podsumowanie
- 7. Okiełznanie modelu
- Anatomia idealnego uzupełnienia
- Wstęp
- Rozpoznawalny początek i koniec
- Uwaga końcowa
- Nie tylko tekst: Logarytmy prawdopodobieństw
- Jak dobra jest generowana treść?
- Stosowanie modeli LLM do klasyfikacji
- Kluczowe miejsca promptu
- Wybór modelu
- Podsumowanie
- Anatomia idealnego uzupełnienia
Część III. Ekspert sztuki
- 8. Sprawczość konwersacyjna
- Stosowanie narzędzi
- Modele LLM przystosowane do korzystania z narzędzi
- Wytyczne dotyczące definiowania narzędzi
- Rozumowanie
- Rozumowanie krok po kroku
- ReAct: Interaktywne rozumowanie i działanie
- Nie tylko ReAct
- Kontekst interakcji bazujących na zadaniach
- Źródła kontekstu
- Wybór i organizacja kontekstu
- Tworzenie agenta konwersacyjnego
- Zarządzanie konwersacjami
- Doświadczenia użytkownika
- Podsumowanie
- Stosowanie narzędzi
- 9. Przepływy pracy korzystające z modeli LLM
- Czy interfejs konwersacyjny wystarczy?
- Podstawowe przepływy pracy korzystające z LLM
- Zadania
- Tworzenie przepływu pracy
- Przykładowy przepływ pracy: Marketing wtyczek do Shopify
- Zaawansowane przepływy pracy korzystające z modeli LLM
- Umożliwienie agentowi LLM sterowania przepływem pracy
- Agenty zadaniowe z pamięcią stanu
- Role i delegacje
- Podsumowanie
- 10. Ocena aplikacji korzystających z modeli LLM
- Co właściwie testujemy?
- Ocenianie offline
- Przykłady zestawów testowych
- Poszukiwanie próbek
- Ocenianie rozwiązań
- Oceny SOMA
- Testy online
- Testy A/B
- Metryki
- Podsumowanie
- 11. Rzut oka w przyszłość
- Multimodalność
- Doświadczenie użytkownika i interfejs użytkownika
- Inteligencja
- Podsumowanie
- Multimodalność
| Kategoria: | Programowanie |
| Zabezpieczenie: |
Watermark
|
| ISBN: | 978-83-289-2988-3 |
| Rozmiar pliku: | 12 MB |