Facebook - konwersja

  • nowość
  • promocja

Prompt engineering. Projektowanie aplikacji z wykorzystaniem LLM - ebook

Wydawnictwo:
Tłumacz:
Format:
MOBI
Data wydania:
3 listopada 2025
7565 pkt
punktów Virtualo

Prompt engineering. Projektowanie aplikacji z wykorzystaniem LLM - ebook

Duże modele językowe (ang. large language models) są fundamentem istnienia wielu nowoczesnych aplikacji. LLM mogą realizować szeroki zakres zadań i służą do rozwiązywania złożonych problemów. Jednak projektowanie niezawodnych rozwiązań z wykorzystaniem modeli wymaga opanowania zupełnie nowych kompetencji.

Dowiedz się, na czym polega skuteczne komunikowanie się z modelami LLM i w jaki sposób przekuwać śmiałe pomysły w działające aplikacje. Poznaj filozofię działania modeli i kluczowe techniki inżynierii promptów: od pozyskiwania i oceny kontekstu, przez konstruowanie efektywnych promptów, aż po tworzenie szablonów gwarantujących wysoką jakość odpowiedzi. W książce znajdziesz także opis bardziej zaawansowanych technik, takich jak konstruowanie pętli, potoków i przepływów pracy czy budowa agentów konwersacyjnych. Poznasz też metody oceniania modeli LLM.

A ponadto:

  • zrozumiesz architekturę modeli LLM i nauczysz się je stosować
  • zaprojektujesz przemyślaną strategię tworzenia promptów
  • nauczysz się budować kontekst i przekształcać go w skuteczne zapytania
  • opanujesz najlepsze praktyki w tworzeniu aplikacji opartych na LLM

Styl autorów sprawia, że tematyka promptów staje się dostępna dla każdego!

Hamel Husain, niezależny badacz i konsultant

Spis treści

Wstęp

Część I. Podstawy

  • 1. Wprowadzenie do inżynierii promptów
    • Modele językowe to magia
    • Modele językowe: Jak do tego doszliśmy?
      • Wczesne modele językowe
      • GPT wkracza na scenę
    • Inżynieria promptów
    • Podsumowanie
  • 2. Modele językowe - wprowadzenie
    • Czym są duże modele językowe?
      • Kończenie dokumentu
      • Myślenie człowieka a przetwarzanie danych przez modele językowe
      • Halucynacje
    • Jak modele językowe postrzegają świat?
      • Różnica 1: Modele językowe używają deterministycznej tokenizacji
      • Różnica 2: Modele językowe nie potrafią zwolnić i analizować poszczególnych liter
      • Różnica 3: Modele językowe inaczej postrzegają tekst
      • Zliczanie tokenów
    • Po jednym tokenie na raz
      • Modele autoregresyjne
      • Wzorce i powtórzenia
    • Temperatura i prawdopodobieństwo
    • Architektura transformerów
    • Podsumowanie
  • 3. Przejście do czatu
    • Uczenie przez wzmacnianie na podstawie informacji zwrotnych do człowieka
      • Proces budowania modelu RLHF
      • Utrzymywanie rzetelności modeli językowych
      • Unikanie nietypowych zachowań
      • RLHF daje wiele korzyści niewielkim kosztem
      • Uważaj na koszty dostosowania
    • Przejście od instrukcji do konwersacji
      • Modele instrukcyjne
      • Modele konwersacyjne
    • Zmiany w interfejsie API
      • Interfejs API uzupełniania czatu
      • Porównanie konwersacji z uzupełnianiem
      • Od konwersacji do narzędzi
    • Projektowanie promptów jako sztuka dramatopisarska
    • Podsumowanie
  • 4. Projektowanie aplikacji LLM
    • Anatomia pętli
      • Problem użytkownika
      • Przekształcanie problemu użytkownika na model dziedziny
      • Użycie LLM do uzupełniania promptu
      • Powrót do dziedziny użytkownika
    • Przyjrzyjmy się bliżej przejściu w przód
      • Tworzenie prostego przejścia w przód
      • Zagadnienie złożoności pętli
    • Ocenianie jakości aplikacji LLM
      • Ocena offline
      • Ocena online
    • Podsumowanie

Część II. Podstawowe techniki

  • 5. Treść promptu
    • Źródła treści
    • Treści statyczne
      • Wyjaśnienie zapytania
      • Prompty z kilkoma przykładami
    • Treść dynamiczna
      • Odkrywanie dynamicznego kontekstu
      • Generacja wspomagana wyszukiwaniem
      • Podsumowywanie
    • Podsumowanie
  • 6. Konstruowanie promptu
    • Anatomia idealnego promptu
    • Jaki to rodzaj dokumentu?
      • Konwersacja z prośbą o radę
      • Raport analityczny
      • Dokument strukturalny
    • Formatowanie fragmentów
      • Więcej o bezwładności
      • Formatowanie przykładów do promptów
    • Elastyczne fragmenty
    • Powiązania pomiędzy elementami promptów
      • Położenie
      • Ważność
      • Zależność
    • Połączenie wszystkich elementów
    • Podsumowanie
  • 7. Okiełznanie modelu
    • Anatomia idealnego uzupełnienia
      • Wstęp
      • Rozpoznawalny początek i koniec
      • Uwaga końcowa
    • Nie tylko tekst: Logarytmy prawdopodobieństw
      • Jak dobra jest generowana treść?
      • Stosowanie modeli LLM do klasyfikacji
      • Kluczowe miejsca promptu
    • Wybór modelu
    • Podsumowanie

Część III. Ekspert sztuki

  • 8. Sprawczość konwersacyjna
    • Stosowanie narzędzi
      • Modele LLM przystosowane do korzystania z narzędzi
      • Wytyczne dotyczące definiowania narzędzi
    • Rozumowanie
      • Rozumowanie krok po kroku
      • ReAct: Interaktywne rozumowanie i działanie
      • Nie tylko ReAct
    • Kontekst interakcji bazujących na zadaniach
      • Źródła kontekstu
      • Wybór i organizacja kontekstu
    • Tworzenie agenta konwersacyjnego
      • Zarządzanie konwersacjami
      • Doświadczenia użytkownika
    • Podsumowanie
  • 9. Przepływy pracy korzystające z modeli LLM
    • Czy interfejs konwersacyjny wystarczy?
    • Podstawowe przepływy pracy korzystające z LLM
      • Zadania
      • Tworzenie przepływu pracy
      • Przykładowy przepływ pracy: Marketing wtyczek do Shopify
    • Zaawansowane przepływy pracy korzystające z modeli LLM
      • Umożliwienie agentowi LLM sterowania przepływem pracy
      • Agenty zadaniowe z pamięcią stanu
      • Role i delegacje
    • Podsumowanie
  • 10. Ocena aplikacji korzystających z modeli LLM
    • Co właściwie testujemy?
    • Ocenianie offline
      • Przykłady zestawów testowych
      • Poszukiwanie próbek
      • Ocenianie rozwiązań
      • Oceny SOMA
    • Testy online
      • Testy A/B
      • Metryki
    • Podsumowanie
  • 11. Rzut oka w przyszłość
    • Multimodalność
      • Doświadczenie użytkownika i interfejs użytkownika
      • Inteligencja
    • Podsumowanie
Kategoria: Programowanie
Zabezpieczenie: Watermark
Watermark
Watermarkowanie polega na znakowaniu plików wewnątrz treści, dzięki czemu możliwe jest rozpoznanie unikatowej licencji transakcyjnej Użytkownika. E-książki zabezpieczone watermarkiem można odczytywać na wszystkich urządzeniach odtwarzających wybrany format (czytniki, tablety, smartfony). Nie ma również ograniczeń liczby licencji oraz istnieje możliwość swobodnego przenoszenia plików między urządzeniami. Pliki z watermarkiem są kompatybilne z popularnymi programami do odczytywania ebooków, jak np. Calibre oraz aplikacjami na urządzenia mobilne na takie platformy jak iOS oraz Android.
ISBN: 978-83-289-2988-3
Rozmiar pliku: 12 MB

BESTSELLERY

Menu

Zamknij