reklama - zainteresowany?

Prompt engineering. Projektowanie aplikacji z wykorzystaniem LLM - Helion

Prompt engineering. Projektowanie aplikacji z wykorzystaniem LLM
ebook
Autor: John Berryman, Albert Ziegler
Tytuł oryginału: Prompt Engineering for LLMs: The Art and Science of Building Large Language Model-Based Applications
Tłumaczenie: Piotr Rajca
ISBN: 978-83-289-2988-3
stron: 256, Format: ebook
Księgarnia: Helion

Cena książki: 89,00 zł

Książka będzie dostępna od września 2025

Tagi: Sztuczna inteligencja

Du

Spis treści

Prompt engineering. Projektowanie aplikacji z wykorzystaniem LLM eBook -- spis treści

Wstęp

Część I. Podstawy

  • 1. Wprowadzenie do inżynierii promptów
    • Modele językowe to magia
    • Modele językowe: Jak do tego doszliśmy?
      • Wczesne modele językowe
      • GPT wkracza na scenę
    • Inżynieria promptów
    • Podsumowanie
  • 2. Modele językowe - wprowadzenie
    • Czym są duże modele językowe?
      • Kończenie dokumentu
      • Myślenie człowieka a przetwarzanie danych przez modele językowe
      • Halucynacje
    • Jak modele językowe postrzegają świat?
      • Różnica 1: Modele językowe używają deterministycznej tokenizacji
      • Różnica 2: Modele językowe nie potrafią zwolnić i analizować poszczególnych liter
      • Różnica 3: Modele językowe inaczej postrzegają tekst
      • Zliczanie tokenów
    • Po jednym tokenie na raz
      • Modele autoregresyjne
      • Wzorce i powtórzenia
    • Temperatura i prawdopodobieństwo
    • Architektura transformerów
    • Podsumowanie
  • 3. Przejście do czatu
    • Uczenie przez wzmacnianie na podstawie informacji zwrotnych do człowieka
      • Proces budowania modelu RLHF
      • Utrzymywanie rzetelności modeli językowych
      • Unikanie nietypowych zachowań
      • RLHF daje wiele korzyści niewielkim kosztem
      • Uważaj na koszty dostosowania
    • Przejście od instrukcji do konwersacji
      • Modele instrukcyjne
      • Modele konwersacyjne
    • Zmiany w interfejsie API
      • Interfejs API uzupełniania czatu
      • Porównanie konwersacji z uzupełnianiem
      • Od konwersacji do narzędzi
    • Projektowanie promptów jako sztuka dramatopisarska
    • Podsumowanie
  • 4. Projektowanie aplikacji LLM
    • Anatomia pętli
      • Problem użytkownika
      • Przekształcanie problemu użytkownika na model dziedziny
      • Użycie LLM do uzupełniania promptu
      • Powrót do dziedziny użytkownika
    • Przyjrzyjmy się bliżej przejściu w przód
      • Tworzenie prostego przejścia w przód
      • Zagadnienie złożoności pętli
    • Ocenianie jakości aplikacji LLM
      • Ocena offline
      • Ocena online
    • Podsumowanie

Część II. Podstawowe techniki

  • 5. Treść promptu
    • Źródła treści
    • Treści statyczne
      • Wyjaśnienie zapytania
      • Prompty z kilkoma przykładami
    • Treść dynamiczna
      • Odkrywanie dynamicznego kontekstu
      • Generacja wspomagana wyszukiwaniem
      • Podsumowywanie
    • Podsumowanie
  • 6. Konstruowanie promptu
    • Anatomia idealnego promptu
    • Jaki to rodzaj dokumentu?
      • Konwersacja z prośbą o radę
      • Raport analityczny
      • Dokument strukturalny
    • Formatowanie fragmentów
      • Więcej o bezwładności
      • Formatowanie przykładów do promptów
    • Elastyczne fragmenty
    • Powiązania pomiędzy elementami promptów
      • Położenie
      • Ważność
      • Zależność
    • Połączenie wszystkich elementów
    • Podsumowanie
  • 7. Okiełznanie modelu
    • Anatomia idealnego uzupełnienia
      • Wstęp
      • Rozpoznawalny początek i koniec
      • Uwaga końcowa
    • Nie tylko tekst: Logarytmy prawdopodobieństw
      • Jak dobra jest generowana treść?
      • Stosowanie modeli LLM do klasyfikacji
      • Kluczowe miejsca promptu
    • Wybór modelu
    • Podsumowanie

Część III. Ekspert sztuki

  • 8. Sprawczość konwersacyjna
    • Stosowanie narzędzi
      • Modele LLM przystosowane do korzystania z narzędzi
      • Wytyczne dotyczące definiowania narzędzi
    • Rozumowanie
      • Rozumowanie krok po kroku
      • ReAct: Interaktywne rozumowanie i działanie
      • Nie tylko ReAct
    • Kontekst interakcji bazujących na zadaniach
      • Źródła kontekstu
      • Wybór i organizacja kontekstu
    • Tworzenie agenta konwersacyjnego
      • Zarządzanie konwersacjami
      • Doświadczenia użytkownika
    • Podsumowanie
  • 9. Przepływy pracy korzystające z modeli LLM
    • Czy interfejs konwersacyjny wystarczy?
    • Podstawowe przepływy pracy korzystające z LLM
      • Zadania
      • Tworzenie przepływu pracy
      • Przykładowy przepływ pracy: Marketing wtyczek do Shopify
    • Zaawansowane przepływy pracy korzystające z modeli LLM
      • Umożliwienie agentowi LLM sterowania przepływem pracy
      • Agenty zadaniowe z pamięcią stanu
      • Role i delegacje
    • Podsumowanie
  • 10. Ocena aplikacji korzystających z modeli LLM
    • Co właściwie testujemy?
    • Ocenianie offline
      • Przykłady zestawów testowych
      • Poszukiwanie próbek
      • Ocenianie rozwiązań
      • Oceny SOMA
    • Testy online
      • Testy A/B
      • Metryki
    • Podsumowanie
  • 11. Rzut oka w przyszłość
    • Multimodalność
      • Doświadczenie użytkownika i interfejs użytkownika
      • Inteligencja
    • Podsumowanie

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2025 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.