Prompt engineering. Projektowanie aplikacji z wykorzystaniem LLM - Helion

ebook
Autor: John Berryman, Albert ZieglerTytuł oryginału: Prompt Engineering for LLMs: The Art and Science of Building Large Language Model-Based Applications
Tłumaczenie: Piotr Rajca
ISBN: 978-83-289-2988-3
stron: 256, Format: ebook
Księgarnia: Helion
Cena książki: 89,00 zł
Książka będzie dostępna od września 2025
Tagi: Sztuczna inteligencja
Du
Zobacz także:
- OpenAI API. Receptury. Tworzenie inteligentnych aplikacji, chatbot 67,00 zł, (33,50 zł -50%)
- Produkty oparte na sztucznej inteligencji. Projektowanie, budowa i rozwijanie rozwi 77,00 zł, (40,04 zł -48%)
- Stw 99,00 zł, (51,48 zł -48%)
- Tworzenie aplikacji AI z LlamaIndex. Praktyczny przewodnik po RAG i LLM 89,00 zł, (46,28 zł -48%)
- Zaawansowane techniki przetwarzania j 89,00 zł, (46,28 zł -48%)
Spis treści
Prompt engineering. Projektowanie aplikacji z wykorzystaniem LLM eBook -- spis treści
Wstęp
Część I. Podstawy
- 1. Wprowadzenie do inżynierii promptów
- Modele językowe to magia
- Modele językowe: Jak do tego doszliśmy?
- Wczesne modele językowe
- GPT wkracza na scenę
- Inżynieria promptów
- Podsumowanie
- 2. Modele językowe - wprowadzenie
- Czym są duże modele językowe?
- Kończenie dokumentu
- Myślenie człowieka a przetwarzanie danych przez modele językowe
- Halucynacje
- Jak modele językowe postrzegają świat?
- Różnica 1: Modele językowe używają deterministycznej tokenizacji
- Różnica 2: Modele językowe nie potrafią zwolnić i analizować poszczególnych liter
- Różnica 3: Modele językowe inaczej postrzegają tekst
- Zliczanie tokenów
- Po jednym tokenie na raz
- Modele autoregresyjne
- Wzorce i powtórzenia
- Temperatura i prawdopodobieństwo
- Architektura transformerów
- Podsumowanie
- Czym są duże modele językowe?
- 3. Przejście do czatu
- Uczenie przez wzmacnianie na podstawie informacji zwrotnych do człowieka
- Proces budowania modelu RLHF
- Utrzymywanie rzetelności modeli językowych
- Unikanie nietypowych zachowań
- RLHF daje wiele korzyści niewielkim kosztem
- Uważaj na koszty dostosowania
- Przejście od instrukcji do konwersacji
- Modele instrukcyjne
- Modele konwersacyjne
- Zmiany w interfejsie API
- Interfejs API uzupełniania czatu
- Porównanie konwersacji z uzupełnianiem
- Od konwersacji do narzędzi
- Projektowanie promptów jako sztuka dramatopisarska
- Podsumowanie
- Uczenie przez wzmacnianie na podstawie informacji zwrotnych do człowieka
- 4. Projektowanie aplikacji LLM
- Anatomia pętli
- Problem użytkownika
- Przekształcanie problemu użytkownika na model dziedziny
- Użycie LLM do uzupełniania promptu
- Powrót do dziedziny użytkownika
- Przyjrzyjmy się bliżej przejściu w przód
- Tworzenie prostego przejścia w przód
- Zagadnienie złożoności pętli
- Ocenianie jakości aplikacji LLM
- Ocena offline
- Ocena online
- Podsumowanie
- Anatomia pętli
Część II. Podstawowe techniki
- 5. Treść promptu
- Źródła treści
- Treści statyczne
- Wyjaśnienie zapytania
- Prompty z kilkoma przykładami
- Treść dynamiczna
- Odkrywanie dynamicznego kontekstu
- Generacja wspomagana wyszukiwaniem
- Podsumowywanie
- Podsumowanie
- 6. Konstruowanie promptu
- Anatomia idealnego promptu
- Jaki to rodzaj dokumentu?
- Konwersacja z prośbą o radę
- Raport analityczny
- Dokument strukturalny
- Formatowanie fragmentów
- Więcej o bezwładności
- Formatowanie przykładów do promptów
- Elastyczne fragmenty
- Powiązania pomiędzy elementami promptów
- Położenie
- Ważność
- Zależność
- Połączenie wszystkich elementów
- Podsumowanie
- 7. Okiełznanie modelu
- Anatomia idealnego uzupełnienia
- Wstęp
- Rozpoznawalny początek i koniec
- Uwaga końcowa
- Nie tylko tekst: Logarytmy prawdopodobieństw
- Jak dobra jest generowana treść?
- Stosowanie modeli LLM do klasyfikacji
- Kluczowe miejsca promptu
- Wybór modelu
- Podsumowanie
- Anatomia idealnego uzupełnienia
Część III. Ekspert sztuki
- 8. Sprawczość konwersacyjna
- Stosowanie narzędzi
- Modele LLM przystosowane do korzystania z narzędzi
- Wytyczne dotyczące definiowania narzędzi
- Rozumowanie
- Rozumowanie krok po kroku
- ReAct: Interaktywne rozumowanie i działanie
- Nie tylko ReAct
- Kontekst interakcji bazujących na zadaniach
- Źródła kontekstu
- Wybór i organizacja kontekstu
- Tworzenie agenta konwersacyjnego
- Zarządzanie konwersacjami
- Doświadczenia użytkownika
- Podsumowanie
- Stosowanie narzędzi
- 9. Przepływy pracy korzystające z modeli LLM
- Czy interfejs konwersacyjny wystarczy?
- Podstawowe przepływy pracy korzystające z LLM
- Zadania
- Tworzenie przepływu pracy
- Przykładowy przepływ pracy: Marketing wtyczek do Shopify
- Zaawansowane przepływy pracy korzystające z modeli LLM
- Umożliwienie agentowi LLM sterowania przepływem pracy
- Agenty zadaniowe z pamięcią stanu
- Role i delegacje
- Podsumowanie
- 10. Ocena aplikacji korzystających z modeli LLM
- Co właściwie testujemy?
- Ocenianie offline
- Przykłady zestawów testowych
- Poszukiwanie próbek
- Ocenianie rozwiązań
- Oceny SOMA
- Testy online
- Testy A/B
- Metryki
- Podsumowanie
- 11. Rzut oka w przyszłość
- Multimodalność
- Doświadczenie użytkownika i interfejs użytkownika
- Inteligencja
- Podsumowanie
- Multimodalność