Skuteczna in - Helion
Tytuł oryginału: Prompt Engineering for Generative AI: Future-Proof Inputs for Reliable AI Outputs
Tłumaczenie: Krzysztof Rychlicki-Kicior
ISBN: 978-83-289-1904-4
stron: 397, Format: 165x235, okładka: mi
Księgarnia: Helion
Cena książki: 99,00 zł
Książka będzie dostępna od listopada 2024
Udost
Zobacz także:
- Sztuczna inteligencja w Azure. Kurs video. Us 198,98 zł, (79,59 zł -60%)
- Uczenie g 128,98 zł, (58,04 zł -55%)
- Sztuczna inteligencja w Azure. Kurs video. Uczenie maszynowe i Azure Machine Learning Service 198,98 zł, (89,54 zł -55%)
- Web scraping w Data Science. Kurs video. Uczenie maszynowe i architektura splotowych sieci neuronowych 179,00 zł, (80,55 zł -55%)
- AI w praktyce. Kurs video. Narz 169,00 zł, (76,05 zł -55%)
Spis treści
Skuteczna inżynieria promptów. Przyszłościowe rozwiązania dla rzetelnych wyników generatywnej AI -- spis treści
Wprowadzenie
Rozdział 1. Pięć zasad promptowania
- Omówienie pięciu zasad promptowania
- 1. Określ wytyczne
- 2. Określ format odpowiedzi
- 3. Przedstaw przykłady
- 4. Oceniaj jakość
- 5. Dziel pracę
- Podsumowanie
Rozdział 2. Wprowadzenie do dużych modeli językowych do generowania tekstu
- Czym są modele do generowania tekstu?
- Reprezentacje wektorowe: język w liczbach
- Architektura transformerów: orkiestracja związków kontekstowych
- Probabilistyczne generowanie tekstu: mechanizm podejmowania decyzji
- Krótko o historii: wzrost znaczenia architektur transformerów
- Wstępnie przeszkolony transformer generatywny OpenAI
- GPT-3.5-turbo i ChatGPT
- GPT-4
- Google Gemini
- Model Llama firmy Meta a otwarte oprogramowanie
- Kwantyzacja i LoRA
- Mistral
- Anthropic: Claude
- GPT-4V(ision)
- Porównanie modeli
- Podsumowanie
Rozdział 3. Standardowe zasady generowania tekstu z ChatGPT
- Generowanie list
- Generowanie list hierarchicznych
- Kiedy unikać wyrażeń regularnych?
- Generowanie danych w formacie JSON
- Generowanie danych w formacie YAML
- Filtrowanie dokumentów YAML
- Obsługa nieprawidłowych dokumentów w formacie YAML
- Generowanie różnorodnych formatów z użyciem ChatGPT
- Spreparowane dane CSV
- Wyjaśnij to jak pięciolatkowi
- Uniwersalne tłumaczenia za pomocą LLM
- Pytaj o kontekst
- Wydzielenie stylu tekstu
- Znalezienie pożądanych cech tekstu
- Generowanie nowej treści za pomocą wyekstrahowanych cech
- Ekstrakcja określonych cech tekstu za pomocą LLM
- Podsumowywanie
- Podsumowywanie a ograniczenia okna kontekstu
- Podział tekstu na fragmenty
- Zalety dzielenia tekstu na fragmenty
- Scenariusze podziału tekstu na fragmenty
- Niewłaściwe przykłady dzielenia tekstu na fragmenty
- Strategie podziału
- Wykrywanie zdań z użyciem spaCy
- Tworzenie prostego algorytmu podziału w Pythonie
- Podział za pomocą okna przesuwnego
- Pakiety do dzielenia tekstu
- Podział tekstu z biblioteką tiktoken
- Kodowania
- Zrozumienie procesu tokenizacji łańcuchów znaków
- Szacowanie użycia tokenów w wywołaniach API czata
- Analiza sentymentu
- Sposoby usprawnienia analizy sentymentu
- Ograniczenia i wyzwania analizy sentymentu
- Od najmniejszych do największych
- Planowanie architektury
- Programowanie funkcji we Flasku
- Dodawanie testów
- Zalety techniki od najmniejszych do największych
- Wyzwania, jakie wiążą się z techniką od najmniejszych do największych
- Promptowanie z użyciem ról
- Zalety promptowania z użyciem ról
- Wyzwania, jakie wiążą się z promptowaniem z użyciem ról
- Kiedy korzystać z promptowania z użyciem ról
- Techniki promptowania GPT
- Unikanie halucynacji dzięki tekstom źródłowym
- Daj modelowi GPT "czas na przemyślenie"
- Technika wewnętrznego monologu
- Samooceniające odpowiedzi modelu językowego
- Klasyfikacja za pomocą dużych modeli językowych
- Tworzenie modelu klasyfikacji
- Głosowanie większością w klasyfikacji
- Ewaluacja kryteriów
- Metapromptowanie
- Podsumowanie
Rozdział 4. Zaawansowane techniki generowania tekstu za pomocą LangChain
- Wprowadzenie do LangChain
- Konfiguracja środowiska
- Modele czatowe
- Strumieniowanie modeli czatowych
- Generowanie wielu odpowiedzi z dużych modeli językowych
- Szablony promptów LangChain
- Język wyrażeń LangChain (LCEL)
- Stosowanie PromptTemplate z modelami czatowymi
- Parsery wyjścia
- Ewaluacje LangChain
- Wywołanie funkcji OpenAI
- Współbieżne wywołanie funkcji
- Wywoływanie funkcji w LangChain
- Ekstrakcja danych za pomocą LangChain
- Planowanie zapytań
- Tworzenie szablonów promptów z kilkoma przykładami
- Podejście z kilkoma przykładami o stałej długości
- Formatowanie przykładów
- Wybór promptów z kilkoma przykładami według długości
- Ograniczenia promptów z kilkoma przykładami
- Zapisywanie i wczytywanie promptów modeli językowych
- Łączenie danych
- Ładowarki dokumentów
- Rozdzielacze tekstu
- Podział tekstu według długości i liczby tokenów
- Rekursywny podział według wielu znaków
- Dekompozycja zadań
- Łańcuchy promptów
- Łańcuchy sekwencyjne
- Ekstrakcja kluczy za pomocą funkcji itemgetter
- Tworzenie struktury dla łańcuchów LCEL
- Łańcuchy dokumentów
- Łańcuch nadziania dokumentów
- Łańcuchy oczyszczania
- Mapowanie i redukcja
- Łańcuch mapowania z rankingiem
- Podsumowanie
Rozdział 5. Wektorowe bazy danych z FAISS i Pinecone
- Retrieval Augmented Generation (RAG)
- Wprowadzenie do osadzeń
- Ładowanie dokumentów
- Pozyskiwanie z pamięci za pomocą FAISS
- RAG z użyciem frameworka LangChain
- Wektorowe bazy danych w chmurze z użyciem Pinecone
- Samoodpytywanie
- Alternatywne mechanizmy pozyskiwania danych
- Podsumowanie
Rozdział 6. Agenty autonomiczne z pamięcią i narzędziami
- Łańcuch myśli
- Agenty
- Wnioskuj i działaj (ReAct)
- Implementacja schematu wnioskuj i działaj
- Stosowanie narzędzi
- Duże modele językowe jako API (funkcje OpenAI)
- Porównanie funkcji OpenAI i schematu ReAct
- Przypadki użycia dla funkcji OpenAI
- ReAct
- Przypadki użycia dla schematu ReAct
- Zestawy narzędzi dla agentów
- Dostosowywanie standardowych agentów
- Własne agenty w LCEL
- Zasady użycia pamięci
- Pamięć długoterminowa
- Pamięć krótkoterminowa
- Pamięć krótkoterminowa w agentach konwersacyjnych QA
- Obsługa pamięci w LangChain
- Zachowywanie stanu
- Odpytywanie stanu
- ConversationBufferMemory
- Inne popularne rodzaje pamięci w LangChain
- ConversationBufferWindowMemory
- ConversationSummaryMemory
- ConversationSummaryBufferMemory
- ConversationTokenBufferMemory
- Agent funkcji OpenAI z pamięcią
- Zaawansowane frameworki agentowe
- Agenty typu planuj i uruchamiaj
- Drzewo myśli
- Wywołania zwrotne
- Globalne wywołania zwrotne (w konstruktorach)
- Wywołania zwrotne żądań
- Argument verbose
- Które wywołanie zwrotne wybrać?
- Zliczanie tokenów za pomocą LangChain
- Podsumowanie
Rozdział 7. Wprowadzenie do modeli dyfuzyjnych przeznaczonych do generowania obrazów
- OpenAI DALL-E
- Midjourney
- Stable Diffusion
- Google Gemini
- Generowanie filmów na podstawie tekstu
- Porównanie modeli
- Podsumowanie
Rozdział 8. Standardowe metody generowania obrazów z Midjourney
- Modyfikatory formatu
- Modyfikatory stylu w sztuce
- Inżynieria odwrotna promptów
- Dopalacze jakości
- Prompty negatywne
- Pojęcia ważone
- Promptowanie z użyciem obrazków
- Wmalowywanie
- Domalowywanie
- Spójne postaci
- Przepisywanie promptów
- Rozdzielenie memów
- Mapowanie memów
- Analiza promptów
- Podsumowanie
Rozdział 9. Zaawansowane techniki generowania obrazów za pomocą Stable Diffusion
- Uruchamianie modelu Stable Diffusion
- Interfejs webowy AUTOMATIC1111
- Img2Img
- Skalowanie obrazków w górę
- Tryb Interrogate CLIP
- Wmalowanie i domalowanie w Stable Diffusion
- ControlNet
- Model segmentowania wszystkiego (SAM)
- Dostrajanie DreamBooth
- Dostrajacz modelu Stable Diffusion XL
- Podsumowanie
Rozdział 10. Tworzenie aplikacji wspomaganych AI
- Pisanie bloga przez AI
- Badanie tematu
- Wywiad ekspercki
- Wygeneruj zarys
- Generowanie tekstu
- Styl pisania
- Optymalizacja tytułu
- Obrazki na blogu generowane przez AI
- Interfejs użytkownika
- Podsumowanie
Skorowidz