LangChain i LangGraph. Projektowanie aplikacji opartych na du - Helion

Tytuł oryginału: Learning LangChain: Building AI and LLM Applications with LangChain and LangGraph
Tłumaczenie: Piotr Rajca
ISBN: 978-83-289-3073-5
stron: 272, Format: ebook
Księgarnia: Helion
Cena książki: 79,00 zł
Książka będzie dostępna od stycznia 2026
Jak zacz
Zobacz także:
- Matematyka. Kurs video. Teoria dla programisty i data science 399,00 zł, (39,90 zł -90%)
- Deep Learning for the Life Sciences. Applying Deep Learning to Genomics, Microscopy, Drug Discovery, and More 249,17 zł, (29,90 zł -88%)
- Java 9: Building Robust Modular Applications 332,50 zł, (39,90 zł -88%)
- Stream Processing with Apache Flink. Fundamentals, Implementation, and Operation of Streaming Applications 230,00 zł, (29,90 zł -87%)
- Matematyka. Kurs video. 285,00 zł, (39,90 zł -86%)
Spis treści
LangChain i LangGraph. Projektowanie aplikacji opartych na dużych modelach językowych w praktyce eBook -- spis treści
Wstęp
- Wprowadzenie do modeli językowych
- Duże modele językowe dostosowane do wykonywania instrukcji
- Modele językowe dostosowane do dialogu
- Dostrojone modele językowe
- Krótkie wprowadzenie do promptowania
- Prompty bez przykładów
- Rozumowanie krok po kroku
- Generowanie wspomagane wyszukiwaniem
- Wywoływanie narzędzi
- Prompty z kilkoma przykładami
- LangChain i jego znaczenie
- Czego można oczekiwać po tej książce
- Konwencje zastosowane w tej książce
- Przykłady kodu
- Podziękowania
1. Podstawy modeli językowych z wykorzystaniem LangChaina
- Konfiguracja projektu LangChain
- Stosowanie modeli LLM w bibliotece LangChain
- Tworzenie promptów nadających się do wielokrotnego użycia
- Uzyskiwanie od modeli LLM wyników w określonych formatach
- Dane wyjściowe w formacie JSON
- Inne formaty czytelne dla oprogramowania z wykorzystaniem parserów wyjściowych
- Łączenie wielu elementów aplikacji korzystającej z modelu LLM
- Wykorzystanie interfejsu Runnable
- Łączenie imperatywne
- Łączenie deklaratywne
- Podsumowanie
2. RAG, część I: Indeksowanie danych
- Cel: wybór odpowiedniego kontekstu dla modeli językowych
- Osadzenia: zamiana tekstu na liczby
- Osadzenia przed erą modeli LLM
- Osadzenia oparte na modelach językowych
- Wyjaśnienie osadzeń semantycznych
- Konwersja dokumentów na tekst
- Dzielenie tekstu na mniejsze fragmenty
- Generowanie osadzeń tekstów
- Przechowywanie osadzeń w wektorowej bazie danych
- Konfiguracja PGVector
- Praca z magazynami wektorów
- Śledzenie zmian w dokumentach
- Optymalizacja indeksowania
- MultiVectorRetriever
- RAPTOR - rekurencyjne przetwarzanie abstrakcyjne dla wyszukiwania w strukturach drzewiastych
- ColBERT - optymalizacja osadzeń
- Podsumowanie
3. RAG, część II: Rozmawianie z własnymi danymi
- Wprowadzenie do generowania wspomaganego wyszukiwaniem
- Wyszukiwanie odpowiednich dokumentów
- Generowanie predykcji modeli LLM na podstawie istotnych dokumentów
- Przekształcanie zapytań
- Przepisz - wyszukaj - przeczytaj
- Wyszukiwanie danych z użyciem wielu zapytań
- RAG-Fusion
- Hipotetyczne osadzanie dokumentów
- Trasowanie zapytań
- Trasowanie logiczne
- Trasowanie semantyczne
- Tworzenie zapytań
- Filtr tekst na metadane
- Przetwarzanie języka naturalnego na zapytania SQL
- Podsumowanie
4. Dodanie pamięci do chatbota z wykorzystaniem LangGraphu
- Tworzenie systemu pamięci dla chatbotów
- Wprowadzenie do LangGraphu
- Tworzenie obiektu grafu stanowego
- Dodawanie pamięci do obiektu grafu stanowego
- Modyfikowanie historii czatu
- Przycinanie wiadomości
- Filtrowanie wiadomości
- Łączenie następujących po sobie komunikatów
- Podsumowanie
5. Architektury poznawcze z wykorzystaniem LangGraphu
- Architektura nr 1. Wywołanie LLM
- Architektura nr 2. Sekwencja
- Architektura nr 3. Router
- Podsumowanie
6. Architektura agentowa
- Pętla planowania i działania
- Tworzenie agenta opartego na grafach językowych
- Zawsze w pierwszej kolejności używaj narzędzi
- Praca z wieloma narzędziami
- Podsumowanie
7. Agenty II
- Refleksja
- Podgrafy w LangGraphie
- Bezpośrednie wywołanie podgrafu
- Wywoływanie podgrafu przy użyciu funkcji
- Architektury wieloagentowe
- Architektura z nadzorcą
- Podsumowanie
8. Wzorce efektywnego wykorzystania wielkich modeli językowych
- Ustrukturyzowane dane wyjściowe
- Wynik pośredni
- Strumieniowanie wyników modelu LLM token po tokenie
- Tryby rozwiązań typu human in the loop
- Wielozadaniowość modeli językowych
- Podsumowanie
9. Wdrażanie: uruchamianie aplikacji AI w środowisku produkcyjnym
- Wymagania wstępne
- Instalacja zależności
- Duży model językowy
- Magazyn wektorowy
- API backendu
- Tworzenie konta LangSmith
- Prezentacja API LangGraph Platform
- Modele danych
- Możliwości
- Wdrażanie aplikacji AI w LangGraph Platform
- Utwórz konfigurację API LangGraph
- Przetestuj swoją aplikację LangGraph lokalnie
- Wdrażanie z wykorzystaniem interfejsu użytkownika LangSmith
- Uruchomienie LangSmith Studio
- Bezpieczeństwo
- Podsumowanie
10. Testowanie: ocena, monitorowanie i ciągłe doskonalenie
- Techniki testowania w cyklu rozwoju aplikacji opartych na modelach językowych
- Etap projektowania: RAG z autokorektą
- Etap przed wdrożeniem
- Tworzenie zestawów danych
- Określanie kryteriów oceny
- Testy regresyjne
- Ocena całościowej wydajności agenta
- Produkcja
- Śledzenie
- Zbieranie informacji zwrotnych w środowisku produkcyjnym
- Klasyfikacja i znakowanie
- Monitorowanie i usuwanie błędów
- Podsumowanie
11. Budowanie z wykorzystaniem modeli językowych
- Interaktywne chatboty
- Wspólna praca nad tekstem z wykorzystaniem modeli LLM
- Przetwarzanie w otoczeniu
- Podsumowanie





