LLMs w akcji. Od modeli j - Helion

Tytuł oryginału: LLMs in Production: From language models to successful products
Tłumaczenie: Piotr Rajca
ISBN: 978-83-289-3305-7
stron: 504, Format: ebook
Data wydania: 2026-04-01
Księgarnia: Helion
Cena książki: 104,30 zł (poprzednio: 149,00 zł)
Oszczędzasz: 30% (-44,70 zł)
Nakład wyczerpany
Du
Zobacz także:
- FAIK. Sztuczna inteligencja w s 59,90 zł, (29,95 zł -50%)
- J 44,90 zł, (22,45 zł -50%)
- Praktyczne zastosowania generatywnej AI i ChatGPT. Wykorzystaj potencja 87,00 zł, (47,85 zł -45%)
- AI w t 66,98 zł, (36,84 zł -45%)
- Tablice informatyczne. ChatGPT 21,89 zł, (12,04 zł -45%)
Spis treści
LLMs w akcji. Od modeli językowych do dochodowych produktów eBook -- spis treści
Przedmowa
Wstęp
Podziękowania
O książce
O autorach
O ilustracji na okładce
1. Przebudzenie słów: Dlaczego duże modele językowe przyciągnęły uwagę
- 1.1. Duże modele językowe przyspieszające komunikację
- 1.2. Podejmowanie decyzji o tworzeniu lub zakupie modeli językowych
- 1.2.1. Zakupy: Utarte ścieżki
- 1.2.2. Budowanie: Mniej uczęszczana ścieżka
- 1.2.3. Ostrzeżenie: Otwórz się na przyszłość już teraz
- 1.3. Obalanie mitów
- Podsumowanie
2. Duże modele językowe: Szczegółowe rozważania o modelowaniu języka
- 2.1. Modelowanie języka
- 2.1.1. Cechy językowe
- 2.1.2. Semiotyka
- 2.1.3. Wielojęzyczne przetwarzanie języka naturalnego
- 2.2. Techniki modelowania języka
- 2.2.1. Techniki oparte na N-gramach i korpusach
- 2.2.2. Techniki bayesowskie
- 2.2.3. Łańcuchy Markowa
- 2.2.4. Ciągłe modelowanie języka
- 2.2.5. Osadzenia
- 2.2.6. Perceptrony wielowarstwowe
- 2.2.7. Sieci neuronowe rekurencyjne i sieci z długą pamięcią krótkotrwałą
- 2.2.8. Mechanizm uwagi
- 2.3. Uwaga to wszystko, czego potrzebujesz
- 2.3.1. Kodery
- 2.3.2. Dekodery
- 2.3.3. Transformery
- 2.4. Naprawdę duże transformery
- Podsumowanie
3. Operacje na dużych modelach językowych: Tworzenie platformy dla modeli LLM
- 3.1. Wprowadzenie do operacji na dużych modelach językowych
- 3.2. Wyzwania operacyjne związane z dużymi modelami językowymi
- 3.2.1. Długi czas pobierania
- 3.2.2. Dłuższe czasy wdrażania
- 3.2.3. Opóźnienie
- 3.2.4. Zarządzanie kartami graficznymi (GPU)
- 3.2.5. Osobliwości danych tekstowych
- 3.2.6. Ograniczenia tokenów tworzą wąskie gardła
- 3.2.7. Halucynacje powodują dezorientację
- 3.2.8. Uprzedzenia i kwestie etyczne
- 3.2.9. Kwestie bezpieczeństwa
- 3.2.10. Kontrola kosztów
- 3.3. Podstawy LLMOps
- 3.3.1. Kompresja
- 3.3.2. Przetwarzanie rozproszone
- 3.4. Infrastruktura operacyjna modeli językowych
- 3.4.1. Infrastruktura danych
- 3.4.2. Narzędzia do śledzenia eksperymentów
- 3.4.3. Rejestr modeli
- 3.4.4. Magazyny cech
- 3.4.5. Wektorowe bazy danych
- 3.4.6. System monitorowania
- 3.4.7. Stacje robocze z obsługą GPU
- 3.4.8. Usługa wdrożeniowa
- Podsumowanie
4. Inżynieria danych na potrzeby dużych modeli językowych: Przygotowania do sukcesu
- 4.1. Modele są fundamentem
- 4.1.1. GPT
- 4.1.2. Model BLOOM
- 4.1.3. Llama
- 4.1.4. Wizard
- 4.1.5. Falcon
- 4.1.6. Vicuna
- 4.1.7. Dolly
- 4.1.8. OpenChat
- 4.2. Ocena modeli językowych
- 4.2.1. Metryki oceny tekstu
- 4.2.2. Benchmarki branżowe
- 4.2.3. Odpowiedzialne benchmarki sztucznej inteligencji
- 4.2.4. Tworzenie własnego testu wydajności
- 4.2.5. Ocena generatorów kodu
- 4.2.6. Ocena parametrów modelu
- 4.3. Dane dla modeli językowych
- 4.3.1. Zbiory danych, które warto znać
- 4.3.2. Czyszczenie i przygotowanie danych
- 4.4. Edytory tekstu
- 4.4.1. Tokenizacja
- 4.4.2. Osadzenia
- 4.5. Przygotowanie zbioru danych Slack
- Podsumowanie
5. Trenowanie dużych modeli językowych: Jak wygenerować generator
- 5.1. Środowiska wieloprocesorowe GPU
- 5.1.1. Konfiguracja początkowa
- 5.1.2. Biblioteki
- 5.2. Podstawowe techniki szkoleniowe
- 5.2.1. Trenowanie od podstaw
- 5.2.2. Uczenie transferowe (dostrajanie)
- 5.2.3. Promptowanie
- 5.3. Zaawansowane techniki trenowania
- 5.3.1. Dostrajanie z użyciem promptów
- 5.3.2. Dostrajanie z wykorzystaniem destylacji wiedzy
- 5.3.3. Uczenie przez wzmacnianie na podstawie informacji zwrotnych od człowieka
- 5.3.4. Mieszanka ekspertów
- 5.3.5. LoRA i PEFT
- 5.4. Wskazówki i triki szkoleniowe
- 5.4.1. Uwagi dotyczące rozmiaru danych treningowych
- 5.4.2. Efektywne szkolenie
- 5.4.3. Pułapki lokalnych minimów
- 5.4.4. Wskazówki dotyczące dostrajania hiperparametrów
- 5.4.5. Uwaga na temat systemów operacyjnych
- 5.4.6. Wskazówki dotyczące funkcji aktywacji
- Podsumowanie
6. Duże modele językowe jako usługi: Praktyczny przewodnik
- 6.1. Tworzenie usługi LLM
- 6.1.1. Kompilacja modelu
- 6.1.2. Strategie przechowywania modeli LLM
- 6.1.3. Adaptacyjne grupowanie żądań
- 6.1.4. Kontrola przepływu
- 6.1.5. Strumieniowanie odpowiedzi
- 6.1.6. Magazyn cech
- 6.1.7. Generowanie wspomagane wyszukiwaniem
- 6.1.8. Biblioteki usług LLM
- 6.2. Przygotowanie infrastruktury
- 6.2.1. Tworzenie i konfigurowanie klastrów
- 6.2.2. Automatyczne skalowanie
- 6.2.3. Aktualizacje kroczące
- 6.2.4. Grafy wnioskowania
- 6.2.5. Monitorowanie
- 6.3. Wyzwania produkcyjne
- 6.3.1. Aktualizacje modelu i ponowne uczenie
- 6.3.2. Testy obciążeniowe
- 6.3.3. Rozwiązywanie problemów z wysokim opóźnieniem
- 6.3.4. Zarządzanie zasobami
- 6.3.5. Inżynieria kosztów
- 6.3.6. Bezpieczeństwo
- 6.4. Wdrożenia na urządzeniach brzegowych
- Podsumowanie
7. Inżynieria promptów: Jak zostać zaklinaczem modeli językowych
- 7.1. Promptowanie modelu
- 7.1.1. Promptowanie na kilku przykładach
- 7.1.2. Promptowanie na jednym przykładzie
- 7.1.3. Promptowanie bez przykładów
- 7.2. Podstawy inżynierii promptów
- 7.2.1. Anatomia promptu
- 7.2.2. Parametry podpowiedzi
- 7.2.3. Pozyskiwanie danych treningowych
- 7.3. Narzędzia do inżynierii promptów
- 7.3.1. LangChain
- 7.3.2. Wskazówki
- 7.3.3. DSPy
- 7.3.4. Dostępne są również inne narzędzia, ale.
- 7.4. Zaawansowane techniki inżynierii promptów
- 7.4.1. Wyposażanie modeli językowych w narzędzia
- 7.4.2. ReAct
- Podsumowanie
8. Aplikacje LLM: Doświadczenia interaktywne
- 8.1. Tworzenie aplikacji
- 8.1.1. Strumieniowanie po stronie klienta
- 8.1.2. Zachowywanie historii
- 8.1.3. Funkcje interakcji z chatbotem
- 8.1.4. Zliczanie tokenów
- 8.1.5. Stosowanie RAG
- 8.2. Aplikacje na urządzenia brzegowe
- 8.3. Agenty oparte na modelach językowych
- Podsumowanie
9. Tworzenie projektu LLM: Reimplementacja modelu Llama 3
- 9.1. Implementacja modelu Llama firmy Meta
- 9.1.1. Tokenizacja i konfiguracja
- 9.1.2. Zbiór danych, wczytywanie danych, ocena i generowanie
- 9.1.3. Architektura sieci
- 9.2. Prosty model Llama
- 9.3. Ulepszanie
- 9.3.1. Kwantyzacja
- 9.3.2. LoRA
- 9.3.3. W pełni sfragmentowana równoległość danych - skwantyzowana LoRA
- 9.4. Wdrażanie modelu do przestrzeni Hugging Face Hub
- Podsumowanie
10. Tworzenie projektu asystenta do programowania: To by ci się przydało wcześniej
- 10.1. Nasz model
- 10.2. Dane rządzą
- 10.2.1. Nasza baza danych wektorowych
- 10.2.2. Nasz zbiór danych
- 10.2.3. Zastosowanie RAG
- 10.3. Tworzenie rozszerzenia dla VS Code
- 10.4. Wnioski i kolejne kroki
- Podsumowanie
11. Wdrażanie modelu LLM na Raspberry Pi: Gdzie jest granica minimalizacji?
- 11.1. Konfiguracja Raspberry Pi
- 11.1.1. Program Pi Imager
- 11.1.2. Łączenie się z Pi
- 11.1.3. Instalowanie i aktualizowanie oprogramowania
- 11.2. Przygotowanie modelu
- 11.3. Udostępnianie modelu
- 11.4. Ulepszenia
- 11.4.1. Korzystanie z ulepszonego interfejsu
- 11.4.2. Zmiana kwantyzacji
- 11.4.3. Dodawanie multimodalności
- 11.4.4. Udostępnianie modelu w Google Colab
- Podsumowanie
12. Produkcja, środowisko bezustannych zmian: Wszystko dopiero się zaczyna
- 12.1. Spojrzenie z lotu ptaka
- 12.2. Przyszłość modeli językowych
- 12.2.1. Rząd i regulacje
- 12.2.2. Modele językowe stają się coraz większe
- 12.2.3. Przestrzenie wielomodalne
- 12.2.4. Zbiory danych
- 12.2.5. Rozwiązywanie problemu halucynacji
- 12.2.6. Nowy sprzęt
- 12.2.7. Agenty staną się użyteczne
- 12.3. Końcowe przemyślenia
- Podsumowanie
A. Historia językoznawstwa
- A.1. Językoznawstwo starożytne
- A.2. Lingwistyka średniowieczna
- A.3. Językoznawstwo renesansowe i wczesnonowożytne
- A.4. Językoznawstwo wczesnego XX wieku
- A.5. Językoznawstwo połowy XX wieku i współczesne
B. Uczenie przez wzmacnianie na podstawie informacji zwrotnych od człowieka
C. Multimodalne przestrzenie ukryte





