Zaawansowane techniki przetwarzania j - Helion

Tytuł oryginału: Mastering NLP from Foundations to LLMs: Apply advanced rule-based techniques to LLMs and solve real-world business problems using Python
Tłumaczenie: Grzegorz Werner
ISBN: 978-83-289-2048-4
stron: 310, Format: 165x235, okładka: mi
Data wydania: 2024-12-01
Księgarnia: Helion
Cena książki: 71,20 zł (poprzednio: 87,90 zł)
Oszczędzasz: 19% (-16,70 zł)
Nakład wyczerpany
Uczenie maszynowe i du
Zobacz także:
- Django 4. Praktyczne tworzenie aplikacji sieciowych. Wydanie IV 125,48 zł, (38,90 zł -69%)
- Flask. Kurs video. Od pierwszej linijki kodu do praktycznego zastosowania 119,00 zł, (47,60 zł -60%)
- Python na start. Kurs video. Tw 99,00 zł, (39,60 zł -60%)
- Python. Kurs video. Programowanie asynchroniczne 97,32 zł, (39,90 zł -59%)
- Flask. Kurs video. Stw 129,00 zł, (58,05 zł -55%)
Spis treści
Zaawansowane techniki przetwarzania języka naturalnego. Od podstaw do modeli LLM i zastosowań biznesowych w Pythonie -- spis treści
Słowo wstępne
O autorach
O recenzentach
Przedmowa
Rozdział 1. Nawigowanie po krajobrazie NLP - kompleksowe wprowadzenie
- Dla kogo jest ta książka?
- Co to jest przetwarzanie języka naturalnego?
- Historia i ewolucja przetwarzania języka naturalnego
- Wstępne strategie maszynowego przetwarzania języka naturalnego
- Zwycięska synergia - połączenie NLP i ML
- Wprowadzenie do matematyki i statystyki w NLP
- Przykład modelu językowego - ChatGPT
- Podsumowanie
- Pytania i odpowiedzi
Rozdział 2. Algebra liniowa, prawdopodobieństwo i statystyka w uczeniu maszynowym i NLP
- Wprowadzenie do algebry liniowej
- Podstawowe działania na macierzach i wektorach
- Definicje macierzy
- Wartości i wektory własne
- Metody numeryczne znajdowania wektorów własnych
- Rozkład macierzy na wartości własne
- Rozkład według wartości osobliwych
- Prawdopodobieństwo w uczeniu maszynowym
- Niezależność statystyczna
- Zmienne losowe dyskretne i ich rozkład
- Funkcja gęstości prawdopodobieństwa
- Estymacja bayesowska
- Podsumowanie
- Dalsza lektura
- Bibliografia
Rozdział 3. Wykorzystanie potencjału uczenia maszynowego w NLP
- Wymagania techniczne
- Eksploracja danych
- Wizualizacja danych
- Oczyszczanie danych
- Selekcja cech
- Inżynieria cech
- Typowe modele uczenia maszynowego
- Regresja liniowa
- Regresja logistyczna
- Drzewa decyzyjne
- Las losowy
- Maszyny wektorów nośnych (SVM)
- Sieci neuronowe i transformery
- Niedostateczne i nadmierne dopasowanie modelu
- Dzielenie danych
- Dostrajanie hiperparametrów
- Modele zespołowe
- Bagging
- Wzmacnianie
- Spiętrzanie
- Lasy losowe
- Wzmacnianie gradientowe
- Dane niezrównoważone
- SMOTE
- Algorytm NearMiss
- Uczenie wrażliwe na koszty
- Wzbogacanie danych
- Dane skorelowane
- Podsumowanie
- Bibliografia
Rozdział 4. Usprawnianie technik wstępnego przetwarzania tekstu pod kątem optymalnej wydajności NLP
- Wymagania techniczne
- Normalizacja tekstu
- Zamiana na małe litery
- Usuwanie znaków specjalnych i interpunkcyjnych
- Usuwanie słów stopu
- Sprawdzanie i poprawianie pisowni
- Lematyzacja
- Tematyzacja
- Rozpoznawanie nazwanych encji (NER)
- Oznaczanie części mowy
- Metody oparte na regułach
- Metody statystyczne
- Metody oparte na uczeniu głębokim
- Wyrażenia regularne
- Tokenizacja
- Potok wstępnego przetwarzania tekstu
- Kod NER i POS
- Podsumowanie
Rozdział 5. Klasyfikowanie tekstu - wykorzystanie tradycyjnych technik uczenia maszynowego
- Wymagania techniczne
- Typy klasyfikacji tekstu
- Uczenie nadzorowane
- Uczenie nienadzorowane
- Uczenie półnadzorowane
- Klasyfikacja zdań z wykorzystaniem reprezentacji wektorowej z kodowaniem z "gorącą jedynką"
- Klasyfikacja tekstu metodą TF-IDF
- Klasyfikacja tekstu z użyciem Word2Vec
- Word2Vec
- Ewaluacja modelu
- Nadmierne i niedostateczne dopasowanie
- Dostrajanie hiperparametrów
- Dodatkowe zagadnienia związane z praktyczną klasyfikacją tekstu
- Modelowanie tematyczne - praktyczne zastosowanie nienadzorowanej klasyfikacji tekstu
- LDA
- Projekt rzeczywistego systemu ML do klasyfikacji tekstu
- Implementowanie rozwiązania ML
- Przykładowy scenariusz - projekt systemu ML do klasyfikacji NLP w notatniku Jupytera
- Cel biznesowy
- Cel techniczny
- Potok
- Ustawienia
- Selekcja cech
- Generowanie wybranego modelu
- Podsumowanie
Rozdział 6. Nowe spojrzenie na klasyfikowanie tekstu - językowe modele uczenia głębokiego
- Wymagania techniczne
- Podstawy uczenia głębokiego
- Co to jest sieć neuronowa?
- Podstawowa struktura sieci neuronowej
- Terminy dotyczące sieci neuronowych
- Architektury sieci neuronowych
- Problemy z trenowaniem sieci neuronowych
- Modele językowe
- Uczenie półnadzorowane
- Uczenie nienadzorowane
- Uczenie transferowe
- Transformery
- Architektura transformerów
- Zastosowania transformerów
- Duże modele językowe
- Wyzwania związane z trenowaniem modeli językowych
- Konkretne architektury modeli językowych
- Problemy związane z używaniem GPT-3
- Przykładowy scenariusz - projekt systemu ML/DL do klasyfikacji NLP w notatniku Jupytera
- Cel biznesowy
- Cel techniczny
- Potok
- Podsumowanie
Rozdział 7. Duże modele językowe - teoria, projektowanie i implementacja
- Wymagania techniczne
- Co to są duże modele językowe i czym różnią się od zwykłych modeli językowych?
- Modele n-gramowe
- Ukryte modele Markova (HMM)
- Rekurencyjne sieci neuronowe (RNN)
- Co wyróżnia modele LLM?
- Powody tworzenia i używania modeli LLM
- Lepsze wyniki
- Szeroka generalizacja
- Nauka na nielicznych przykładach
- Rozumienie złożonych kontekstów
- Wielojęzyczność
- Generowanie tekstu podobnego do napisanego przez człowieka
- Problemy związane z tworzeniem modeli LLM
- Ilość danych
- Zasoby obliczeniowe
- Ryzyko uprzedzeń
- Stabilność modelu
- Interpretowalność i debugowanie
- Wpływ na środowisko
- Typy modeli LLM
- Modele transformerowe
- Przykładowe projekty nowoczesnych modeli LLM
- GPT-3.5 i ChatGPT
- Wstępny trening modelu językowego
- Trening modelu nagrody
- Dostrajanie modelu przez uczenie ze wzmacnianiem
- GPT-4
- LLaMA
- PaLM
- Narzędzia open source do RLHF
- Podsumowanie
- Źródła
Rozdział 8. Dostęp do dużych modeli językowych - zaawansowana konfiguracja i integracja z RAG
- Wymagania techniczne
- Konfigurowanie aplikacji LLM - oparte na API modele o zamkniętym kodzie źródłowym
- Wybór zdalnego dostawcy LLM
- Inżynieria podpowiedzi i inicjalizowanie GPT
- Eksperymentowanie z modelem GPT
- Konfigurowanie aplikacji LLM - lokalne modele o otwartym kodzie źródłowym
- Różnice między modelami o otwartym i zamkniętym kodzie źródłowym
- Repozytorium modeli Hugging Face
- Stosowanie modeli LLM z ekosystemu Hugging Face z użyciem Pythona
- Zaawansowane projektowanie systemów - RAG i LangChain
- Koncepcje projektowe LangChain
- Źródła danych
- Dane, które nie są wstępnie osadzone
- Łańcuchy
- Agenty
- Pamięć długoterminowa i odwoływanie się do poprzednich konwersacji
- Zapewnianie ciągłej istotności przez przyrostowe aktualizacje i zautomatyzowane monitorowanie
- Omówienie prostej konfiguracji LangChain w notatniku Jupytera
- Konfigurowanie potoku LangChain w Pythonie
- Modele LLM w chmurze
- AWS
- Microsoft Azure
- GCP
- Podsumowanie usług chmurowych
- Podsumowanie
Rozdział 9. Eksplorowanie granic - zaawansowane zastosowania i innowacje w dziedzinie LLM
- Wymagania techniczne
- Zwiększanie skuteczności modeli LLM z użyciem RAG i LangChain - funkcje zaawansowane
- Potok LangChain w Pythonie - zwiększanie skuteczności modeli LLM
- Zaawansowane użycie łańcuchów
- Zadawanie modelowi LLM pytania związanego z wiedzą ogólną
- Nadawanie struktury danym wyjściowym - nakazywanie modelowi LLM zwrócenia wyników w określonym formacie
- Prowadzenie płynnej konserwacji - wstawianie elementu pamięciowego w celu użycia poprzednich interakcji jako kontekstu dla następnych podpowiedzi
- Automatyczne pobieranie informacji z różnych źródeł internetowych
- Wyszukiwanie treści w filmach na YouTubie i streszczanie ich
- Kompresja podpowiedzi i ograniczanie kosztów użycia API
- Kompresja podpowiedzi
- Eksperymentowanie z kompresją podpowiedzi i ocena kompromisów
- Wiele agentów - tworzenie zespołu współpracujących modeli LLM
- Potencjalne korzyści z jednoczesnej pracy wielu agentów
- Zespoły wielu agentów - podsumowanie
- Podsumowanie
Rozdział 10. Na fali - przeszłe, teraźniejsze i przyszłe trendy kształtowane przez modele LLM i sztuczną inteligencję
- Kluczowe trendy techniczne związane z modelami LLM i AI
- Moc obliczeniowa - siła napędowa modeli LLM
- Przyszłość mocy obliczeniowej w NLP
- Duże zbiory danych i ich niezatarty wpływ na NLP i modele LLM
- Cel - trening, testy porównawcze i wiedza dziedzinowa
- Wartość - niezawodność, różnorodność i efektywność
- Wpływ - demokratyzacja, biegłość i nowe obawy
- Ewolucja dużych modeli językowych - cel, wartość i wpływ
- Cel - po co dążyć do większych i lepszych modeli LLM?
- Wartość - przewaga modeli LLM
- Wpływ - zmiana krajobrazu
- Trendy kulturowe w NLP i modelach LLM
- NLP i modele LLM w świecie biznesu
- Sektory biznesu
- Obsługa klienta - wcześni użytkownicy
- Zarządzanie zmianami wywołanymi przez AI
- Trendy behawioralne wywoływane przez AI i model LLM - aspekt społeczny
- Rosnące znaczenie asystentów osobistych
- Łatwość komunikacji i przełamywanie barier językowych
- Etyczne implikacje delegowanych decyzji
- Etyka i zagrożenia - rosnące obawy związane z implementacją AI
- Podsumowanie
Rozdział 11. Okiem branży - opinie i prognozy ekspertów światowej klasy
- Prezentacja ekspertów
- Nitzan Mekel-Bobrov, PhD
- David Sontag, PhD
- John D. Halamka, M.D., M.S.
- Xavier Amatriain, PhD
- Melanie Garson, PhD
- Nasze pytania i odpowiedzi ekspertów
- Nitzan Mekel-Bobrov
- David Sontag
- John D. Halamka
- Xavier Amatriain
- Melanie Garson
- Podsumowanie