Przetwarzanie j - Helion
ebook
Autor: Lewis Tunstall, Leandro von Werra, Thomas WolfTytuł oryginału: Natural Language Processing with Transformers, Revised Edition
TÅ‚umaczenie: Grzegorz Werner
ISBN: 978-83-289-0712-6
stron: 360, Format: ebook
Data wydania: 2024-03-19
Księgarnia: Helion
Cena książki: 59,40 zł (poprzednio: 99,00 zł)
Oszczędzasz: 40% (-39,60 zł)
Tagi: Inne - Programowanie
Osoby które kupowały "Przetwarzanie j", wybierały także:
- Superinteligencja. Scenariusze, strategie, zagro 66,67 zł, (14,00 zł -79%)
- Poradnik design thinking - czyli jak wykorzysta 48,28 zł, (14,00 zł -71%)
- Kosymulacja. Elastyczne projektowanie i symulacja wielodomenowa 38,39 zł, (11,90 zł -69%)
- F# 4.0 dla zaawansowanych. Wydanie IV 96,45 zł, (29,90 zł -69%)
- Systemy reaktywne. Wzorce projektowe i ich stosowanie 65,31 zł, (20,90 zł -68%)
Spis treści
Przetwarzanie języka naturalnego z wykorzystaniem transformerów. Budowanie aplikacji językowych za pomocą bibliotek Hugging Face eBook -- spis treści
Słowo wstępne
Przedmowa
1. Witajcie, transformery
- Model koder-dekoder
- Mechanizmy atencji
- Uczenie transferowe w NLP
- Hugging Face Transformers - eliminowanie luki
- PrzeglÄ…d zastosowaÅ„ transformerów
- Klasyfikacja tekstu
- Rozpoznawanie nazwanych encji
- Odpowiadanie na pytania
- Streszczanie
- TÅ‚umaczenie
- Generowanie tekstu
- Ekosystem Hugging Face
- Hugging Face Hub
- Hugging Face Tokenizers
- Hugging Face Datasets
- Hugging Face Accelerate
- GÅ‚ówne wyzwania zwiÄ…zane z transformerami
- Podsumowanie
2. Klasyfikacja tekstu
- Zbiór danych
- Pierwsze spojrzenie na zbiory danych Hugging Face
- Od zbiorów do ramek danych
- Sprawdzanie rozkładu klas
- Jak długie są nasze tweety?
- Od tekstu do tokenów
- Tokenizacja znakowa
- Tokenizacja wyrazowa
- Tokenizacja podwyrazowa
- Tokenizacja całego zbioru danych
- Trenowanie klasyfikatora tekstu
- Transformery jako ekstraktory cech
- Dostrajanie transformerów
- Podsumowanie
3. Anatomia transformera
- Architektura transformera
- Koder
- Samouwaga
- Warstwa propagacji w przód
- Dodawanie normalizacji warstw
- Osadzenia pozycyjne
- Dodawanie głowy klasyfikacyjnej
- Dekoder
- Poznaj transformery
- Drzewo życia transformerów
- Gałąź koderów
- Gałąź dekoderów
- Gałąź koderów-dekoderów
- Podsumowanie
4. Wielojęzyczne rozpoznawanie nazwanych encji
- Zbiór danych
- Transformery wielojęzyczne
- Bliższe spojrzenie na tokenizację
- Potok tokenizatora
- Tokenizator SentencePiece
- Transformery w rozpoznawaniu nazwanych encji
- Anatomia klasy modelu transformera
- Ciała i głowy
- Tworzenie niestandardowego modelu do klasyfikacji tokenów
- Wczytywanie niestandardowego modelu
- Tokenizacja tekstów na użytek NER
- Miary efektywności
- Dostrajanie modelu XLM-RoBERTa
- Analiza bÅ‚Ä™dów
- Transfer międzyjęzykowy
- Kiedy transfer zero-shot ma sens?
- Dostrajanie na wielu językach jednocześnie
- Interaktywne używanie widgetów modelu
- Podsumowanie
5. Generowanie tekstu
- TrudnoÅ›ci z generowaniem spójnego tekstu
- Dekodowanie z wyszukiwaniem zachłannym
- Dekodowanie z wyszukiwaniem wiÄ…zkowym
- Metody próbkowania
- Próbkowanie top-k i próbkowanie jÄ…drowe
- Która metoda dekodowania jest najlepsza?
- Podsumowanie
6. Streszczanie
- Zbiór danych CNN/DailyMail
- Potoki streszczania tekstu
- Punkt odniesienia
- GPT-2
- T5
- BART
- PEGASUS
- Porównanie różnych streszczeÅ„
- Mierzenie jakości generowanego tekstu
- BLEU
- ROUGE
- Ewaluacja PEGASUS-a na zbiorze danych CNN/DailyMail
- Trenowanie modelu streszczania
- Ewaluacja PEGASUS-a na zbiorze SAMSum
- Dostrajanie PEGASUS-a
- Generowanie streszczeÅ„ dialogów
- Podsumowanie
7. Odpowiadanie na pytania
- Budowanie systemu QA opartego na recenzjach
- Zbiór danych
- Wyodrębnianie odpowiedzi z tekstu
- Budowanie potoku QA z wykorzystaniem biblioteki Haystack
- Ulepszanie potoku QA
- Ewaluacja modułu wyszukującego
- Ewaluacja modułu czytającego
- Adaptacja dziedzinowa
- Ewaluacja całego potoku QA
- Wykraczanie poza ekstrakcyjne QA
- Podsumowanie
8. ZwiÄ™kszanie wydajnoÅ›ci transformerów w Å›rodowisku produkcyjnym
- Wykrywanie intencji jako studium przypadku
- Tworzenie testu porównawczego
- Zmniejszanie modeli poprzez destylacjÄ™ wiedzy
- Destylacja wiedzy na użytek dostrajania
- Destylacja wiedzy na użytek treningu wstępnego
- Tworzenie trenera do destylacji wiedzy
- Wybór dobrej inicjalizacji ucznia
- Znajdowanie dobrych parametrów za pomocÄ… Optuny
- Testowanie wydestylowanego modelu
- Przyspieszanie modeli za pomocÄ… kwantyzacji
- Testowanie skwantyzowanego modelu
- Optymalizowanie inferencji za pomocÄ… standardu ONNX i platformy ONNX Runtime
- Rozrzedzanie modeli poprzez redukcjÄ™ wag
- Rozrzedzanie w głębokich sieciach neuronowych
- Metody redukcji wag
- Podsumowanie
9. Jak radzić sobie z nielicznymi etykietami lub brakiem etykiet
- Budowanie narzÄ™dzia do tagowania problemów na GitHubie
- Pozyskiwanie danych
- Przygotowywanie danych
- Tworzenie zbiorów treningowych
- Tworzenie wycinków treningowych
- Naiwny klasyfikator bayesowski jako model odniesienia
- Praca bez etykiet
- Praca z nielicznymi etykietami
- Wzbogacanie danych
- Używanie osadzeń jako tabeli wyszukiwania
- Dostrajanie standardowego transformera
- Uczenie kontekstowe i few-shot z podpowiedziami
- Wykorzystywanie danych bez etykiet
- Dostrajanie modelu językowego
- Dostrajanie klasyfikatora
- Metody zaawansowane
- Podsumowanie
10. Trenowanie transformerów od podstaw
- Duże zbiory danych i gdzie ich szukać
- Wyzwania związane z budowaniem dużego korpusu
- Budowanie własnego zbioru danych z kodem
- Praca z dużymi zbiorami danych
- Dodawanie zbiorów danych do witryny Hugging Face Hub
- Budowanie tokenizatora
- Model tokenizatora
- Mierzenie efektywności tokenizatora
- Tokenizator dla Pythona
- Trenowanie tokenizatora
- Zapisywanie niestandardowego tokenizatora w witrynie Hub
- Trenowanie modelu od podstaw
- Opowieść o celach treningu wstępnego
- Inicjalizowanie modelu
- Implementowanie klasy do wczytywania danych
- Definiowanie pętli treningowej
- Przebieg treningowy
- Wyniki i analiza
- Podsumowanie
11. Przyszłe kierunki
- Skalowanie transformerów
- Prawa skalowania
- Wyzwania zwiÄ…zane ze skalowaniem
- Prosimy o uwagÄ™!
- Atencja rozrzedzona
- Atencja linearyzowana
- Nie tylko tekst
- Wizja
- Tabele
- Transformery multimodalne
- Przetwarzanie mowy na tekst
- Wizja i tekst
- Co dalej?