Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - Helion
Tytuł oryginału: Machine Learning with Python Cookbook: Practical Solutions from Preprocessing to Deep Learning, 2nd Edition
TÅ‚umaczenie: Robert G
ISBN: 978-83-289-0812-3
stron: 398, Format: ebook
Data wydania: 2024-04-23
Księgarnia: Helion
Cena książki: 53,40 zł (poprzednio: 89,00 zł)
Oszczędzasz: 40% (-35,60 zł)
Osoby które kupowały "Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II", wybierały także:
- Lean management po polsku. O dobrych i z 49,90 zł, (14,97 zł -70%)
- Scrum. O zwinnym zarz 79,00 zł, (23,70 zł -70%)
- Lean dla bystrzak 59,90 zł, (17,97 zł -70%)
- Psychologia Sprzeda 39,90 zł, (11,97 zł -70%)
- Zakamarki marki. Rzeczy, o kt 54,90 zł, (16,47 zł -70%)
Spis treści
Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II eBook -- spis treści
Wprowadzenie
1. Wektor, macierz i tablica
- 1.0. Wprowadzenie
- 1.1. Tworzenie wektora
- 1.2. Tworzenie macierzy
- 1.3. Tworzenie macierzy rzadkiej
- 1.4. Wstępna alokacja tablicy NumPy
- 1.5. Pobieranie elementów
- 1.6. Opisywanie macierzy
- 1.7. Przeprowadzanie operacji na wszystkich elementach
- 1.8. Znajdowanie wartości maksymalnej i minimalnej
- 1.9. Obliczanie średniej, wariancji i odchylenia standardowego
- 1.10. Zmiana kształtu tablicy
- 1.11. Transponowanie wektora lub macierzy
- 1.12. Spłaszczanie macierzy
- 1.13. Znajdowanie rzędu macierzy
- 1.14. Pobieranie przekÄ…tnej macierzy
- 1.15. Obliczanie śladu macierzy
- 1.16. Obliczanie iloczynu skalarnego
- 1.17. Dodawanie i odejmowanie macierzy
- 1.18. Mnożenie macierzy
- 1.19. Odwracanie macierzy
- 1.20. Generowanie liczb losowych
2. Wczytywanie danych
- 2.0. Wprowadzenie
- 2.1. Wczytywanie przykładowego zbioru danych
- 2.2. Tworzenie symulowanego zbioru danych
- 2.3. Wczytywanie pliku CSV
- 2.4. Wczytywanie pliku Excela
- 2.5. Wczytywanie pliku JSON
- 2.6. Wczytywanie pliku Parquet
- 2.7. Wczytywanie pliku Avro
- 2.8. Wykonywanie zapytań do bazy danych SQLite
- 2.9. Wykonywanie zapytań do zdalnej bazy danych SQL
- 2.10. Wczytywanie danych z Google Sheets
- 2.11. Wczytywanie danych z kubełka S3
- 2.12. Wczytywanie danych nieposiadajÄ…cych struktury
3. Przygotowywanie danych
- 3.0. Wprowadzenie
- 3.1. Tworzenie ramki danych
- 3.2. Opisywanie danych
- 3.3. Poruszanie siÄ™ po ramce danych
- 3.4. Pobieranie wierszy na podstawie pewnych warunków
- 3.5. Sortowanie wartości
- 3.6. Zastępowanie wartości
- 3.7. Zmiana nazwy kolumny
- 3.8. Znajdowanie wartoÅ›ci minimalnej, maksymalnej, sumy, Å›redniej i liczby elementów w kolumnie
- 3.9. Znajdowanie unikatowych wartości
- 3.10. Obsługa brakujących wartości
- 3.11. Usuwanie kolumn
- 3.12. Usuwanie wiersza
- 3.13. Usuwanie powielonych wierszy
- 3.14. Grupowanie wierszy według wartości
- 3.15. Grupowanie wierszy według czasu
- 3.16. Agregowanie operacji i danych statystycznych
- 3.17. Iterowanie przez kolumnÄ™
- 3.18. WywoÅ‚ywanie funkcji dla wszystkich elementów kolumny
- 3.19. Wywoływanie funkcji dla grupy
- 3.20. Konkatenacja obiektów typu DataFrame
- 3.21. ZÅ‚Ä…czanie obiektów typu DataFrame
4. Obsługa danych liczbowych
- 4.0. Wprowadzenie
- 4.1. Przeskalowywanie cechy
- 4.2. Standaryzowanie cechy
- 4.3. Normalizowanie obserwacji
- 4.4. Generowanie cech wielomianowych i interakcji
- 4.5. Transformacja cech
- 4.6. Wykrywanie elementów odstajÄ…cych
- 4.7. ObsÅ‚uga elementów odstajÄ…cych
- 4.8. Dyskretyzacja cech
- 4.9. Grupowanie obserwacji przy użyciu klastra
- 4.10. Usuwanie obserwacji, w których brakuje wartoÅ›ci
- 4.11. Uzupełnianie brakujących wartości
5. Obsługa danych kategoryzujących
- 5.0. Wprowadzenie
- 5.1. Kodowanie nominalnych cech kategoryzujÄ…cych
- 5.2. Kodowanie porzÄ…dkowych cech kategoryzujÄ…cych
- 5.3. Kodowanie sÅ‚owników cech
- 5.4. Wstawianie brakujących wartości klas
- 5.5. ObsÅ‚uga niezrównoważonych klas
6. Obsługa tekstu
- 6.0. Wprowadzenie
- 6.1. Oczyszczanie tekstu
- 6.2. Przetwarzanie i oczyszczanie danych HTML
- 6.3. Usuwanie znaku przestankowego
- 6.4. Tokenizacja tekstu
- 6.5. Usuwanie sÅ‚ów o maÅ‚ym znaczeniu
- 6.6. Stemming sÅ‚ów
- 6.7. Oznaczanie części mowy
- 6.8. Rozpoznawanie nazwanych jednostek
- 6.9. Kodowanie tekstu za pomocÄ… modelu worka sÅ‚ów
- 6.10. OkreÅ›lanie wagi sÅ‚ów
- 6.11. Używanie wektorów tekstu do obliczania podobieÅ„stwa tekstu w zapytaniu wyszukiwania
- 6.12. Używanie klasyfikatora analizy sentymentu
7. Obsługa daty i godziny
- 7.0. Wprowadzenie
- 7.1. Konwertowanie ciÄ…gu tekstowego na datÄ™
- 7.2. Obsługa stref czasowych
- 7.3. Pobieranie daty i godziny
- 7.4. Podział danych daty na wiele cech
- 7.5. Obliczanie różnicy miÄ™dzy datami
- 7.6. Kodowanie dni tygodnia
- 7.7. Tworzenie cechy opóźnionej w czasie
- 7.8. Użycie okien upływającego czasu
- 7.9. Obsługa brakujących danych w serii danych zawierających wartości daty i godziny
8. ObsÅ‚uga obrazów
- 8.0. Wprowadzenie
- 8.1. Wczytywanie obrazu
- 8.2. Zapisywanie obrazu
- 8.3. Zmiana wielkości obrazu
- 8.4. Kadrowanie obrazu
- 8.5. Rozmywanie obrazu
- 8.6. Wyostrzanie obrazu
- 8.7. Zwiększanie kontrastu
- 8.8. Izolowanie kolorów
- 8.9. Progowanie obrazu
- 8.10. Usuwanie tła obrazu
- 8.11. Wykrywanie krawędzi
- 8.12. Wykrywanie narożników w obrazie
- 8.13. Tworzenie cech w uczeniu maszynowym
- 8.14. Użycie histogramu koloru jako cechy
- 8.15. Użycie wytrenowanych embeddingów jako cech
- 8.16. Wykrywanie obiektów za pomocÄ… OpenCV
- 8.17. Klasyfikowanie obrazów za pomocÄ… PyTorch
9. Redukcja wymiarowości za pomocą wyodrębniania cech
- 9.0. Wprowadzenie
- 9.1. Redukowanie cech za pomocÄ… gÅ‚ównych skÅ‚adowych
- 9.2. Redukowanie cech, gdy dane są liniowo nierozłączne
- 9.3. Redukowanie cech przez maksymalizację rozłączności klas
- 9.4. Redukowanie cech za pomocą rozkładu macierzy
- 9.5. Redukowanie cech w rzadkich danych
10. Redukcja wymiarowości za pomocą wyboru cech
- 10.0. Wprowadzenie
- 10.1. Progowanie wariancji cechy liczbowej
- 10.2. Progowanie wariancji cechy binarnej
- 10.3. Obsługa wysoce skorelowanych cech
- 10.4. Usuwanie nieistotnych dla klasyfikacji cech
- 10.5. Rekurencyjne eliminowanie cech
11. Ocena modelu
- 11.0. Wprowadzenie
- 11.1. Modele sprawdzianu krzyżowego
- 11.2. Tworzenie modelu regresji bazowej
- 11.3. Tworzenie modelu klasyfikacji bazowej
- 11.4. Ocena prognoz klasyfikatora binarnego
- 11.5. Ocena progowania klasyfikatora binarnego
- 11.6. Ocena prognoz klasyfikatora wieloklasowego
- 11.7. Wizualizacja wydajności klasyfikatora
- 11.8. Ocena modelu regresji
- 11.9. Ocena modelu klasteryzacji
- 11.10. Definiowanie niestandardowych wspóÅ‚czynników oceny modelu
- 11.11. Wizualizacja efektu wywieranego przez wielkość zbioru uczącego
- 11.12. Tworzenie raportu tekstowego dotyczÄ…cego wspóÅ‚czynnika oceny
- 11.13. Wizualizacja efektu wywieranego przez zmianÄ™ wartoÅ›ci hiperparametrów
12. Wybór modelu
- 12.0. Wprowadzenie
- 12.1. Wybór najlepszych modeli przy użyciu wyczerpujÄ…cego wyszukiwania
- 12.2. Wybór najlepszych modeli za pomocÄ… przeszukiwania losowego
- 12.3. Wybór najlepszych modeli z wielu algorytmów uczenia maszynowego
- 12.4. Wybór najlepszych modeli na etapie przygotowywania danych
- 12.5. Przyspieszanie wyboru modelu za pomocÄ… równolegÅ‚oÅ›ci
- 12.6. Przyspieszanie wyboru modelu przy użyciu metod charakterystycznych dla algorytmu
- 12.7. Ocena wydajności po wyborze modelu
13. Regresja liniowa
- 13.0. Wprowadzenie
- 13.1. Wyznaczanie linii
- 13.2. Obsługa wpływu interakcji
- 13.3. Wyznaczanie zależności nieliniowej
- 13.4. Redukowanie wariancji za pomocÄ… regularyzacji
- 13.5. Redukowanie cech za pomocÄ… regresji metodÄ… LASSO
14. Drzewa i lasy
- 14.0. Wprowadzenie
- 14.1. Trenowanie klasyfikatora drzewa decyzyjnego
- 14.2. Trenowanie regresora drzewa decyzyjnego
- 14.3. Wizualizacja modelu drzewa decyzyjnego
- 14.4. Trenowanie klasyfikatora losowego lasu
- 14.5. Trenowanie regresora losowego lasu
- 14.6. Ocena losowego lasu za pomocą estymatora błędu out-of-bag
- 14.7. Identyfikacja ważnych cech w losowych lasach
- 14.8. Wybór ważnych cech w losowym lesie
- 14.9. ObsÅ‚uga niezrównoważonych klas
- 14.10. Kontrolowanie wielkości drzewa
- 14.11. Poprawa wydajności za pomocą wzmocnienia
- 14.12. Wytrenowanie modelu XGBoost
- 14.13. Poprawianie wydajności w czasie rzeczywistym za pomocą LightGBM
15. Algorytm k najbliższych sÄ…siadów
- 15.0. Wprowadzenie
- 15.1. Wyszukiwanie najbliższych sÄ…siadów obserwacji
- 15.2. Tworzenie klasyfikatora k najbliższych sÄ…siadów
- 15.3. Ustalanie najlepszej wielkości sąsiedztwa
- 15.4. Tworzenie klasyfikatora najbliższych sÄ…siadów opartego na promieniu
- 15.5. Wyszukiwanie przybliżonych najbliższych sÄ…siadów
- 15.6. Ocena przybliżonych najbliższych sÄ…siadów
16. Regresja logistyczna
- 16.0. Wprowadzenie
- 16.1. Trenowanie klasyfikatora binarnego
- 16.2. Trenowanie klasyfikatora wieloklasowego
- 16.3. Redukcja wariancji poprzez regularyzacjÄ™
- 16.4. Trenowanie klasyfikatora na bardzo dużych danych
- 16.5. ObsÅ‚uga niezrównoważonych klas
17. Maszyna wektora nośnego
- 17.0. Wprowadzenie
- 17.1. Trenowanie klasyfikatora liniowego
- 17.2. Obsługa liniowo nierozdzielnych klas przy użyciu funkcji jądra
- 17.3. Określanie prognozowanego prawdopodobieństwa
- 17.4. Identyfikacja wektorów noÅ›nych
- 17.5. ObsÅ‚uga niezrównoważonych klas
18. Naiwny klasyfikator bayesowski
- 18.0. Wprowadzenie
- 18.1. Trenowanie klasyfikatora dla cech ciągłych
- 18.2. Trenowanie klasyfikatora dla cech dyskretnych lub liczebnych
- 18.3. Trenowanie naiwnego klasyfikatora bayesowskiego dla cech binarnych
- 18.4. Kalibrowanie prognozowanego prawdopodobieństwa
19. Klasteryzacja
- 19.0. Wprowadzenie
- 19.1. Klasteryzacja za pomocą k średnich
- 19.2. Przyspieszanie klasteryzacji za pomocą k średnich
- 19.3. Klasteryzacja za pomocÄ… algorytmu meanshift
- 19.4. Klasteryzacja za pomocÄ… algorytmu DBSCAN
- 19.5. Klasteryzacja za pomocÄ… Å‚Ä…czenia hierarchicznego
20. Tensory w PyTorch
- 20.0. Wprowadzenie
- 20.1. Utworzenie tensora
- 20.2. Utworzenie tensora z poziomu NumPy
- 20.3. Utworzenie tensora rzadkiego
- 20.4. Wybór elementów tensora
- 20.5. Opisanie tensora
- 20.6. Przeprowadzanie operacji na elementach tensora
- 20.7. Wyszukiwanie wartości minimalnej i maksymalnej
- 20.8. Zmiana kształtu tensora
- 20.9. Transponowanie tensora
- 20.10. Spłaszczanie tensora
- 20.11. Obliczanie iloczynu skalarnego
- 20.12. Mnożenie tensorów
21. Sieci neuronowe
- 21.0. Wprowadzenie
- 21.1. Używanie silnika Autograd frameworka PyTorch
- 21.2. Przygotowywanie danych dla sieci neuronowej
- 21.3. Projektowanie sieci neuronowej
- 21.4. Trenowanie klasyfikatora binarnego
- 21.5. Trenowanie klasyfikatora wieloklasowego
- 21.6. Trenowanie regresora
- 21.7. Generowanie prognoz
- 21.8. Wizualizacja historii trenowania
- 21.9. Redukcja nadmiernego dopasowania za pomocÄ… regularyzacji wagi
- 21.10. Redukcja nadmiernego dopasowania za pomocą techniki wcześniejszego zakończenia procesu uczenia
- 21.11. Redukcja nadmiernego dopasowania za pomocÄ… techniki porzucenia
- 21.12. Zapisywanie postępu modelu uczącego
- 21.13. Dostrajanie sieci neuronowej
- 21.14. Wizualizacja sieci neuronowej
22. Sieci neuronowe dla danych pozbawionych struktury
- 22.0. Wprowadzenie
- 22.1. Wytrenowanie sieci neuronowej na potrzeby klasyfikacji obrazów
- 22.2. Wytrenowanie sieci neuronowej na potrzeby klasyfikacji tekstu
- 22.3. Dostrajanie wytrenowanego modelu na potrzeby klasyfikacji obrazu
- 22.4. Dostrajanie wytrenowanego modelu na potrzeby klasyfikacji tekstu
23. Zapisywanie, wczytywanie i udostępnianie wytrenowanych modeli
- 23.0. Wprowadzenie
- 23.1. Zapisywanie i wczytywanie modelu biblioteki scikit-learn
- 23.2. Zapisywanie i wczytywanie modelu biblioteki TensorFlow
- 23.3. Zapisywanie i wczytywanie modelu PyTorch
- 23.4. Udostępnianie modeli scikit-learn
- 23.5. Udostępnianie modeli TensorFlow
- 23.6. Udostępnianie modeli PyTorch za pomocą Seldon