reklama - zainteresowany?

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - Helion

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II
ebook
Autor: Kyle Gallatin, Chris Albon
Tytuł oryginału: Machine Learning with Python Cookbook: Practical Solutions from Preprocessing to Deep Learning, 2nd Edition
TÅ‚umaczenie: Robert G
ISBN: 978-83-289-0812-3
stron: 398, Format: ebook
Data wydania: 2024-04-23
Księgarnia: Helion

Cena książki: 53,40 zł (poprzednio: 89,00 zł)
Oszczędzasz: 40% (-35,60 zł)

Dodaj do koszyka Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II

Tagi: IT w ekonomii | Python - Programowanie | Uczenie maszynowe

W ci

Dodaj do koszyka Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II

 

Osoby które kupowały "Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II", wybierały także:

  • Lean management po polsku. O dobrych i z
  • Scrum. O zwinnym zarz
  • Lean dla bystrzak
  • Psychologia Sprzeda
  • Zakamarki marki. Rzeczy, o kt

Dodaj do koszyka Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II

Spis treści

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II eBook -- spis treści

Wprowadzenie

1. Wektor, macierz i tablica

  • 1.0. Wprowadzenie
  • 1.1. Tworzenie wektora
  • 1.2. Tworzenie macierzy
  • 1.3. Tworzenie macierzy rzadkiej
  • 1.4. WstÄ™pna alokacja tablicy NumPy
  • 1.5. Pobieranie elementów
  • 1.6. Opisywanie macierzy
  • 1.7. Przeprowadzanie operacji na wszystkich elementach
  • 1.8. Znajdowanie wartoÅ›ci maksymalnej i minimalnej
  • 1.9. Obliczanie Å›redniej, wariancji i odchylenia standardowego
  • 1.10. Zmiana ksztaÅ‚tu tablicy
  • 1.11. Transponowanie wektora lub macierzy
  • 1.12. SpÅ‚aszczanie macierzy
  • 1.13. Znajdowanie rzÄ™du macierzy
  • 1.14. Pobieranie przekÄ…tnej macierzy
  • 1.15. Obliczanie Å›ladu macierzy
  • 1.16. Obliczanie iloczynu skalarnego
  • 1.17. Dodawanie i odejmowanie macierzy
  • 1.18. Mnożenie macierzy
  • 1.19. Odwracanie macierzy
  • 1.20. Generowanie liczb losowych

2. Wczytywanie danych

  • 2.0. Wprowadzenie
  • 2.1. Wczytywanie przykÅ‚adowego zbioru danych
  • 2.2. Tworzenie symulowanego zbioru danych
  • 2.3. Wczytywanie pliku CSV
  • 2.4. Wczytywanie pliku Excela
  • 2.5. Wczytywanie pliku JSON
  • 2.6. Wczytywanie pliku Parquet
  • 2.7. Wczytywanie pliku Avro
  • 2.8. Wykonywanie zapytaÅ„ do bazy danych SQLite
  • 2.9. Wykonywanie zapytaÅ„ do zdalnej bazy danych SQL
  • 2.10. Wczytywanie danych z Google Sheets
  • 2.11. Wczytywanie danych z kubeÅ‚ka S3
  • 2.12. Wczytywanie danych nieposiadajÄ…cych struktury

3. Przygotowywanie danych

  • 3.0. Wprowadzenie
  • 3.1. Tworzenie ramki danych
  • 3.2. Opisywanie danych
  • 3.3. Poruszanie siÄ™ po ramce danych
  • 3.4. Pobieranie wierszy na podstawie pewnych warunków
  • 3.5. Sortowanie wartoÅ›ci
  • 3.6. ZastÄ™powanie wartoÅ›ci
  • 3.7. Zmiana nazwy kolumny
  • 3.8. Znajdowanie wartoÅ›ci minimalnej, maksymalnej, sumy, Å›redniej i liczby elementów w kolumnie
  • 3.9. Znajdowanie unikatowych wartoÅ›ci
  • 3.10. ObsÅ‚uga brakujÄ…cych wartoÅ›ci
  • 3.11. Usuwanie kolumn
  • 3.12. Usuwanie wiersza
  • 3.13. Usuwanie powielonych wierszy
  • 3.14. Grupowanie wierszy wedÅ‚ug wartoÅ›ci
  • 3.15. Grupowanie wierszy wedÅ‚ug czasu
  • 3.16. Agregowanie operacji i danych statystycznych
  • 3.17. Iterowanie przez kolumnÄ™
  • 3.18. WywoÅ‚ywanie funkcji dla wszystkich elementów kolumny
  • 3.19. WywoÅ‚ywanie funkcji dla grupy
  • 3.20. Konkatenacja obiektów typu DataFrame
  • 3.21. ZÅ‚Ä…czanie obiektów typu DataFrame

4. Obsługa danych liczbowych

  • 4.0. Wprowadzenie
  • 4.1. Przeskalowywanie cechy
  • 4.2. Standaryzowanie cechy
  • 4.3. Normalizowanie obserwacji
  • 4.4. Generowanie cech wielomianowych i interakcji
  • 4.5. Transformacja cech
  • 4.6. Wykrywanie elementów odstajÄ…cych
  • 4.7. ObsÅ‚uga elementów odstajÄ…cych
  • 4.8. Dyskretyzacja cech
  • 4.9. Grupowanie obserwacji przy użyciu klastra
  • 4.10. Usuwanie obserwacji, w których brakuje wartoÅ›ci
  • 4.11. UzupeÅ‚nianie brakujÄ…cych wartoÅ›ci

5. Obsługa danych kategoryzujących

  • 5.0. Wprowadzenie
  • 5.1. Kodowanie nominalnych cech kategoryzujÄ…cych
  • 5.2. Kodowanie porzÄ…dkowych cech kategoryzujÄ…cych
  • 5.3. Kodowanie sÅ‚owników cech
  • 5.4. Wstawianie brakujÄ…cych wartoÅ›ci klas
  • 5.5. ObsÅ‚uga niezrównoważonych klas

6. Obsługa tekstu

  • 6.0. Wprowadzenie
  • 6.1. Oczyszczanie tekstu
  • 6.2. Przetwarzanie i oczyszczanie danych HTML
  • 6.3. Usuwanie znaku przestankowego
  • 6.4. Tokenizacja tekstu
  • 6.5. Usuwanie sÅ‚ów o maÅ‚ym znaczeniu
  • 6.6. Stemming sÅ‚ów
  • 6.7. Oznaczanie części mowy
  • 6.8. Rozpoznawanie nazwanych jednostek
  • 6.9. Kodowanie tekstu za pomocÄ… modelu worka sÅ‚ów
  • 6.10. OkreÅ›lanie wagi sÅ‚ów
  • 6.11. Używanie wektorów tekstu do obliczania podobieÅ„stwa tekstu w zapytaniu wyszukiwania
  • 6.12. Używanie klasyfikatora analizy sentymentu

7. Obsługa daty i godziny

  • 7.0. Wprowadzenie
  • 7.1. Konwertowanie ciÄ…gu tekstowego na datÄ™
  • 7.2. ObsÅ‚uga stref czasowych
  • 7.3. Pobieranie daty i godziny
  • 7.4. PodziaÅ‚ danych daty na wiele cech
  • 7.5. Obliczanie różnicy miÄ™dzy datami
  • 7.6. Kodowanie dni tygodnia
  • 7.7. Tworzenie cechy opóźnionej w czasie
  • 7.8. Użycie okien upÅ‚ywajÄ…cego czasu
  • 7.9. ObsÅ‚uga brakujÄ…cych danych w serii danych zawierajÄ…cych wartoÅ›ci daty i godziny

8. ObsÅ‚uga obrazów

  • 8.0. Wprowadzenie
  • 8.1. Wczytywanie obrazu
  • 8.2. Zapisywanie obrazu
  • 8.3. Zmiana wielkoÅ›ci obrazu
  • 8.4. Kadrowanie obrazu
  • 8.5. Rozmywanie obrazu
  • 8.6. Wyostrzanie obrazu
  • 8.7. ZwiÄ™kszanie kontrastu
  • 8.8. Izolowanie kolorów
  • 8.9. Progowanie obrazu
  • 8.10. Usuwanie tÅ‚a obrazu
  • 8.11. Wykrywanie krawÄ™dzi
  • 8.12. Wykrywanie narożników w obrazie
  • 8.13. Tworzenie cech w uczeniu maszynowym
  • 8.14. Użycie histogramu koloru jako cechy
  • 8.15. Użycie wytrenowanych embeddingów jako cech
  • 8.16. Wykrywanie obiektów za pomocÄ… OpenCV
  • 8.17. Klasyfikowanie obrazów za pomocÄ… PyTorch

9. Redukcja wymiarowości za pomocą wyodrębniania cech

  • 9.0. Wprowadzenie
  • 9.1. Redukowanie cech za pomocÄ… gÅ‚ównych skÅ‚adowych
  • 9.2. Redukowanie cech, gdy dane sÄ… liniowo nierozÅ‚Ä…czne
  • 9.3. Redukowanie cech przez maksymalizacjÄ™ rozÅ‚Ä…cznoÅ›ci klas
  • 9.4. Redukowanie cech za pomocÄ… rozkÅ‚adu macierzy
  • 9.5. Redukowanie cech w rzadkich danych

10. Redukcja wymiarowości za pomocą wyboru cech

  • 10.0. Wprowadzenie
  • 10.1. Progowanie wariancji cechy liczbowej
  • 10.2. Progowanie wariancji cechy binarnej
  • 10.3. ObsÅ‚uga wysoce skorelowanych cech
  • 10.4. Usuwanie nieistotnych dla klasyfikacji cech
  • 10.5. Rekurencyjne eliminowanie cech

11. Ocena modelu

  • 11.0. Wprowadzenie
  • 11.1. Modele sprawdzianu krzyżowego
  • 11.2. Tworzenie modelu regresji bazowej
  • 11.3. Tworzenie modelu klasyfikacji bazowej
  • 11.4. Ocena prognoz klasyfikatora binarnego
  • 11.5. Ocena progowania klasyfikatora binarnego
  • 11.6. Ocena prognoz klasyfikatora wieloklasowego
  • 11.7. Wizualizacja wydajnoÅ›ci klasyfikatora
  • 11.8. Ocena modelu regresji
  • 11.9. Ocena modelu klasteryzacji
  • 11.10. Definiowanie niestandardowych wspóÅ‚czynników oceny modelu
  • 11.11. Wizualizacja efektu wywieranego przez wielkość zbioru uczÄ…cego
  • 11.12. Tworzenie raportu tekstowego dotyczÄ…cego wspóÅ‚czynnika oceny
  • 11.13. Wizualizacja efektu wywieranego przez zmianÄ™ wartoÅ›ci hiperparametrów

12. Wybór modelu

  • 12.0. Wprowadzenie
  • 12.1. Wybór najlepszych modeli przy użyciu wyczerpujÄ…cego wyszukiwania
  • 12.2. Wybór najlepszych modeli za pomocÄ… przeszukiwania losowego
  • 12.3. Wybór najlepszych modeli z wielu algorytmów uczenia maszynowego
  • 12.4. Wybór najlepszych modeli na etapie przygotowywania danych
  • 12.5. Przyspieszanie wyboru modelu za pomocÄ… równolegÅ‚oÅ›ci
  • 12.6. Przyspieszanie wyboru modelu przy użyciu metod charakterystycznych dla algorytmu
  • 12.7. Ocena wydajnoÅ›ci po wyborze modelu

13. Regresja liniowa

  • 13.0. Wprowadzenie
  • 13.1. Wyznaczanie linii
  • 13.2. ObsÅ‚uga wpÅ‚ywu interakcji
  • 13.3. Wyznaczanie zależnoÅ›ci nieliniowej
  • 13.4. Redukowanie wariancji za pomocÄ… regularyzacji
  • 13.5. Redukowanie cech za pomocÄ… regresji metodÄ… LASSO

14. Drzewa i lasy

  • 14.0. Wprowadzenie
  • 14.1. Trenowanie klasyfikatora drzewa decyzyjnego
  • 14.2. Trenowanie regresora drzewa decyzyjnego
  • 14.3. Wizualizacja modelu drzewa decyzyjnego
  • 14.4. Trenowanie klasyfikatora losowego lasu
  • 14.5. Trenowanie regresora losowego lasu
  • 14.6. Ocena losowego lasu za pomocÄ… estymatora bÅ‚Ä™du out-of-bag
  • 14.7. Identyfikacja ważnych cech w losowych lasach
  • 14.8. Wybór ważnych cech w losowym lesie
  • 14.9. ObsÅ‚uga niezrównoważonych klas
  • 14.10. Kontrolowanie wielkoÅ›ci drzewa
  • 14.11. Poprawa wydajnoÅ›ci za pomocÄ… wzmocnienia
  • 14.12. Wytrenowanie modelu XGBoost
  • 14.13. Poprawianie wydajnoÅ›ci w czasie rzeczywistym za pomocÄ… LightGBM

15. Algorytm k najbliższych sÄ…siadów

  • 15.0. Wprowadzenie
  • 15.1. Wyszukiwanie najbliższych sÄ…siadów obserwacji
  • 15.2. Tworzenie klasyfikatora k najbliższych sÄ…siadów
  • 15.3. Ustalanie najlepszej wielkoÅ›ci sÄ…siedztwa
  • 15.4. Tworzenie klasyfikatora najbliższych sÄ…siadów opartego na promieniu
  • 15.5. Wyszukiwanie przybliżonych najbliższych sÄ…siadów
  • 15.6. Ocena przybliżonych najbliższych sÄ…siadów

16. Regresja logistyczna

  • 16.0. Wprowadzenie
  • 16.1. Trenowanie klasyfikatora binarnego
  • 16.2. Trenowanie klasyfikatora wieloklasowego
  • 16.3. Redukcja wariancji poprzez regularyzacjÄ™
  • 16.4. Trenowanie klasyfikatora na bardzo dużych danych
  • 16.5. ObsÅ‚uga niezrównoważonych klas

17. Maszyna wektora nośnego

  • 17.0. Wprowadzenie
  • 17.1. Trenowanie klasyfikatora liniowego
  • 17.2. ObsÅ‚uga liniowo nierozdzielnych klas przy użyciu funkcji jÄ…dra
  • 17.3. OkreÅ›lanie prognozowanego prawdopodobieÅ„stwa
  • 17.4. Identyfikacja wektorów noÅ›nych
  • 17.5. ObsÅ‚uga niezrównoważonych klas

18. Naiwny klasyfikator bayesowski

  • 18.0. Wprowadzenie
  • 18.1. Trenowanie klasyfikatora dla cech ciÄ…gÅ‚ych
  • 18.2. Trenowanie klasyfikatora dla cech dyskretnych lub liczebnych
  • 18.3. Trenowanie naiwnego klasyfikatora bayesowskiego dla cech binarnych
  • 18.4. Kalibrowanie prognozowanego prawdopodobieÅ„stwa

19. Klasteryzacja

  • 19.0. Wprowadzenie
  • 19.1. Klasteryzacja za pomocÄ… k Å›rednich
  • 19.2. Przyspieszanie klasteryzacji za pomocÄ… k Å›rednich
  • 19.3. Klasteryzacja za pomocÄ… algorytmu meanshift
  • 19.4. Klasteryzacja za pomocÄ… algorytmu DBSCAN
  • 19.5. Klasteryzacja za pomocÄ… Å‚Ä…czenia hierarchicznego

20. Tensory w PyTorch

  • 20.0. Wprowadzenie
  • 20.1. Utworzenie tensora
  • 20.2. Utworzenie tensora z poziomu NumPy
  • 20.3. Utworzenie tensora rzadkiego
  • 20.4. Wybór elementów tensora
  • 20.5. Opisanie tensora
  • 20.6. Przeprowadzanie operacji na elementach tensora
  • 20.7. Wyszukiwanie wartoÅ›ci minimalnej i maksymalnej
  • 20.8. Zmiana ksztaÅ‚tu tensora
  • 20.9. Transponowanie tensora
  • 20.10. SpÅ‚aszczanie tensora
  • 20.11. Obliczanie iloczynu skalarnego
  • 20.12. Mnożenie tensorów

21. Sieci neuronowe

  • 21.0. Wprowadzenie
  • 21.1. Używanie silnika Autograd frameworka PyTorch
  • 21.2. Przygotowywanie danych dla sieci neuronowej
  • 21.3. Projektowanie sieci neuronowej
  • 21.4. Trenowanie klasyfikatora binarnego
  • 21.5. Trenowanie klasyfikatora wieloklasowego
  • 21.6. Trenowanie regresora
  • 21.7. Generowanie prognoz
  • 21.8. Wizualizacja historii trenowania
  • 21.9. Redukcja nadmiernego dopasowania za pomocÄ… regularyzacji wagi
  • 21.10. Redukcja nadmiernego dopasowania za pomocÄ… techniki wczeÅ›niejszego zakoÅ„czenia procesu uczenia
  • 21.11. Redukcja nadmiernego dopasowania za pomocÄ… techniki porzucenia
  • 21.12. Zapisywanie postÄ™pu modelu uczÄ…cego
  • 21.13. Dostrajanie sieci neuronowej
  • 21.14. Wizualizacja sieci neuronowej

22. Sieci neuronowe dla danych pozbawionych struktury

  • 22.0. Wprowadzenie
  • 22.1. Wytrenowanie sieci neuronowej na potrzeby klasyfikacji obrazów
  • 22.2. Wytrenowanie sieci neuronowej na potrzeby klasyfikacji tekstu
  • 22.3. Dostrajanie wytrenowanego modelu na potrzeby klasyfikacji obrazu
  • 22.4. Dostrajanie wytrenowanego modelu na potrzeby klasyfikacji tekstu

23. Zapisywanie, wczytywanie i udostępnianie wytrenowanych modeli

  • 23.0. Wprowadzenie
  • 23.1. Zapisywanie i wczytywanie modelu biblioteki scikit-learn
  • 23.2. Zapisywanie i wczytywanie modelu biblioteki TensorFlow
  • 23.3. Zapisywanie i wczytywanie modelu PyTorch
  • 23.4. UdostÄ™pnianie modeli scikit-learn
  • 23.5. UdostÄ™pnianie modeli TensorFlow
  • 23.6. UdostÄ™pnianie modeli PyTorch za pomocÄ… Seldon

Dodaj do koszyka Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2024 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.