reklama - zainteresowany?

Uczenie maszynowe z u - Helion

Uczenie maszynowe z u

MIEJSCE 6 na li┼Ťcie TOP 20
Autor: Aur
Tytuł oryginału: Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems, 3rd Edition
Tłumaczenie: Krzysztof Sawka
ISBN: 978-83-8322-423-7
stron: 821, Format: 165x235, okładka: mi
Ksi─Ögarnia: Helion

Ksi─ů┼╝ka b─Ödzie dost─Öpna od kwietnia 2023

Tagi: IT w ekonomii | Python - Programowanie | Techniki programowania | Uczenie maszynowe

Poj

 

Zobacz tak┼╝e:

  • Scrum. O zwinnym zarz
  • Lean dla bystrzak
  • Psychologia Sprzeda
  • Zakamarki marki. Rzeczy, o kt
  • Zrozumie

Spis tre┼Ťci

Uczenie maszynowe z u┼╝yciem Scikit-Learn, Keras i TensorFlow. Wydanie III -- spis tre┼Ťci

Przedmowa

Cz─Ö┼Ť─ç I. Podstawy uczenia maszynowego

  • 1. Krajobraz uczenia maszynowego
    • Czym jest uczenie maszynowe?
    • Dlaczego warto korzysta─ç z uczenia maszynowego?
    • Przyk┼éadowe zastosowania
    • Rodzaje systemów uczenia maszynowego
      • Nadzorowanie uczenia
      • Uczenie wsadowe i uczenie przyrostowe
      • Uczenie z przyk┼éadów i uczenie z modelu
    • G┼éówne problemy uczenia maszynowego
      • Niedobór danych ucz─ůcych
      • Niereprezentatywne dane ucz─ůce
      • Dane kiepskiej jako┼Ťci
      • Nieistotne cechy
      • Przetrenowanie danych ucz─ůcych
      • Niedotrenowanie danych ucz─ůcych
      • Podsumowanie
    • Testowanie i ocenianie
      • Strojenie hiperparametrów i dobór modelu
      • Niezgodno┼Ť─ç danych
    • ─ćwiczenia
  • 2. Nasz pierwszy projekt uczenia maszynowego
    • Praca z rzeczywistymi danymi
    • Przeanalizuj ca┼éokszta┼ét projektu
      • Okre┼Ťl zakres problemu
      • Wybierz wska┼║nik wydajno┼Ťci
      • Sprawd┼║ za┼éo┼╝enia
    • Zdob─ůd┼║ dane
      • Uruchom przyk┼éadowy kod w serwisie Google Colab
      • Zapisz zmiany w kodzie i w danych
      • Zalety i wady interaktywno┼Ťci
      • Kod w ksi─ů┼╝ce a kod w notatnikach Jupyter
      • Pobierz dane
      • Rzut oka na struktur─Ö danych
      • Stwórz zbiór testowy
    • Odkrywaj i wizualizuj dane, aby zdobywa─ç nowe informacje
      • Zwizualizuj dane geograficzne
      • Poszukaj korelacji
      • Eksperymentuj z kombinacjami atrybutów
    • Przygotuj dane pod algorytmy uczenia maszynowego
      • Oczy┼Ť─ç dane
      • Obs┼éuga tekstu i atrybutów kategorialnych
      • Skalowanie i przekszta┼écanie cech
      • Niestandardowe transformatory
      • Potoki transformuj─ůce
    • Wybierz i wytrenuj model
      • Trenuj i oce┼ä model za pomoc─ů zbioru ucz─ůcego
      • Dok┼éadniejsze ocenianie za pomoc─ů sprawdzianu krzy┼╝owego
    • Wyreguluj swój model
      • Metoda przeszukiwania siatki
      • Metoda losowego przeszukiwania
      • Metody zespo┼éowe
      • Analizowanie najlepszych modeli i ich b┼é─Ödów
      • Oce┼ä system za pomoc─ů zbioru testowego
    • Uruchom, monitoruj i utrzymuj swój system
    • Teraz Twoja kolej!
    • ─ćwiczenia
  • 3. Klasyfikacja
    • Zbiór danych MNIST
    • Uczenie klasyfikatora binarnego
    • Miary wydajno┼Ťci
      • Pomiar dok┼éadno┼Ťci za pomoc─ů sprawdzianu krzy┼╝owego
      • Macierz pomy┼éek
      • Precyzja i pe┼éno┼Ť─ç
      • Kompromis pomi─Ödzy precyzj─ů a pe┼éno┼Ťci─ů
      • Wykres krzywej ROC
    • Klasyfikacja wieloklasowa
    • Analiza b┼é─Ödów
    • Klasyfikacja wieloetykietowa
    • Klasyfikacja wielowyj┼Ťciowa
    • ─ćwiczenia
  • 4. Uczenie modeli
    • Regresja liniowa
      • Równanie normalne
      • Z┼éo┼╝ono┼Ť─ç obliczeniowa
    • Gradient prosty
      • Wsadowy gradient prosty
      • Stochastyczny spadek wzd┼éu┼╝ gradientu
      • Schodzenie po gradiencie z minigrupami
    • Regresja wielomianowa
    • Krzywe uczenia
    • Regularyzowane modele liniowe
      • Regresja grzbietowa
      • Regresja metod─ů LASSO
      • Regresja metod─ů elastycznej siatki
      • Wczesne zatrzymywanie
    • Regresja logistyczna
      • Szacowanie prawdopodobie┼ästwa
      • Funkcje ucz─ůca i kosztu
      • Granice decyzyjne
      • Regresja softmax
    • ─ćwiczenia
  • 5. Maszyny wektorów no┼Ťnych
    • Liniowa klasyfikacja SVM
      • Klasyfikacja mi─Ökkiego marginesu
    • Nieliniowa klasyfikacja SVM
      • J─ůdro wielomianowe
      • Cechy podobie┼ästwa
      • Gaussowskie j─ůdro RBF
      • Klasy SVM i z┼éo┼╝ono┼Ť─ç obliczeniowa
    • Regresja SVM
    • Mechanizm dzia┼éania liniowych klasyfikatorów SVM
    • Problem dualny
      • Kernelizowane maszyny SVM
    • ─ćwiczenia
  • 6. Drzewa decyzyjne
    • Uczenie i wizualizowanie drzewa decyzyjnego
    • Wyliczanie prognoz
    • Szacowanie prawdopodobie┼ästw przynale┼╝no┼Ťci do klas
    • Algorytm ucz─ůcy CART
    • Z┼éo┼╝ono┼Ť─ç obliczeniowa
    • Wska┼║nik Giniego czy entropia?
    • Hiperparametry regularyzacyjne
    • Regresja
    • Wra┼╝liwo┼Ť─ç na orientacj─Ö osi
    • Drzewa decyzyjne maj─ů znaczn─ů wariancj─Ö
    • ─ćwiczenia
  • 7. Uczenie zespo┼éowe i losowe lasy
    • Klasyfikatory g┼éosuj─ůce
    • Agregacja i wklejanie
      • Agregacja i wklejanie w module Scikit-Learn
      • Ocena OOB
      • Rejony losowe i podprzestrzenie losowe
    • Losowe lasy
      • Zespó┼é Extra-Trees
      • Istotno┼Ť─ç cech
    • Wzmacnianie
      • AdaBoost
      • Wzmacnianie gradientowe
      • Wzmacnianie gradientu w oparciu o histogram
    • Kontaminacja
    • ─ćwiczenia
  • 8. Redukcja wymiarowo┼Ťci
    • Kl─ůtwa wymiarowo┼Ťci
    • G┼éówne strategie redukcji wymiarowo┼Ťci
      • Rzutowanie
      • Uczenie rozmaito┼Ťciowe
    • Analiza PCA
      • Zachowanie wariancji
      • G┼éówne sk┼éadowe
      • Rzutowanie na d wymiarów
      • Implementacja w module Scikit-Learn
      • Wspó┼éczynnik wariancji wyja┼Ťnionej
      • Wybór w┼éa┼Ťciwej liczby wymiarów
      • Algorytm PCA w zastosowaniach kompresji
      • Losowa analiza PCA
      • Przyrostowa analiza PCA
    • Rzutowanie losowe
    • Algorytm LLE
    • Inne techniki redukowania wymiarowo┼Ťci
    • ─ćwiczenia
  • 9. Techniki uczenia nienadzorowanego
    • Analiza skupie┼ä: algorytm centroidów i DBSCAN
      • Algorytm centroidów
      • Granice algorytmu centroidów
      • Analiza skupie┼ä w segmentacji obrazu
      • Analiza skupie┼ä w uczeniu pó┼énadzorowanym
      • Algorytm DBSCAN
      • Inne algorytmy analizy skupie┼ä
    • Mieszaniny gaussowskie
      • Wykrywanie anomalii za pomoc─ů mieszanin gaussowskich
      • Wyznaczanie liczby skupie┼ä
      • Bayesowskie modele mieszane
      • Inne algorytmy s┼éu┼╝─ůce do wykrywania anomalii i nowo┼Ťci
    • ─ćwiczenia

Cz─Ö┼Ť─ç II. Sieci neuronowe i uczenie g┼é─Öbokie

  • 10. Wprowadzenie do sztucznych sieci neuronowych i ich implementacji z u┼╝yciem interfejsu Keras
    • Od biologicznych do sztucznych neuronów
      • Neurony biologiczne
      • Operacje logiczne przy u┼╝yciu neuronów
      • Perceptron
      • Perceptron wielowarstwowy i propagacja wsteczna
      • Regresyjne perceptrony wielowarstwowe
      • Klasyfikacyjne perceptrony wielowarstwowe
    • Implementowanie perceptronów wielowarstwowych za pomoc─ů interfejsu Keras
      • Tworzenie klasyfikatora obrazów za pomoc─ů interfejsu sekwencyjnego
      • Tworzenie regresyjnego perceptronu wielowarstwowego za pomoc─ů interfejsu sekwencyjnego
      • Tworzenie z┼éo┼╝onych modeli za pomoc─ů interfejsu funkcyjnego
      • Tworzenie modeli dynamicznych za pomoc─ů interfejsu podklasowego
      • Zapisywanie i odczytywanie modelu
      • Stosowanie wywo┼éa┼ä zwrotnych
      • Wizualizacja danych za pomoc─ů narz─Ödzia TensorBoard
    • Dostrajanie hiperparametrów sieci neuronowej
      • Liczba warstw ukrytych
      • Liczba neuronów w poszczególnych warstwach ukrytych
      • Wspó┼éczynnik uczenia, rozmiar grupy i pozosta┼ée hiperparametry
    • ─ćwiczenia
  • 11. Uczenie g┼é─Öbokich sieci neuronowych
    • Problemy zanikaj─ůcych/eksploduj─ůcych gradientów
      • Inicjalizacje wag Glorota i He
      • Lepsze funkcje aktywacji
      • Normalizacja wsadowa
      • Obcinanie gradientu
    • Wielokrotne stosowanie gotowych warstw
      • Uczenie transferowe w interfejsie Keras
      • Nienadzorowane uczenie wst─Öpne
      • Uczenie wst─Öpne za pomoc─ů dodatkowego zadania
    • Szybsze optymalizatory
      • Optymalizacja momentum
      • Przyspieszony spadek wzd┼éu┼╝ gradientu (algorytm Nesterova)
      • AdaGrad
      • RMSProp
      • Optymalizator Adam
      • AdaMax
      • Nadam
      • AdamW
    • Harmonogramowanie wspó┼éczynnika uczenia
    • Regularyzacja jako sposób zapobiegania przetrenowaniu
      • Regularyzacja l1 i l2
      • Porzucanie
      • Regularyzacja typu Monte Carlo (MC)
      • Regularyzacja typu max-norm
    • Podsumowanie i praktyczne wskazówki
    • ─ćwiczenia
  • 12. Modele niestandardowe i uczenie za pomoc─ů modu┼éu TensorFlow
    • Krótkie omówienie modu┼éu TensorFlow
    • Korzystanie z modu┼éu TensorFlow jak z biblioteki NumPy
      • Tensory i operacje
      • Tensory a biblioteka NumPy
      • Konwersje typów
      • Zmienne
      • Inne struktury danych
    • Dostosowywanie modeli i algorytmów uczenia
      • Niestandardowe funkcje straty
      • Zapisywanie i wczytywanie modeli zawieraj─ůcych elementy niestandardowe
      • Niestandardowe funkcje aktywacji, inicjalizatory, regularyzatory i ograniczenia
      • Niestandardowe wska┼║niki
      • Niestandardowe warstwy
      • Niestandardowe modele
      • Funkcje straty i wska┼║niki oparte na elementach wewn─Ötrznych modelu
      • Obliczanie gradientów za pomoc─ů ró┼╝niczkowania automatycznego
      • Niestandardowe p─Ötle uczenia
    • Funkcje i grafy modu┼éu TensorFlow
      • AutoGraph i kre┼Ťlenie
      • Regu┼éy zwi─ůzane z funkcj─ů TF
    • ─ćwiczenia
  • 13. Wczytywanie i wst─Öpne przetwarzanie danych za pomoc─ů modu┼éu TensorFlow
    • Interfejs tf.data
      • ┼ü─ůczenie przekszta┼éce┼ä
      • Tasowanie danych
      • Przeplatanie wierszy z ró┼╝nych plików
      • Wst─Öpne przetwarzanie danych
      • Sk┼éadanie wszystkiego w ca┼éo┼Ť─ç
      • Pobieranie wst─Öpne
      • Stosowanie zestawu danych z interfejsem Keras
    • Format TFRecord
      • Skompresowane pliki TFRecord
      • Wprowadzenie do buforów protoko┼éów
      • Bufory protoko┼éów w module TensorFlow
      • Wczytywanie i analizowanie sk┼éadni obiektów Example
      • Obs┼éuga list list za pomoc─ů bufora protoko┼éów SequenceExample
    • Warstwy przetwarzania wst─Öpnego Keras
      • Warstwa Normalization
      • Warstwa Discretization
      • Warstwa CategoryEncoding
      • Warstwa StringLookup
      • Warstwa Hashing
      • Kodowanie cech kategorialnych za pomoc─ů wektorów w┼éa┼Ťciwo┼Ťciowych
      • Wst─Öpne przetwarzanie tekstu
      • Korzystanie z wytrenowanych sk┼éadników modelu j─Özykowego
      • Warstwy wst─Öpnego przetwarzania obrazów
    • Projekt TensorFlow Datasets (TFDS)
    • ─ćwiczenia
  • 14. G┼é─Öbokie widzenie komputerowe za pomoc─ů splotowych sieci neuronowych
    • Struktura kory wzrokowej
    • Warstwy splotowe
      • Filtry
      • Stosy map cech
      • Implementacja warstw splotowych w interfejsie Keras
      • Zu┼╝ycie pami─Öci operacyjnej
    • Warstwa ┼é─ůcz─ůca
    • Implementacja warstw ┼é─ůcz─ůcych w interfejsie Keras
    • Architektury splotowych sieci neuronowych
      • LeNet-5
      • AlexNet
      • GoogLeNet
      • VGGNet
      • ResNet
      • Xception
      • SENet
      • Inne interesuj─ůce struktury
      • Wybór w┼éa┼Ťciwej struktury CNN
    • Implementacja sieci ResNet-34 za pomoc─ů interfejsu Keras
    • Korzystanie z gotowych modeli w interfejsie Keras
    • Gotowe modele w uczeniu transferowym
    • Klasyfikowanie i lokalizowanie
    • Wykrywanie obiektów
      • W pe┼éni po┼é─ůczone sieci splotowe
      • Sie─ç YOLO
    • ┼Üledzenie obiektów
    • Segmentacja semantyczna
    • ─ćwiczenia
  • 15. Przetwarzanie sekwencji za pomoc─ů sieci rekurencyjnych i splotowych
    • Neurony i warstwy rekurencyjne
      • Komórki pami─Öci
      • Sekwencje wej┼Ť─ç i wyj┼Ť─ç
    • Uczenie sieci rekurencyjnych
    • Prognozowanie szeregów czasowych
      • Rodzina modeli ARMA
      • Przygotowywanie danych dla modeli uczenia maszynowego
      • Prognozowanie za pomoc─ů modelu liniowego
      • Prognozowanie za pomoc─ů prostej sieci rekurencyjnej
      • Prognozowanie za pomoc─ů g┼é─Öbokich sieci rekurencyjnych
      • Prognozowanie wielowymiarowych szeregów czasowych
      • Prognozowanie kilka taktów w przód
      • Prognozowanie za pomoc─ů modelu sekwencyjnego
    • Obs┼éuga d┼éugich sekwencji
      • Zwalczanie problemu niestabilnych gradientów
      • Zwalczanie problemu pami─Öci krótkotrwa┼éej
    • ─ćwiczenia
  • 16. Przetwarzanie j─Özyka naturalnego za pomoc─ů sieci rekurencyjnych i mechanizmów uwagi
    • Generowanie tekstów szekspirowskich za pomoc─ů znakowej sieci rekurencyjnej
      • Tworzenie zestawu danych ucz─ůcych
      • Budowanie i uczenie modelu char-RNN
      • Generowanie sztucznego tekstu szekspirowskiego
      • Stanowe sieci rekurencyjne
    • Analiza opinii
      • Maskowanie
      • Korzystanie z gotowych reprezentacji w┼éa┼Ťciwo┼Ťciowych i modeli j─Özykowych
    • Sie─ç typu koder - dekoder s┼éu┼╝─ůca do neuronowego t┼éumaczenia maszynowego
      • Dwukierunkowe sieci rekurencyjne
      • Przeszukiwanie wi─ůzkowe
    • Mechanizmy uwagi
      • Liczy si─Ö tylko uwaga: pierwotna architektura transformatora
    • Zatrz─Ösienie modeli transformatorów
    • Transformatory wizualne
    • Biblioteka Transformers firmy Hugging Face
    • ─ćwiczenia
  • 17. Autokodery, generatywne sieci przeciwstawne i modele rozpraszaj─ůce
    • Efektywne reprezentacje danych
    • Analiza PCA za pomoc─ů niedope┼énionego autokodera liniowego
    • Autokodery stosowe
      • Implementacja autokodera stosowego za pomoc─ů interfejsu Keras
      • Wizualizowanie rekonstrukcji
      • Wizualizowanie zestawu danych Fashion MNIST
      • Nienadzorowane uczenie wst─Öpne za pomoc─ů autokoderów stosowych
      • Wi─ůzanie wag
      • Uczenie autokoderów pojedynczo
    • Autokodery splotowe
    • Autokodery odszumiaj─ůce
    • Autokodery rzadkie
    • Autokodery wariacyjne
    • Generowanie obrazów Fashion MNIST
    • Generatywne sieci przeciwstawne
      • Problemy zwi─ůzane z uczeniem sieci GAN
      • G┼é─Öbokie splotowe sieci GAN
      • Rozrost progresywny sieci GAN
      • Sieci StyleGAN
    • Modele rozpraszaj─ůce
    • ─ćwiczenia
  • 18. Uczenie przez wzmacnianie
    • Uczenie si─Ö optymalizowania nagród
    • Wyszukiwanie strategii
    • Wprowadzenie do narz─Ödzia OpenAI Gym
    • Sieci neuronowe jako strategie
    • Ocenianie czynno┼Ťci: problem przypisania zas┼éugi
    • Gradienty strategii
    • Procesy decyzyjne Markowa
    • Uczenie metod─ů ró┼╝nic czasowych
    • Q-uczenie
      • Strategie poszukiwania
      • Przybli┼╝aj─ůcy algorytm Q-uczenia i Q-uczenie g┼é─Öbokie
    • Implementacja modelu Q-uczenia g┼é─Öbokiego
    • Odmiany Q-uczenia g┼é─Öbokiego
      • Ustalone Q-warto┼Ťci docelowe
      • Podwójna sie─ç DQN
      • Odtwarzanie priorytetowych do┼Ťwiadcze┼ä
      • Walcz─ůca sie─ç DQN
    • Przegl─ůd popularnych algorytmów RN
    • ─ćwiczenia
  • 19. Wielkoskalowe uczenie i wdra┼╝anie modeli TensorFlow
    • Eksploatacja modelu TensorFlow
      • Korzystanie z systemu TensorFlow Serving
      • Tworzenie us┼éugi predykcyjnej na platformie Vertex AI
      • Uwierzytelnianie i autoryzacja w serwisie GCP
      • Wykonywanie zada┼ä predykcji wsadowych w us┼éudze Vertex AI
    • Wdra┼╝anie modelu na urz─ůdzeniu mobilnym lub wbudowanym
    • Przetwarzanie modelu na stronie internetowej
    • Przyspieszanie oblicze┼ä za pomoc─ů procesorów graficznych
      • Zakup w┼éasnej karty graficznej
      • Zarz─ůdzanie pami─Öci─ů operacyjn─ů karty graficznej
      • Umieszczanie operacji i zmiennych na urz─ůdzeniach
      • Przetwarzanie równoleg┼ée na wielu urz─ůdzeniach
    • Uczenie modeli za pomoc─ů wielu urz─ůdze┼ä
      • Zrównoleglanie modelu
      • Zrównoleglanie danych
      • Uczenie wielkoskalowe za pomoc─ů interfejsu strategii rozpraszania
      • Uczenie modelu za pomoc─ů klastra TensorFlow
      • Realizowanie du┼╝ych grup zada┼ä uczenia za pomoc─ů us┼éugi Vertex AI
      • Strojenie hiperparametrów w us┼éudze Vertex AI
    • ─ćwiczenia
    • Dzi─Ökuj─Ö!

A. Lista kontrolna projektu uczenia maszynowego

B. Ró┼╝niczkowanie automatyczne

C. Specjalne struktury danych

D. Grafy TensorFlow

Skorowidz

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2024 CATALIST agencja interaktywna, znaki firmowe nale┼╝─ů do wydawnictwa Helion S.A.