reklama - zainteresowany?

Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow - Helion

Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow
Autor: Aurélien Géron
Tytuł oryginału: Hands-On Machine Learning with Scikit-Learn and TensorFlow
TÅ‚umaczenie: Krzysztof Sawka
ISBN: 978-83-283-4373-3
stron: 528, Format: 168x237, okładka: miękka
Data wydania: 2018-08-17
Księgarnia: Helion

Cena książki: 89,00 zł

Dodaj do koszyka Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow

Tagi: Python - Programowanie | Techniki programowania | Uczenie maszynowe

PojÄ™cia, techniki i narzÄ™dzia sÅ‚użące do tworzenia systemów inteligentnych

W ciÄ…gu ostatnich lat uczenie maszynowe staÅ‚o siÄ™ sercem wielu nowoczesnych produktów, takich jak zaawansowane techniki wyszukiwania w przeglÄ…darkach, rozpoznawanie mowy w smartfonach czy proponowanie treÅ›ci w zależnoÅ›ci od indywidualnych preferencji użytkownika. Być może niedÅ‚ugo taki system inteligentny zastÄ…pi CiÄ™ za kierownicÄ… samochodu. Uczenie gÅ‚Ä™bokie wprowadziÅ‚o nowÄ… jakość do uczenia maszynowego. Daje niesamowite możliwoÅ›ci, jednak wymaga olbrzymiej mocy obliczeniowej i potężnych iloÅ›ci danych. ProgramiÅ›ci implementujÄ…cy takie rozwiÄ…zania sÄ… poszukiwanymi specjalistami i mogÄ… liczyć na ekscytujÄ…ce oferty!

Ta książka jest praktycznym podrÄ™cznikiem tworzenia systemów inteligentnych. Przedstawiono tu najważniejsze zagadnienia teoretyczne dotyczÄ…ce uczenia maszynowego i sieci neuronowych. W zrozumiaÅ‚y sposób zaprezentowano koncepcje i narzÄ™dzia sÅ‚użące do tworzenia systemów inteligentnych. Opisano Scikit-Learn i TensorFlow - Å›rodowiska produkcyjne jÄ™zyka Python - i pokazano krok po kroku, w jaki sposób wykorzystuje siÄ™ je do implementacji sieci neuronowych. Liczne praktyczne przykÅ‚ady i ćwiczenia pozwolÄ… na pogÅ‚Ä™bienie i utrwalenie zdobytej wiedzy. JeÅ›li tylko potrafisz posÅ‚ugiwać siÄ™ Pythonem, dziÄ™ki tej przystÄ™pnie napisanej książce szybko zaczniesz implementować systemy inteligentne.

W tej książce między innymi:

  • podstawowe koncepcje uczenia maszynowego, uczenia gÅ‚Ä™bokiego i sieci neuronowych
  • przygotowywanie zbiorów danych i zarzÄ…dzanie nimi
  • algorytmy uczenia maszynowego
  • rodzaje architektury sieci neuronowych
  • uczenie gÅ‚Ä™bokich sieci neuronowych
  • olbrzymie zbiory danych i uczenie poprzez wzmacnianie

Już dziś zacznij tworzyć systemy inteligentne!

Dodaj do koszyka Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow

 

Osoby które kupowały "Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow", wybierały także:

  • GraphQL. Kurs video. Buduj nowoczesne API w Pythonie
  • Receptura na Python. Kurs Video. 54 praktyczne porady dla programist
  • Podstawy Pythona z Minecraftem. Kurs video. Piszemy pierwsze skrypty
  • Twórz gry w Pythonie. Kurs video. Poznaj bibliotekÄ™ PyGame
  • Data Science w Pythonie. Kurs video. Algorytmy uczenia maszynowego

Dodaj do koszyka Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow

Spis treści

Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow -- spis treści

  • Przedmowa
    • Fenomen uczenia maszynowego
    • Uczenie maszynowe w Twoich projektach
    • Cel i sposób jego osiÄ…gniÄ™cia
    • Wymogi wstÄ™pne
    • Zawartość książki
    • Dodatkowe zasoby
    • Konwencje stosowane w książce
    • Korzystanie z kodu źródÅ‚owego
    • PodziÄ™kowania
  • Część I Podstawy uczenia maszynowego
  • RozdziaÅ‚ 1. Krajobraz uczenia maszynowego
    • Czym jest uczenie maszynowe?
    • Dlaczego warto korzystać z uczenia maszynowego?
    • Rodzaje systemów uczenia maszynowego
      • Uczenie nadzorowane/nienadzorowane
        • Uczenie nadzorowane
        • Uczenie nienadzorowane
        • Uczenie póÅ‚nadzorowane
        • Uczenie przez wzmacnianie
      • Uczenie wsadowe/przyrostowe
        • Uczenie wsadowe
        • Uczenie przyrostowe
      • Uczenie z przykÅ‚adów/z modelu
        • Uczenie z przykÅ‚adów
        • Uczenie z modelu
    • GÅ‚ówne problemy uczenia maszynowego
      • Niedobór danych uczÄ…cych
      • Niereprezentatywne dane uczÄ…ce
      • Dane kiepskiej jakoÅ›ci
      • Nieistotne cechy
      • Przetrenowanie danych uczÄ…cych
      • Niedotrenowanie danych uczÄ…cych
      • Podsumowanie
    • Testowanie i ocenianie
    • Ćwiczenia
  • RozdziaÅ‚ 2. Nasz pierwszy projekt uczenia maszynowego
    • Praca z rzeczywistymi danymi
    • Przeanalizuj caÅ‚oksztaÅ‚t projektu
      • OkreÅ›l zakres problemu
      • Wybierz metrykÄ™ wydajnoÅ›ci
      • Sprawdź zaÅ‚ożenia
    • ZdobÄ…dź dane
      • Stwórz przestrzeÅ„ roboczÄ…
      • Pobierz dane
      • Rzut oka na strukturÄ™ danych
      • Stwórz zbiór testowy
    • Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje
      • Wizualizowanie danych geograficznych
      • Poszukiwanie korelacji
      • Eksperymentowanie z kombinacjami atrybutów
    • Przygotuj dane pod algorytmy uczenia maszynowego
      • Oczyszczanie danych
      • ObsÅ‚uga tekstu i atrybutów kategorialnych
      • Niestandardowe transformatory
      • Skalowanie cech
      • Potoki transformujÄ…ce
    • Wybór i uczenie modelu
      • Trenowanie i ocena modelu za pomocÄ… zbioru uczÄ…cego
      • DokÅ‚adniejsze ocenianie za pomocÄ… sprawdzianu krzyżowego
    • Wyreguluj swój model
      • Metoda przeszukiwania siatki
      • Metoda losowego przeszukiwania
      • Metody zespoÅ‚owe
      • Analizuj najlepsze modele i ich bÅ‚Ä™dy
      • OceÅ„ system za pomocÄ… zbioru testowego
    • Uruchom, monitoruj i utrzymuj swój system
    • Teraz Twoja kolej!
    • Ćwiczenia
  • RozdziaÅ‚ 3. Klasyfikacja
    • Zbiór danych MNIST
    • Uczenie klasyfikatora binarnego
    • Miary wydajnoÅ›ci
      • Pomiar dokÅ‚adnoÅ›ci za pomocÄ… sprawdzianu krzyżowego
      • Macierz pomyÅ‚ek
      • Precyzja i peÅ‚ność
      • Kompromis pomiÄ™dzy precyzjÄ… a peÅ‚noÅ›ciÄ…
      • Wykres krzywej ROC
    • Klasyfikacja wieloklasowa
    • Analiza bÅ‚Ä™dów
    • Klasyfikacja wieloetykietowa
    • Klasyfikacja wielowyjÅ›ciowa
    • Ćwiczenia
  • RozdziaÅ‚ 4. Uczenie modeli
    • Regresja liniowa
      • Równanie normalne
      • ZÅ‚ożoność obliczeniowa
    • Gradient prosty
      • Wsadowy gradient prosty
      • Stochastyczny spadek wzdÅ‚uż gradientu
      • Schodzenie po gradiencie z minigrupami
    • Regresja wielomianowa
    • Krzywe uczenia
    • Regularyzowane modele liniowe
      • Regresja grzbietowa
      • Regresja metodÄ… LASSO
      • Metoda elastycznej siatki
      • Wczesne zatrzymywanie
    • Regresja logistyczna
      • Szacowanie prawdopodobieÅ„stwa
      • Funkcje uczÄ…ca i kosztu
      • Granice decyzyjne
      • Regresja softmax
    • Ćwiczenia
  • RozdziaÅ‚ 5. Maszyny wektorów noÅ›nych
    • Liniowa klasyfikacja SVM
      • Klasyfikacja miÄ™kkiego marginesu
    • Nieliniowa klasyfikacja SVM
      • JÄ…dro wielomianowe
      • Dodawanie cech podobieÅ„stwa
      • Gaussowskie jÄ…dro RBF
      • ZÅ‚ożoność obliczeniowa
    • Regresja SVM
    • Mechanizm dziaÅ‚ania
      • Funkcja decyzyjna i prognozy
      • Cel uczenia
      • Programowanie kwadratowe
      • Problem dualny
      • Kernelizowane maszyny SVM
      • Przyrostowe maszyny SVM
    • Ćwiczenia
  • RozdziaÅ‚ 6. Drzewa decyzyjne
    • Uczenie i wizualizowanie drzewa decyzyjnego
    • Wyliczanie prognoz
    • Szacowanie prawdopodobieÅ„stw przynależnoÅ›ci do klas
    • Algorytm uczÄ…cy CART
    • ZÅ‚ożoność obliczeniowa
    • Wskaźnik Giniego czy entropia?
    • Hiperparametry regularyzacyjne
    • Regresja
    • Niestabilność
    • Ćwiczenia
  • RozdziaÅ‚ 7. Uczenie zespoÅ‚owe i losowe lasy
    • Klasyfikatory gÅ‚osujÄ…ce
    • Agregacja i wklejanie
      • Agregacja i wklejanie w module Scikit-Learn
      • Ocena OOB
    • Rejony losowe i podprzestrzenie losowe
    • Losowe lasy
      • ZespóÅ‚ Extra-Trees
      • Istotność cech
    • Wzmacnianie
      • AdaBoost
      • Wzmacnianie gradientowe
    • Kontaminacja
    • Ćwiczenia
  • RozdziaÅ‚ 8. Redukcja wymiarowoÅ›ci
    • KlÄ…twa wymiarowoÅ›ci
    • GÅ‚ówne strategie redukcji wymiarowoÅ›ci
      • Rzutowanie
      • Uczenie rozmaitoÅ›ciowe
    • Analiza PCA
      • Zachowanie wariancji
      • GÅ‚ówne skÅ‚adowe
      • Rzutowanie na d wymiarów
      • Implementacja w module Scikit-Learn
      • WspóÅ‚czynnik wariancji wyjaÅ›nionej
      • Wybór wÅ‚aÅ›ciwej liczby wymiarów
      • Algorytm PCA w zastosowaniach kompresji
      • Przyrostowa analiza PCA
      • Losowa analiza PCA
    • JÄ…drowa analiza PCA
      • Wybór jÄ…dra i strojenie hiperparametrów
    • Algorytm LLE
    • Inne techniki redukowania wymiarowoÅ›ci
    • Ćwiczenia
  • Część II Sieci neuronowe i uczenie gÅ‚Ä™bokie
  • RozdziaÅ‚ 9. Instalacja i używanie moduÅ‚u TensorFlow
    • Instalacja
    • Tworzenie pierwszego grafu i uruchamianie go w sesji
    • ZarzÄ…dzanie grafami
    • Cykl życia wartoÅ›ci w węźle
    • Regresja liniowa przy użyciu moduÅ‚u TensorFlow
    • Implementacja metody gradientu prostego
      • RÄ™czne obliczanie gradientów
      • Automatyczne różniczkowanie
      • Korzystanie z optymalizatora
    • Dostarczanie danych algorytmowi uczÄ…cemu
    • Zapisywanie i wczytywanie modeli
    • Wizualizowanie grafu i krzywych uczenia za pomocÄ… moduÅ‚u TensorBoard
    • Zakresy nazw
    • ModuÅ‚owość
    • UdostÄ™pnianie zmiennych
    • Ćwiczenia
  • RozdziaÅ‚ 10. Wprowadzenie do sztucznych sieci neuronowych
    • Od biologicznych do sztucznych neuronów
      • Neurony biologiczne
      • Operacje logiczne przy użyciu neuronów
      • Perceptron
      • Perceptron wielowarstwowy i propagacja wsteczna
    • Uczenie sieci MLP za pomocÄ… zaawansowanego interfejsu API moduÅ‚u TensorFlow
    • Uczenie gÅ‚Ä™bokiej sieci neuronowej za pomocÄ… standardowego interfejsu TensorFlow
      • Faza konstrukcyjna
      • Faza wykonawcza
      • Korzystanie z sieci neuronowej
    • Strojenie hiperparametrów sieci neuronowej
      • Liczba ukrytych warstw
      • Liczba neuronów tworzÄ…cych warstwÄ™ ukrytÄ…
      • Funkcje aktywacji
    • Ćwiczenia
  • RozdziaÅ‚ 11. Uczenie gÅ‚Ä™bokich sieci neuronowych
    • Problemy zanikajÄ…cych/eksplodujÄ…cych gradientów
      • Inicjacje wag Xaviera i He
      • NienasycajÄ…ce funkcje aktywacji
      • Normalizacja wsadowa
        • Implementacja normalizacji wsadowej za pomocÄ… moduÅ‚u TensorFlow
      • Obcinanie gradientu
    • Wielokrotne stosowanie gotowych warstw
      • Wielokrotne stosowanie modelu TensorFlow
      • Wykorzystywanie modeli utworzonych w innych Å›rodowiskach
      • Zamrażanie niższych warstw
      • ZapamiÄ™tywanie warstw ukrytych
      • Modyfikowanie, usuwanie lub zastÄ™powanie górnych warstw
      • Repozytoria modeli
      • Nienadzorowane uczenie wstÄ™pne
      • Uczenie wstÄ™pne za pomocÄ… dodatkowego zadania
    • Szybsze optymalizatory
      • Optymalizacja momentum
      • PrzyÅ›pieszony spadek wzdÅ‚uż gradientu (algorytm Nesterova)
      • AdaGrad
      • RMSProp
      • Optymalizacja Adam
      • Harmonogramowanie wspóÅ‚czynnika uczenia
    • Regularyzacja jako sposób unikania przetrenowania
      • Wczesne zatrzymywanie
      • Regularyzacja 1 i 2
      • Porzucanie
      • Regularyzacja typu max-norm
      • Dogenerowanie danych
    • Praktyczne wskazówki
    • Ćwiczenia
  • RozdziaÅ‚ 12. Rozdzielanie operacji TensorFlow pomiÄ™dzy urzÄ…dzenia i serwery
    • Wiele urzÄ…dzeÅ„ na jednym komputerze
      • Instalacja
      • ZarzÄ…dzanie pamiÄ™ciÄ… operacyjnÄ… karty graficznej
      • Umieszczanie operacji na urzÄ…dzeniach
        • Proste rozmieszczanie
        • Zapisywanie zdarzeÅ„ rozmieszczania
        • Funkcja dynamicznego rozmieszczania
        • Operacje i jÄ…dra
        • MiÄ™kkie rozmieszczanie
      • Przetwarzanie równolegÅ‚e
      • ZależnoÅ›ci sterujÄ…ce
    • Wiele urzÄ…dzeÅ„ na wielu serwerach
      • Otwieranie sesji
      • UsÅ‚ugi nadrzÄ™dna i robocza
      • Przypinanie operacji w wielu zadaniach
      • Rozdzielanie zmiennych pomiÄ™dzy wiele serwerów parametrów
      • UdostÄ™pnianie stanu rozproszonych sesji za pomocÄ… kontenerów zasobów
      • Komunikacja asynchroniczna za pomocÄ… kolejek
        • Umieszczanie danych w kolejce
        • Usuwanie danych z kolejki
        • Kolejki krotek
        • Zamykanie kolejki
        • RandomShuffleQueue
        • PaddingFIFOQueue
      • Wczytywanie danych bezpoÅ›rednio z grafu
        • WstÄ™pne wczytanie danych do zmiennej
        • Wczytywanie danych uczÄ…cych bezpoÅ›rednio z grafu
        • Czytniki wieloklasowe wykorzystujÄ…ce klasy Coordinator i QueueRunner
        • Inne funkcje pomocnicze
    • Przetwarzanie równolegÅ‚e sieci neuronowych w klastrze TensorFlow
      • Jedna sieć neuronowa na każde urzÄ…dzenie
      • Replikacja wewnÄ…trzgrafowa i miÄ™dzygrafowa
      • Zrównoleglanie modelu
      • Zrównoleglanie danych
        • Aktualizacje synchroniczne
        • Aktualizacje asynchroniczne
        • Nasycenie przepustowoÅ›ci
        • Implementacja w module TensorFlow
    • Ćwiczenia
  • RozdziaÅ‚ 13. Splotowe sieci neuronowe
    • Architektura kory wzrokowej
    • Warstwa splotowa
      • Filtry
      • Stosy map cech
      • Implementacja w module TensorFlow
      • Zużycie pamiÄ™ci operacyjnej
    • Warstwa Å‚Ä…czÄ…ca
    • Architektury splotowych sieci neuronowych
      • LeNet-5
      • AlexNet
      • GoogLeNet
      • ResNet
    • Ćwiczenia
  • RozdziaÅ‚ 14. Rekurencyjne sieci neuronowe
    • Neurony rekurencyjne
      • Komórki pamiÄ™ci
      • Sekwencje wejść i wyjść
    • Podstawowe sieci RSN w module TensorFlow
      • Statyczne rozwijanie w czasie
      • Dynamiczne rozwijanie w czasie
      • ObsÅ‚uga sekwencji wejÅ›ciowych o zmiennej dÅ‚ugoÅ›ci
      • ObsÅ‚uga sekwencji wyjÅ›ciowych o zmiennej dÅ‚ugoÅ›ci
    • Uczenie rekurencyjnych sieci neuronowych
      • Uczenie klasyfikatora sekwencji
      • Uczenie w celu przewidywania szeregów czasowych
      • Twórcza sieć rekurencyjna
    • GÅ‚Ä™bokie sieci rekurencyjne
      • Rozmieszczanie gÅ‚Ä™bokiej sieci rekurencyjnej pomiÄ™dzy wiele kart graficznych
      • Wprowadzanie metody porzucania
      • Problem uczenia w sieciach wielotaktowych
    • Komórka LSTM
      • PoÅ‚Ä…czenia przezierne
    • Komórka GRU
    • Przetwarzanie jÄ™zyka naturalnego
      • Reprezentacje wektorowe sÅ‚ów
      • Sieć typu koder-dekoder sÅ‚użąca do tÅ‚umaczenia maszynowego
    • Ćwiczenia
  • RozdziaÅ‚ 15. Autokodery
    • Efektywne reprezentacje danych
    • Analiza PCA za pomocÄ… niedopeÅ‚nionego autokodera liniowego
    • Autokodery stosowe
      • Implementacja w module TensorFlow
      • WiÄ…zanie wag
      • Uczenie autokoderów pojedynczo
      • Wizualizacja rekonstrukcji
      • Wizualizowanie cech
    • Nienadzorowane uczenie wstÄ™pne za pomocÄ… autokoderów stosowych
    • Autokodery odszumiajÄ…ce
      • Implementacja w module TensorFlow
    • Autokodery rzadkie
      • Implementacja w module TensorFlow
    • Autokodery wariacyjne
      • Generowanie cyfr
    • Inne autokodery
    • Ćwiczenia
  • RozdziaÅ‚ 16. Uczenie przez wzmacnianie
    • Uczenie siÄ™ optymalizowania nagród
    • Wyszukiwanie polityki
    • Wprowadzenie do narzÄ™dzia OpenAI gym
    • Sieci neuronowe jako polityki
    • Ocenianie czynnoÅ›ci problem przypisania zasÅ‚ugi
    • Gradienty polityk
    • Procesy decyzyjne Markowa
    • Uczenie metodÄ… różnic czasowych i algorytm Q-uczenia
      • Polityki poszukiwania
      • PrzybliżajÄ…cy algorytm Q-uczenia
    • Nauka gry w Ms. Pac-Man za pomocÄ… gÅ‚Ä™bokiego Q-uczenia
    • Ćwiczenia
    • DziÄ™kujÄ™!
  • Dodatki
  • Dodatek A RozwiÄ…zania ćwiczeÅ„
    • RozdziaÅ‚ 1. Krajobraz uczenia maszynowego
    • RozdziaÅ‚ 2. Nasz pierwszy projekt uczenia maszynowego
    • RozdziaÅ‚ 3. Klasyfikacja
    • RozdziaÅ‚ 4. Uczenie modeli
    • RozdziaÅ‚ 5. Maszyny wektorów noÅ›nych
    • RozdziaÅ‚ 6. Drzewa decyzyjne
    • RozdziaÅ‚ 7. Uczenie zespoÅ‚owe i losowe lasy
    • RozdziaÅ‚ 8. Redukcja wymiarowoÅ›ci
    • RozdziaÅ‚ 9. Instalacja i używanie moduÅ‚u TensorFlow
    • RozdziaÅ‚ 10. Wprowadzenie do sztucznych sieci neuronowych
    • RozdziaÅ‚ 11. Uczenie gÅ‚Ä™bokich sieci neuronowych
    • RozdziaÅ‚ 12. Rozdzielanie operacji TensorFlow pomiÄ™dzy urzÄ…dzenia i serwery
    • RozdziaÅ‚ 13. Splotowe sieci neuronowe
    • RozdziaÅ‚ 14. Rekurencyjne sieci neuronowe
    • RozdziaÅ‚ 15. Autokodery
    • RozdziaÅ‚ 16. Uczenie przez wzmacnianie
  • Dodatek B Lista kontrolna projektu uczenia maszynowego
    • OkreÅ›lenie problemu i przeanalizowanie go w szerszej perspektywie
    • Pozyskanie danych
    • Analiza danych
    • Przygotowanie danych
    • Stworzenie krótkiej listy obiecujÄ…cych modeli
    • Dostrojenie modelu
    • Zaprezentowanie rozwiÄ…zania
    • Do dzieÅ‚a!
  • Dodatek C Problem dualny w maszynach wektorów noÅ›nych
  • Dodatek D Różniczkowanie automatyczne
    • Różniczkowanie rÄ™czne
    • Różniczkowanie symboliczne
    • Różniczkowanie numeryczne
    • Różniczkowanie automatyczne
    • Odwrotne różniczkowanie automatyczne
  • Dodatek E Inne popularne architektury sieci neuronowych
    • Sieci Hopfielda
    • Maszyny Boltzmanna
    • Ograniczone maszyny Boltzmanna
    • GÅ‚Ä™bokie sieci przekonaÅ„
    • Mapy samoorganizujÄ…ce
    • Informacje o autorze
    • Kolofon

Dodaj do koszyka Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2024 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.