Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe - Helion
Tytuł oryginału: Python Deep Learning
ISBN: 978-83-283-4173-9
okładka: miękka
Data wydania: 2018-03-01
Księgarnia: Helion
Cena książki: 67,00 zł
Osoby które kupowały "Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe", wybierały także:
- Windows Media Center. Domowe centrum rozrywki 66,67 zł, (8,00 zł -88%)
- Ruby on Rails. Ćwiczenia 18,75 zł, (3,00 zł -84%)
- Przywództwo w świecie VUCA. Jak być skutecznym liderem w niepewnym środowisku 58,64 zł, (12,90 zł -78%)
- Scrum. O zwinnym zarządzaniu projektami. Wydanie II rozszerzone 58,64 zł, (12,90 zł -78%)
- Od hierarchii do turkusu, czyli jak zarządzać w XXI wieku 58,64 zł, (12,90 zł -78%)
Spis treści
Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe -- spis treści
O autorach (9)
O recenzencie (11)
Przedmowa (13)
- Co zawiera książka? (13)
- Co jest potrzebne podczas lektury tej książki? (14)
- Dla kogo jest ta książka? (15)
- Konwencje (15)
- Pobieranie przykładowego kodu (16)
- Pobieranie kolorowych ilustracji do tej książki (16)
Rozdział 1. Uczenie maszynowe - wprowadzenie (17)
- Czym jest uczenie maszynowe? (18)
- Różne podejÅ›cia do uczenia maszynowego (19)
- Uczenie nadzorowane (19)
- Uczenie nienadzorowane (22)
- Uczenie przez wzmacnianie (23)
- Fazy systemów uczenia maszynowego (24)
- Krótki opis popularnych technik (algorytmów) (28)
- Zastosowania praktyczne (40)
- Popularny pakiet open source (42)
- Podsumowanie (48)
Rozdział 2. Sieci neuronowe (49)
- Dlaczego sieci neuronowe? (50)
- Podstawy (51)
- Neurony i warstwy (52)
- Różne rodzaje funkcji aktywacji (56)
- Algorytm propagacji wstecznej (61)
- Zastosowania praktyczne (68)
- Przykład kodu sieci neuronowej dla funkcji XOR (70)
- Podsumowanie (75)
Rozdział 3. Podstawy uczenia głębokiego (77)
- Czym jest uczenie głębokie? (78)
- Podstawowe pojęcia (80)
- Uczenie siÄ™ cech (81)
- Algorytmy uczenia głębokiego (88)
- Zastosowania uczenia głębokiego (89)
- Rozpoznawanie mowy (90)
- Rozpoznawanie i klasyfikacja obiektów (91)
- GPU kontra CPU (94)
- Popularne biblioteki open source - wprowadzenie (96)
- Theano (96)
- TensorFlow (97)
- Keras (97)
- Przykład implementacji głębokiej sieci neuronowej za pomocą biblioteki Keras (98)
- Podsumowanie (102)
Rozdział 4. Nienadzorowane uczenie cech (105)
- Autoenkodery (107)
- Projekt sieci (110)
- Metody regularyzacji dla autoenkoderów (113)
- Autoenkodery - podsumowanie (117)
- Ograniczone maszyny Boltzmanna (119)
- Sieci Hopfielda a maszyny Boltzmanna (121)
- Maszyna Boltzmanna (123)
- Ograniczona maszyna Boltzmanna (125)
- Implementacja za pomocÄ… biblioteki TensorFlow (126)
- Sieci DBN (130)
- Podsumowanie (132)
RozdziaÅ‚ 5. Rozpoznawanie obrazów (135)
- Podobieństwa pomiędzy modelami sztucznymi a biologicznymi (136)
- Intuicja i uzasadnianie (137)
- Warstwy konwolucyjne (138)
- Parametry krok i wypełnienie w warstwach konwolucyjnych (144)
- Warstwy pooling (145)
- Dropout (147)
- Warstwy konwolucyjne w uczeniu głębokim (147)
- Warstwy konwolucyjne w bibliotece Theano (148)
- Przykład zastosowania warstwy konwolucyjnej do rozpoznawania cyfr za pomocą biblioteki Keras (150)
- Przykład zastosowania warstwy konwolucyjnej za pomocą biblioteki Keras dla zbioru danych CIFAR10 (153)
- Szkolenie wstępne (155)
- Podsumowanie (156)
Rozdział 6. Rekurencyjne sieci neuronowe i modele języka (159)
- Rekurencyjne sieci neuronowe (160)
- RNN - jak implementować i trenować? (162)
- DÅ‚uga pamięć krótkotrwaÅ‚a (168)
- Modelowanie języka (171)
- Modele na bazie sÅ‚ów (171)
- Modele bazujÄ…ce na znakach (176)
- Rozpoznawanie mowy (183)
- Potok rozpoznawania mowy (183)
- Mowa jako dane wejściowe (184)
- Przetwarzanie wstępne (185)
- Model akustyczny (186)
- Dekodowanie (189)
- Modele od końca do końca (190)
- Podsumowanie (190)
- Bibliografia (190)
Rozdział 7. Uczenie głębokie w grach planszowych (195)
- Pierwsze systemy AI grajÄ…ce w gry (197)
- Wykorzystanie algorytmu min-max do oceny stanów gry (198)
- Implementacja gry w kóÅ‚ko i krzyżyk w Pythonie (201)
- Uczenie funkcji wartości (209)
- Trenowanie systemu AI do uzyskania mistrzostwa w grze w Go (210)
- Zastosowanie górnych granic zaufania do drzew (213)
- Uczenie głębokie w algorytmie przeszukiwania drzewa Monte Carlo (220)
- Krótkie przypomnienie technik uczenia przez wzmacnianie (222)
- Metoda policy gradients w funkcjach strategii uczenia (222)
- Metoda policy gradients w AlphaGo (230)
- Podsumowanie (232)
Rozdział 8. Uczenie głębokie w grach komputerowych (235)
- Techniki uczenia nadzorowanego w odniesieniu do gier (235)
- Zastosowanie algorytmów genetycznych do grania w gry komputerowe (237)
- Q-learning (238)
- Funkcja Q (240)
- Q-learning w akcji (241)
- Gry dynamiczne (246)
- Odtwarzanie doświadczeń (250)
- Epsilon zachłanny (253)
- Breakout na Atari (254)
- Losowy test gry w Breakout na Atari (255)
- Wstępne przetwarzanie ekranu (257)
- Tworzenie głębokiej sieci konwolucyjnej (259)
- Problemy zbieżności w technikach Q-learning (263)
- Technika policy gradients kontra Q-learning (265)
- Metody aktor-krytyk (266)
- Metoda baseline do redukcji wariancji (267)
- Uogólniony estymator korzyÅ›ci (267)
- Metody asynchroniczne (268)
- Podejścia bazujące na modelach (269)
- Podsumowanie (272)
Rozdział 9. Wykrywanie anomalii (273)
- Co to jest wykrywanie anomalii i wykrywanie elementów odstajÄ…cych? (274)
- Rzeczywiste zastosowania mechanizmów wykrywania anomalii (277)
- Popularne płytkie techniki uczenia maszynowego (278)
- Modelowanie danych (279)
- Modelowanie wykrywania (279)
- Wykrywanie anomalii z wykorzystaniem gÅ‚Ä™bokich autoenkoderów (281)
- H2O (283)
- Wprowadzenie do pracy z H2O (285)
- Przykłady (285)
- Rozpoznawanie anomalii wykrywania cyfr z wykorzystaniem zestawu danych MNIST (286)
- Podsumowanie (298)
Rozdział 10. Budowanie gotowego do produkcji systemu wykrywania włamań (301)
- Czym jest produkt danych? (302)
- Trening (304)
- Inicjalizacja wag (304)
- WspóÅ‚bieżny algorytm SGD z wykorzystaniem techniki HOGWILD! (306)
- Uczenie adaptacyjne (308)
- Uczenie rozproszone z wykorzystaniem mechanizmu MapReduce (314)
- Sparkling Water (317)
- Testowanie (320)
- Walidacja modelu (326)
- Dostrajanie hiperparametrów (335)
- Ocena od końca do końca (338)
- Podsumowanie zagadnień związanych z testowaniem (342)
- Wdrażanie (343)
- Eksport modelu do formatu POJO (344)
- Interfejsy API oceny anomalii (347)
- Podsumowanie wdrażania (349)
- Podsumowanie (350)
Skorowidz (351)