reklama - zainteresowany?

Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe - Helion

Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe
Autor: Valentino Zocca, Gianmario Spacagna, Daniel Slater, Peter Roelants
Tytuł oryginału: Python Deep Learning
ISBN: 978-83-283-4173-9
okładka: miękka
Data wydania: 2018-03-01
Księgarnia: Helion

Cena książki: 67,00 zł

Dodaj do koszyka Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe

Dodaj do koszyka Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe

 

Osoby które kupowały "Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe", wybierały także:

  • Windows Media Center. Domowe centrum rozrywki
  • Ruby on Rails. Ćwiczenia
  • Przywództwo w Å›wiecie VUCA. Jak być skutecznym liderem w niepewnym Å›rodowisku
  • Scrum. O zwinnym zarzÄ…dzaniu projektami. Wydanie II rozszerzone
  • Od hierarchii do turkusu, czyli jak zarzÄ…dzać w XXI wieku

Dodaj do koszyka Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe

Spis treści

Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe -- spis treści

O autorach (9)

O recenzencie (11)

Przedmowa (13)

  • Co zawiera książka? (13)
  • Co jest potrzebne podczas lektury tej książki? (14)
  • Dla kogo jest ta książka? (15)
  • Konwencje (15)
  • Pobieranie przykÅ‚adowego kodu (16)
  • Pobieranie kolorowych ilustracji do tej książki (16)

Rozdział 1. Uczenie maszynowe - wprowadzenie (17)

  • Czym jest uczenie maszynowe? (18)
  • Różne podejÅ›cia do uczenia maszynowego (19)
    • Uczenie nadzorowane (19)
    • Uczenie nienadzorowane (22)
    • Uczenie przez wzmacnianie (23)
    • Fazy systemów uczenia maszynowego (24)
    • Krótki opis popularnych technik (algorytmów) (28)
  • Zastosowania praktyczne (40)
  • Popularny pakiet open source (42)
  • Podsumowanie (48)

Rozdział 2. Sieci neuronowe (49)

  • Dlaczego sieci neuronowe? (50)
  • Podstawy (51)
    • Neurony i warstwy (52)
    • Różne rodzaje funkcji aktywacji (56)
    • Algorytm propagacji wstecznej (61)
    • Zastosowania praktyczne (68)
    • PrzykÅ‚ad kodu sieci neuronowej dla funkcji XOR (70)
  • Podsumowanie (75)

Rozdział 3. Podstawy uczenia głębokiego (77)

  • Czym jest uczenie gÅ‚Ä™bokie? (78)
    • Podstawowe pojÄ™cia (80)
    • Uczenie siÄ™ cech (81)
    • Algorytmy uczenia gÅ‚Ä™bokiego (88)
  • Zastosowania uczenia gÅ‚Ä™bokiego (89)
    • Rozpoznawanie mowy (90)
    • Rozpoznawanie i klasyfikacja obiektów (91)
  • GPU kontra CPU (94)
  • Popularne biblioteki open source - wprowadzenie (96)
    • Theano (96)
    • TensorFlow (97)
    • Keras (97)
    • PrzykÅ‚ad implementacji gÅ‚Ä™bokiej sieci neuronowej za pomocÄ… biblioteki Keras (98)
  • Podsumowanie (102)

Rozdział 4. Nienadzorowane uczenie cech (105)

  • Autoenkodery (107)
    • Projekt sieci (110)
    • Metody regularyzacji dla autoenkoderów (113)
    • Autoenkodery - podsumowanie (117)
  • Ograniczone maszyny Boltzmanna (119)
    • Sieci Hopfielda a maszyny Boltzmanna (121)
    • Maszyna Boltzmanna (123)
    • Ograniczona maszyna Boltzmanna (125)
    • Implementacja za pomocÄ… biblioteki TensorFlow (126)
    • Sieci DBN (130)
  • Podsumowanie (132)

RozdziaÅ‚ 5. Rozpoznawanie obrazów (135)

  • PodobieÅ„stwa pomiÄ™dzy modelami sztucznymi a biologicznymi (136)
  • Intuicja i uzasadnianie (137)
  • Warstwy konwolucyjne (138)
    • Parametry krok i wypeÅ‚nienie w warstwach konwolucyjnych (144)
  • Warstwy pooling (145)
  • Dropout (147)
  • Warstwy konwolucyjne w uczeniu gÅ‚Ä™bokim (147)
  • Warstwy konwolucyjne w bibliotece Theano (148)
  • PrzykÅ‚ad zastosowania warstwy konwolucyjnej do rozpoznawania cyfr za pomocÄ… biblioteki Keras (150)
  • PrzykÅ‚ad zastosowania warstwy konwolucyjnej za pomocÄ… biblioteki Keras dla zbioru danych CIFAR10 (153)
  • Szkolenie wstÄ™pne (155)
  • Podsumowanie (156)

Rozdział 6. Rekurencyjne sieci neuronowe i modele języka (159)

  • Rekurencyjne sieci neuronowe (160)
    • RNN - jak implementować i trenować? (162)
    • DÅ‚uga pamięć krótkotrwaÅ‚a (168)
  • Modelowanie jÄ™zyka (171)
    • Modele na bazie sÅ‚ów (171)
    • Modele bazujÄ…ce na znakach (176)
  • Rozpoznawanie mowy (183)
    • Potok rozpoznawania mowy (183)
    • Mowa jako dane wejÅ›ciowe (184)
    • Przetwarzanie wstÄ™pne (185)
    • Model akustyczny (186)
    • Dekodowanie (189)
    • Modele od koÅ„ca do koÅ„ca (190)
  • Podsumowanie (190)
  • Bibliografia (190)

Rozdział 7. Uczenie głębokie w grach planszowych (195)

  • Pierwsze systemy AI grajÄ…ce w gry (197)
  • Wykorzystanie algorytmu min-max do oceny stanów gry (198)
  • Implementacja gry w kóÅ‚ko i krzyżyk w Pythonie (201)
  • Uczenie funkcji wartoÅ›ci (209)
  • Trenowanie systemu AI do uzyskania mistrzostwa w grze w Go (210)
  • Zastosowanie górnych granic zaufania do drzew (213)
  • Uczenie gÅ‚Ä™bokie w algorytmie przeszukiwania drzewa Monte Carlo (220)
  • Krótkie przypomnienie technik uczenia przez wzmacnianie (222)
  • Metoda policy gradients w funkcjach strategii uczenia (222)
  • Metoda policy gradients w AlphaGo (230)
  • Podsumowanie (232)

Rozdział 8. Uczenie głębokie w grach komputerowych (235)

  • Techniki uczenia nadzorowanego w odniesieniu do gier (235)
  • Zastosowanie algorytmów genetycznych do grania w gry komputerowe (237)
  • Q-learning (238)
    • Funkcja Q (240)
  • Q-learning w akcji (241)
  • Gry dynamiczne (246)
    • Odtwarzanie doÅ›wiadczeÅ„ (250)
    • Epsilon zachÅ‚anny (253)
  • Breakout na Atari (254)
    • Losowy test gry w Breakout na Atari (255)
    • WstÄ™pne przetwarzanie ekranu (257)
    • Tworzenie gÅ‚Ä™bokiej sieci konwolucyjnej (259)
    • Problemy zbieżnoÅ›ci w technikach Q-learning (263)
    • Technika policy gradients kontra Q-learning (265)
  • Metody aktor-krytyk (266)
    • Metoda baseline do redukcji wariancji (267)
    • Uogólniony estymator korzyÅ›ci (267)
  • Metody asynchroniczne (268)
  • PodejÅ›cia bazujÄ…ce na modelach (269)
  • Podsumowanie (272)

Rozdział 9. Wykrywanie anomalii (273)

  • Co to jest wykrywanie anomalii i wykrywanie elementów odstajÄ…cych? (274)
  • Rzeczywiste zastosowania mechanizmów wykrywania anomalii (277)
  • Popularne pÅ‚ytkie techniki uczenia maszynowego (278)
    • Modelowanie danych (279)
    • Modelowanie wykrywania (279)
  • Wykrywanie anomalii z wykorzystaniem gÅ‚Ä™bokich autoenkoderów (281)
  • H2O (283)
    • Wprowadzenie do pracy z H2O (285)
  • PrzykÅ‚ady (285)
    • Rozpoznawanie anomalii wykrywania cyfr z wykorzystaniem zestawu danych MNIST (286)
  • Podsumowanie (298)

Rozdział 10. Budowanie gotowego do produkcji systemu wykrywania włamań (301)

  • Czym jest produkt danych? (302)
  • Trening (304)
    • Inicjalizacja wag (304)
    • WspóÅ‚bieżny algorytm SGD z wykorzystaniem techniki HOGWILD! (306)
    • Uczenie adaptacyjne (308)
    • Uczenie rozproszone z wykorzystaniem mechanizmu MapReduce (314)
    • Sparkling Water (317)
  • Testowanie (320)
    • Walidacja modelu (326)
    • Dostrajanie hiperparametrów (335)
    • Ocena od koÅ„ca do koÅ„ca (338)
    • Podsumowanie zagadnieÅ„ zwiÄ…zanych z testowaniem (342)
  • Wdrażanie (343)
    • Eksport modelu do formatu POJO (344)
    • Interfejsy API oceny anomalii (347)
    • Podsumowanie wdrażania (349)
  • Podsumowanie (350)

Skorowidz (351)

Dodaj do koszyka Deep Learning. Uczenie głębokie z językiem Python. Sztuczna inteligencja i sieci neuronowe

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2025 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.