reklama - zainteresowany?

Matematyka w deep learningu. Co musisz wiedzie - Helion

Matematyka w deep learningu. Co musisz wiedzie
ebook
Autor: Ronald T. Kneusel
Tytuł oryginału: Math for Deep Learning: What You Need to Know to Understand Neural Networks
TÅ‚umaczenie: Filip Kami
ISBN: 978-83-289-1017-1
stron: 344, Format: ebook
Data wydania: 2024-10-01
Księgarnia: Helion

Cena książki: 44,50 zł (poprzednio: 89,00 zł)
Oszczędzasz: 50% (-44,50 zł)

Dodaj do koszyka Matematyka w deep learningu. Co musisz wiedzie

Tagi: Matematyka | Uczenie maszynowe

Uczenie maszynowe niesie ze sob

Dodaj do koszyka Matematyka w deep learningu. Co musisz wiedzie

 

Osoby które kupowały "Matematyka w deep learningu. Co musisz wiedzie", wybierały także:

  • Ryszard Kilvington. NieskoÅ„czoność i geometria
  • Matematyka w programowaniu gier i grafice komputerowej. Tworzenie i renderowanie wirtualnych
  • Podstawy matematyki w data science. Algebra liniowa, rachunek prawdopodobie
  • Domowe lekcje matematyki. Klasy 4-6
  • Matematyka w uczeniu maszynowym

Dodaj do koszyka Matematyka w deep learningu. Co musisz wiedzie

Spis treści

Matematyka w deep learningu. Co musisz wiedzieć, aby zrozumieć sieci neuronowe eBook -- spis treści

Przedmowa

Wprowadzenie

1. Przygotowanie środowiska pracy

  • Instalowanie zestawu narzÄ™dzi
    • Linuks
    • macOS
    • Windows
  • NumPy
    • Definiowanie tablic
    • Typy danych
    • Tablice dwuwymiarowe
    • np.zeros i np.ones
    • Zaawansowane indeksowanie
    • Odczyt i zapis na dysku
  • SciPy
  • Matplotlib
  • Scikit-learn
  • Podsumowanie

2. Prawdopodobieństwo

  • Podstawowe koncepcje
    • PrzestrzeÅ„ próbek i zdarzenia
    • Zmienne losowe
    • Ludzie nie radzÄ… sobie z prawdopodobieÅ„stwem
  • ReguÅ‚y prawdopodobieÅ„stwa
    • PrawdopodobieÅ„stwo zdarzenia
    • ReguÅ‚a dodawania
    • ReguÅ‚a mnożenia
    • Ponowne spojrzenie na reguÅ‚Ä™ dodawania
    • Paradoks dnia urodzin
    • PrawdopodobieÅ„stwo warunkowe
    • PrawdopodobieÅ„stwo caÅ‚kowite
  • PrawdopodobieÅ„stwo Å‚Ä…czne i brzegowe
    • Tabele prawdopodobieÅ„stwa Å‚Ä…cznego
    • ReguÅ‚a Å‚aÅ„cuchowa dla prawdopodobieÅ„stwa
  • Podsumowanie

3. Więcej prawdopodobieństwa

  • RozkÅ‚ady prawdopodobieÅ„stwa
    • Histogramy i prawdopodobieÅ„stwa
    • Dyskretne rozkÅ‚ady prawdopodobieÅ„stwa
    • CiÄ…gÅ‚e rozkÅ‚ady prawdopodobieÅ„stwa
    • Centralne twierdzenie graniczne
    • Prawo wielkich liczb
  • Twierdzenie Bayesa
    • Rak czy nie rak
    • Aktualizacja prawdopodobieÅ„stwa a priori
    • Twierdzenie Bayesa w uczeniu maszynowym
  • Podsumowanie

4. Statystyka

  • Rodzaje danych
    • Dane nominalne
    • Dane porzÄ…dkowe
    • Dane interwaÅ‚owe
    • Dane ilorazowe
    • Wykorzystanie danych nominalnych w uczeniu gÅ‚Ä™bokim
  • Statystyki podsumowujÄ…ce
    • Åšrednie i mediana
    • Miary zmiennoÅ›ci
  • Kwantyle i wykresy pudeÅ‚kowe
  • Braki w danych
  • Korelacja
    • WspóÅ‚czynnik korelacji Pearsona
    • Korelacja Spearmana
  • Testowanie hipotez
    • Hipotezy
    • Test t
    • Test U Manna-Whitneya
  • Podsumowanie

5. Algebra liniowa

  • Skalary, wektory, macierze i tensory
    • Skalary
    • Wektory
    • Macierze
    • Tensory
  • Arytmetyka tensorów
    • Operacje tablicowe
    • Operacje wektorowe
    • Mnożenie macierzy
    • Iloczyn Kroneckera
  • Podsumowanie

6. Więcej algebry liniowej

  • Macierze kwadratowe
    • Dlaczego macierze kwadratowe?
    • Transpozycja, Å›lad i potÄ™gowanie
    • Specjalne macierze kwadratowe
    • Macierz jednostkowa
    • Wyznaczniki
    • OdwrotnoÅ›ci
    • Macierze symetryczne, ortogonalne i unitarne
    • OkreÅ›loność macierzy symetrycznych
  • Wektory i wartoÅ›ci wÅ‚asne
    • Znajdowanie wartoÅ›ci i wektorów wÅ‚asnych
  • Normy wektorowe i miary odlegÅ‚oÅ›ci
    • L-normy oraz miary odlegÅ‚oÅ›ci
    • Macierze kowariancji
    • OdlegÅ‚ość Mahalanobisa
    • Dywergencja Kullbacka-Leiblera
  • Analiza gÅ‚ównych skÅ‚adowych
  • RozkÅ‚ad wedÅ‚ug wartoÅ›ci osobliwych i pseudoodwrotnoÅ›ci
    • SVD w akcji
    • Dwa zastosowania
  • Podsumowanie

7. Rachunek różniczkowy

  • Nachylenie
  • Pochodne
    • Definicja formalna
    • Podstawowe zasady
    • Funkcje trygonometryczne
    • Funkcje wykÅ‚adnicze i logarytmy
  • Minima i maksima funkcji
  • Pochodne czÄ…stkowe
    • Mieszane pochodne czÄ…stkowe
    • ReguÅ‚a Å‚aÅ„cuchowa dla pochodnych czÄ…stkowych
  • Gradienty
    • Obliczanie gradientu
    • Wizualizacja gradientu
  • Podsumowanie

8. Macierzowy rachunek różniczkowy

  • FormuÅ‚y
    • Funkcja wektorowa z argumentem skalarnym
    • Funkcja skalarna z argumentem wektorowym
    • Funkcja wektorowa przyjmujÄ…ca wektor
    • Funkcja macierzowa przyjmujÄ…ca skalar
    • Funkcja skalarna przyjmujÄ…ca macierz
  • TożsamoÅ›ci
    • Funkcja skalarna z argumentem wektorowym
    • Funkcja wektorowa z argumentem skalarnym
    • Funkcja wektorowa przyjmujÄ…ca wektor
    • Funkcja skalarna przyjmujÄ…ca macierz
  • Macierze Jacobiego i hesjany
    • Macierze Jacobiego
    • Hesjany
  • Wybrane przykÅ‚ady z macierzowego rachunku różniczkowego
    • Pochodna operacji na elementach
    • Pochodna funkcji aktywacji
  • Podsumowanie

9. Przepływ danych w sieciach neuronowych

  • Reprezentacja danych
    • Tradycyjne sieci neuronowe
    • GÅ‚Ä™bokie sieci konwolucyjne
  • PrzepÅ‚yw danych w tradycyjnych sieciach neuronowych
  • PrzepÅ‚yw danych w konwolucyjnych sieciach neuronowych
    • Konwolucja
    • Warstwy konwolucyjne
    • Warstwy Å‚Ä…czÄ…ce
    • Warstwy w peÅ‚ni poÅ‚Ä…czone
    • PrzepÅ‚yw danych w konwolucyjnej sieci neuronowej
  • Podsumowanie

10. Propagacja wsteczna

  • Czym jest propagacja wsteczna?
  • RÄ™czne przeprowadzanie propagacji wstecznej
    • Pochodne czÄ…stkowe
    • Zamiana formuÅ‚ na kod w Pythonie
    • Uczenie i testowanie modelu
  • Propagacja wsteczna w sieciach w peÅ‚ni poÅ‚Ä…czonych
    • Wsteczna propagacja bÅ‚Ä™du
    • Obliczanie pochodnych czÄ…stkowych wag i wyrazów wolnych
    • Implementacja w Pythonie
    • Korzystanie z implementacji
  • Grafy obliczeniowe
  • Podsumowanie

11. Metoda gradientu prostego

  • Podstawowa idea
    • Jednowymiarowa metoda gradientu prostego
    • Metoda gradientu prostego w dwóch wymiarach
    • Stochastyczna metoda gradientu prostego
  • PÄ™d
    • Czym jest pÄ™d?
    • PÄ™d w jednym wymiarze
    • PÄ™d w dwóch wymiarach
    • Uczenie modeli za pomocÄ… metod z pÄ™dem
    • PÄ™d Niestierowa
  • Adaptacyjna metoda gradientu prostego
    • RMSprop
    • Adagrad i Adadelta
    • Adam
    • Kilka uwag na temat metod optymalizacji
  • Podsumowanie
  • Epilog

Dodatek. Co dalej?

Skorowidz

Dodaj do koszyka Matematyka w deep learningu. Co musisz wiedzie

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2024 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.