Matematyka w deep learningu. Co musisz wiedzie - Helion
MIEJSCE 5 na liście TOP 20
Autor: Ronald T. KneuselTytuł oryginału: Math for Deep Learning: What You Need to Know to Understand Neural Networks
TÅ‚umaczenie: Filip Kami
ISBN: 978-83-289-1016-4
stron: 344, Format: 165x228, okładka: mi
Data wydania: 2024-10-01
Księgarnia: Helion
Cena książki: 53,40 zł (poprzednio: 89,00 zł)
Oszczędzasz: 40% (-35,60 zł)
Osoby które kupowały "Matematyka w deep learningu. Co musisz wiedzie", wybierały także:
- Matematyka. Kurs video. Teoria dla programisty i data science 399,00 zł, (119,70 zł -70%)
- Matematyka a programowanie. Kurs video. Od pojęcia liczby po płaszczyznę zespoloną w Pythonie 149,00 zł, (44,70 zł -70%)
- Statystyka. Kurs video. Przewodnik dla student 128,71 zł, (39,90 zł -69%)
- Matematyka. Kurs video. 299,00 zł, (104,65 zł -65%)
- Dziwna matematyka. Podróż ku nieskończoności 48,75 zł, (19,50 zł -60%)
Spis treści
Matematyka w deep learningu. Co musisz wiedzieć, aby zrozumieć sieci neuronowe -- spis treści
Przedmowa
Wprowadzenie
1. Przygotowanie środowiska pracy
- Instalowanie zestawu narzędzi
- Linuks
- macOS
- Windows
- NumPy
- Definiowanie tablic
- Typy danych
- Tablice dwuwymiarowe
- np.zeros i np.ones
- Zaawansowane indeksowanie
- Odczyt i zapis na dysku
- SciPy
- Matplotlib
- Scikit-learn
- Podsumowanie
2. Prawdopodobieństwo
- Podstawowe koncepcje
- PrzestrzeÅ„ próbek i zdarzenia
- Zmienne losowe
- Ludzie nie radzą sobie z prawdopodobieństwem
- Reguły prawdopodobieństwa
- Prawdopodobieństwo zdarzenia
- Reguła dodawania
- Reguła mnożenia
- Ponowne spojrzenie na regułę dodawania
- Paradoks dnia urodzin
- Prawdopodobieństwo warunkowe
- Prawdopodobieństwo całkowite
- Prawdopodobieństwo łączne i brzegowe
- Tabele prawdopodobieństwa łącznego
- Reguła łańcuchowa dla prawdopodobieństwa
- Podsumowanie
3. Więcej prawdopodobieństwa
- Rozkłady prawdopodobieństwa
- Histogramy i prawdopodobieństwa
- Dyskretne rozkłady prawdopodobieństwa
- Ciągłe rozkłady prawdopodobieństwa
- Centralne twierdzenie graniczne
- Prawo wielkich liczb
- Twierdzenie Bayesa
- Rak czy nie rak
- Aktualizacja prawdopodobieństwa a priori
- Twierdzenie Bayesa w uczeniu maszynowym
- Podsumowanie
4. Statystyka
- Rodzaje danych
- Dane nominalne
- Dane porzÄ…dkowe
- Dane interwałowe
- Dane ilorazowe
- Wykorzystanie danych nominalnych w uczeniu głębokim
- Statystyki podsumowujÄ…ce
- Åšrednie i mediana
- Miary zmienności
- Kwantyle i wykresy pudełkowe
- Braki w danych
- Korelacja
- WspóÅ‚czynnik korelacji Pearsona
- Korelacja Spearmana
- Testowanie hipotez
- Hipotezy
- Test t
- Test U Manna-Whitneya
- Podsumowanie
5. Algebra liniowa
- Skalary, wektory, macierze i tensory
- Skalary
- Wektory
- Macierze
- Tensory
- Arytmetyka tensorów
- Operacje tablicowe
- Operacje wektorowe
- Mnożenie macierzy
- Iloczyn Kroneckera
- Podsumowanie
6. Więcej algebry liniowej
- Macierze kwadratowe
- Dlaczego macierze kwadratowe?
- Transpozycja, ślad i potęgowanie
- Specjalne macierze kwadratowe
- Macierz jednostkowa
- Wyznaczniki
- Odwrotności
- Macierze symetryczne, ortogonalne i unitarne
- Określoność macierzy symetrycznych
- Wektory i wartości własne
- Znajdowanie wartoÅ›ci i wektorów wÅ‚asnych
- Normy wektorowe i miary odległości
- L-normy oraz miary odległości
- Macierze kowariancji
- Odległość Mahalanobisa
- Dywergencja Kullbacka-Leiblera
- Analiza gÅ‚ównych skÅ‚adowych
- Rozkład według wartości osobliwych i pseudoodwrotności
- SVD w akcji
- Dwa zastosowania
- Podsumowanie
7. Rachunek różniczkowy
- Nachylenie
- Pochodne
- Definicja formalna
- Podstawowe zasady
- Funkcje trygonometryczne
- Funkcje wykładnicze i logarytmy
- Minima i maksima funkcji
- Pochodne czÄ…stkowe
- Mieszane pochodne czÄ…stkowe
- Reguła łańcuchowa dla pochodnych cząstkowych
- Gradienty
- Obliczanie gradientu
- Wizualizacja gradientu
- Podsumowanie
8. Macierzowy rachunek różniczkowy
- Formuły
- Funkcja wektorowa z argumentem skalarnym
- Funkcja skalarna z argumentem wektorowym
- Funkcja wektorowa przyjmujÄ…ca wektor
- Funkcja macierzowa przyjmujÄ…ca skalar
- Funkcja skalarna przyjmujÄ…ca macierz
- Tożsamości
- Funkcja skalarna z argumentem wektorowym
- Funkcja wektorowa z argumentem skalarnym
- Funkcja wektorowa przyjmujÄ…ca wektor
- Funkcja skalarna przyjmujÄ…ca macierz
- Macierze Jacobiego i hesjany
- Macierze Jacobiego
- Hesjany
- Wybrane przykÅ‚ady z macierzowego rachunku różniczkowego
- Pochodna operacji na elementach
- Pochodna funkcji aktywacji
- Podsumowanie
9. Przepływ danych w sieciach neuronowych
- Reprezentacja danych
- Tradycyjne sieci neuronowe
- Głębokie sieci konwolucyjne
- Przepływ danych w tradycyjnych sieciach neuronowych
- Przepływ danych w konwolucyjnych sieciach neuronowych
- Konwolucja
- Warstwy konwolucyjne
- Warstwy Å‚Ä…czÄ…ce
- Warstwy w pełni połączone
- Przepływ danych w konwolucyjnej sieci neuronowej
- Podsumowanie
10. Propagacja wsteczna
- Czym jest propagacja wsteczna?
- Ręczne przeprowadzanie propagacji wstecznej
- Pochodne czÄ…stkowe
- Zamiana formuł na kod w Pythonie
- Uczenie i testowanie modelu
- Propagacja wsteczna w sieciach w pełni połączonych
- Wsteczna propagacja błędu
- Obliczanie pochodnych czÄ…stkowych wag i wyrazów wolnych
- Implementacja w Pythonie
- Korzystanie z implementacji
- Grafy obliczeniowe
- Podsumowanie
11. Metoda gradientu prostego
- Podstawowa idea
- Jednowymiarowa metoda gradientu prostego
- Metoda gradientu prostego w dwóch wymiarach
- Stochastyczna metoda gradientu prostego
- Pęd
- Czym jest pęd?
- Pęd w jednym wymiarze
- PÄ™d w dwóch wymiarach
- Uczenie modeli za pomocą metod z pędem
- Pęd Niestierowa
- Adaptacyjna metoda gradientu prostego
- RMSprop
- Adagrad i Adadelta
- Adam
- Kilka uwag na temat metod optymalizacji
- Podsumowanie
- Epilog
Dodatek. Co dalej?
Skorowidz