Matematyka w uczeniu maszynowym - Helion
ebook
Autor: Marc Peter Deisenroth, A. Aldo Faisal, Cheng Soon OngTytuł oryginału: Mathematics for Machine Learning
TÅ‚umaczenie: Filip Kami
ISBN: 978-83-283-8460-6
stron: 416, Format: ebook
Data wydania: 2022-08-01
Księgarnia: Helion
Cena książki: 64,50 zł (poprzednio: 129,00 zł)
Oszczędzasz: 50% (-64,50 zł)
Osoby które kupowały "Matematyka w uczeniu maszynowym", wybierały także:
- Ryszard Kilvington. Nieskończoność i geometria 19,52 zł, (8,98 zł -54%)
- Matematyka w deep learningu. Co musisz wiedzie 89,00 zł, (44,50 zł -50%)
- Matematyka w programowaniu gier i grafice komputerowej. Tworzenie i renderowanie wirtualnych 89,00 zł, (44,50 zł -50%)
- Podstawy matematyki w data science. Algebra liniowa, rachunek prawdopodobie 69,00 zł, (34,50 zł -50%)
- Domowe lekcje matematyki. Klasy 4-6 39,90 zł, (19,95 zł -50%)
Spis treści
Matematyka w uczeniu maszynowym eBook -- spis treści
Spis treści
Lista symboli
Lista skrótów i akronimów
Wstęp
Podziękowania
Część I. Podstawy matematyczne
- 1. Wprowadzenie i motywacje
- 1.1. Znajdowanie sÅ‚ów dla intuicji
- 1.2. Dwa sposoby na przeczytanie tej książki
- 1.3. Ćwiczenia i informacje zwrotne
- 2. Algebra liniowa
- 2.1. UkÅ‚ady równaÅ„ liniowych
- 2.2. Macierze
- 2.3. RozwiÄ…zywanie ukÅ‚adów równaÅ„ liniowych
- 2.4. Przestrzenie wektorowe
- 2.5. Niezależność liniowa
- 2.6. Baza i rzÄ…d
- 2.7. Przekształcenia liniowe
- 2.8. Przestrzenie afiniczne
- 2.9. Materiały dodatkowe
- Ćwiczenia
- 3. Geometria analityczna
- 3.1. Normy
- 3.2. Iloczyny wewnętrzne
- 3.3. Długości i odległości
- 3.4. Kąty i ortogonalność
- 3.5. Baza ortonormalna
- 3.6. Dopełnienie ortogonalne
- 3.7. Iloczyn wewnętrzny funkcji
- 3.8. Rzuty ortogonalne
- 3.10. Materiały dodatkowe
- Ćwiczenia
- 4. Rozkłady macierzy
- 4.1. Wyznacznik i ślad
- 4.2. Wartości i wektory własne
- 4.3. Rozkład Choleskiego
- 4.4. Rozkład według wartości własnych i diagonalizacja
- 4.5. Rozkład według wartości osobliwych
- 4.6. Przybliżenie macierzy
- 4.7. Filogeneza macierzy
- 4.8. Materiały dodatkowe
- Ćwiczenia
- 5. Rachunek wektorowy
- 5.1. Różniczkowanie funkcji jednowymiarowych
- 5.2. Pochodne czÄ…stkowe i gradienty
- 5.3. Gradienty funkcji o wartościach wektorowych
- 5.4. Gradienty macierzy
- 5.5. TożsamoÅ›ci przydatne w obliczeniach gradientów
- 5.6. Propagacja wsteczna i różniczkowanie automatyczne
- 5.7. Pochodne wyższych rzÄ™dów
- 5.8. Linearyzacja i wielowymiarowe szeregi Taylora
- 5.9. Materiały dodatkowe
- Ćwiczenia
- 6. Prawdopodobieństwo i jego rozkłady
- 6.1. Struktura przestrzeni prawdopodobieństwa
- 6.2. Prawdopodobieństwo ciągłe i dyskretne
- 6.3. Reguły dodawania i mnożenia oraz twierdzenie Bayesa
- 6.4. Statystyki podsumowujące i niezależność
- 6.5. Rozkład Gaussa
- 6.6. Sprzężenie i rodzina wykładnicza
- 6.7. Zmiana zmiennych/przekształcenie odwrotne
- 6.8. Materiały dodatkowe
- Ćwiczenia
- 7. Optymalizacja ciągła
- 7.1. Optymalizacja za pomocÄ… metody gradientu prostego
- 7.2. Optymalizacja z ograniczeniami i mnożniki Lagrange'a
- 7.3. Optymalizacja wypukła
- 7.4. Materiały dodatkowe
- Ćwiczenia
Część II. Centralne problemy uczenia maszynowego
- 8. Gdy model spotyka dane
- 8.1. Dane, modele i uczenie
- 8.2. Minimalizacja ryzyka empirycznego
- 8.3. Estymacja parametrów
- 8.4. Modelowanie probabilistyczne i wnioskowanie
- 8.5. Modele digrafowe
- 8.6. Wybór modelu
- 9. Regresja liniowa
- 9.1. Sformułowanie problemu
- 9.2. Estymacja parametrów
- 9.3. Bayesowska regresja liniowa
- 9.4. Estymacja metodą maksymalnej wiarygodności jako rzut ortogonalny
- 9.5. Materiały dodatkowe
- 10. Redukcja wymiarowoÅ›ci za pomocÄ… analizy gÅ‚ównych skÅ‚adowych
- 10.1. Sformułowanie problemu
- 10.2. Perspektywa maksymalizacji wariancji
- 10.3. Perspektywa rzutowania
- 10.4. Znajdowanie wektora własnego i aproksymacja za pomocą macierzy niskiego rzędu
- 10.5. PCA w dużej liczbie wymiarów
- 10.6. Najważniejsze kroki algorytmu PCA z praktycznego punktu widzenia
- 10.7. Perspektywa zmiennej ukrytej
- 10.8. Materiały dodatkowe
- 11. Szacowanie gÄ™stoÅ›ci za pomocÄ… modeli mieszanin rozkÅ‚adów Gaussa
- 11.1. Model mieszaniny rozkÅ‚adów Gaussa
- 11.2. Uczenie parametrów za pomocÄ… metody maksymalnej wiarygodnoÅ›ci
- 11.3. Algorytm EM
- 11.4. Perspektywa zmiennej ukrytej
- 11.5. Materiały dodatkowe
- 12. Klasyfikacja za pomocÄ… maszyny wektorów noÅ›nych
- 12.1. Hiperpłaszczyzny rozdzielające
- 12.2. Pierwotna maszyna wektorów noÅ›nych
- 12.3. Dualna maszyna wektorów noÅ›nych
- 12.4. JÄ…dra
- 12.5. RozwiÄ…zanie numeryczne
- 12.6. Materiały dodatkowe
- Bibliografia