reklama - zainteresowany?

Matematyka w uczeniu maszynowym - Helion

Matematyka w uczeniu maszynowym
ebook
Autor: Marc Peter Deisenroth, A. Aldo Faisal, Cheng Soon Ong
Tytuł oryginału: Mathematics for Machine Learning
TÅ‚umaczenie: Filip Kami
ISBN: 978-83-283-8460-6
stron: 416, Format: ebook
Data wydania: 2022-08-01
Księgarnia: Helion

Cena książki: 64,50 zł (poprzednio: 129,00 zł)
Oszczędzasz: 50% (-64,50 zł)

Dodaj do koszyka Matematyka w uczeniu maszynowym

Tagi: Matematyka | Uczenie maszynowe

Uczenie maszynowe staje si

Dodaj do koszyka Matematyka w uczeniu maszynowym

 

Osoby które kupowały "Matematyka w uczeniu maszynowym", wybierały także:

  • Ryszard Kilvington. NieskoÅ„czoność i geometria
  • Matematyka w deep learningu. Co musisz wiedzie
  • Matematyka w programowaniu gier i grafice komputerowej. Tworzenie i renderowanie wirtualnych
  • Podstawy matematyki w data science. Algebra liniowa, rachunek prawdopodobie
  • Domowe lekcje matematyki. Klasy 4-6

Dodaj do koszyka Matematyka w uczeniu maszynowym

Spis treści

Matematyka w uczeniu maszynowym eBook -- spis treści

Spis treści

Lista symboli

Lista skrótów i akronimów

Wstęp

Podziękowania

Część I. Podstawy matematyczne

  • 1. Wprowadzenie i motywacje
    • 1.1. Znajdowanie sÅ‚ów dla intuicji
    • 1.2. Dwa sposoby na przeczytanie tej książki
    • 1.3. Ćwiczenia i informacje zwrotne
  • 2. Algebra liniowa
    • 2.1. UkÅ‚ady równaÅ„ liniowych
    • 2.2. Macierze
    • 2.3. RozwiÄ…zywanie ukÅ‚adów równaÅ„ liniowych
    • 2.4. Przestrzenie wektorowe
    • 2.5. Niezależność liniowa
    • 2.6. Baza i rzÄ…d
    • 2.7. PrzeksztaÅ‚cenia liniowe
    • 2.8. Przestrzenie afiniczne
    • 2.9. MateriaÅ‚y dodatkowe
    • Ćwiczenia
  • 3. Geometria analityczna
    • 3.1. Normy
    • 3.2. Iloczyny wewnÄ™trzne
    • 3.3. DÅ‚ugoÅ›ci i odlegÅ‚oÅ›ci
    • 3.4. KÄ…ty i ortogonalność
    • 3.5. Baza ortonormalna
    • 3.6. DopeÅ‚nienie ortogonalne
    • 3.7. Iloczyn wewnÄ™trzny funkcji
    • 3.8. Rzuty ortogonalne
    • 3.10. MateriaÅ‚y dodatkowe
    • Ćwiczenia
  • 4. RozkÅ‚ady macierzy
    • 4.1. Wyznacznik i Å›lad
    • 4.2. WartoÅ›ci i wektory wÅ‚asne
    • 4.3. RozkÅ‚ad Choleskiego
    • 4.4. RozkÅ‚ad wedÅ‚ug wartoÅ›ci wÅ‚asnych i diagonalizacja
    • 4.5. RozkÅ‚ad wedÅ‚ug wartoÅ›ci osobliwych
    • 4.6. Przybliżenie macierzy
    • 4.7. Filogeneza macierzy
    • 4.8. MateriaÅ‚y dodatkowe
    • Ćwiczenia
  • 5. Rachunek wektorowy
    • 5.1. Różniczkowanie funkcji jednowymiarowych
    • 5.2. Pochodne czÄ…stkowe i gradienty
    • 5.3. Gradienty funkcji o wartoÅ›ciach wektorowych
    • 5.4. Gradienty macierzy
    • 5.5. TożsamoÅ›ci przydatne w obliczeniach gradientów
    • 5.6. Propagacja wsteczna i różniczkowanie automatyczne
    • 5.7. Pochodne wyższych rzÄ™dów
    • 5.8. Linearyzacja i wielowymiarowe szeregi Taylora
    • 5.9. MateriaÅ‚y dodatkowe
    • Ćwiczenia
  • 6. PrawdopodobieÅ„stwo i jego rozkÅ‚ady
    • 6.1. Struktura przestrzeni prawdopodobieÅ„stwa
    • 6.2. PrawdopodobieÅ„stwo ciÄ…gÅ‚e i dyskretne
    • 6.3. ReguÅ‚y dodawania i mnożenia oraz twierdzenie Bayesa
    • 6.4. Statystyki podsumowujÄ…ce i niezależność
    • 6.5. RozkÅ‚ad Gaussa
    • 6.6. Sprzężenie i rodzina wykÅ‚adnicza
    • 6.7. Zmiana zmiennych/przeksztaÅ‚cenie odwrotne
    • 6.8. MateriaÅ‚y dodatkowe
    • Ćwiczenia
  • 7. Optymalizacja ciÄ…gÅ‚a
    • 7.1. Optymalizacja za pomocÄ… metody gradientu prostego
    • 7.2. Optymalizacja z ograniczeniami i mnożniki Lagrange'a
    • 7.3. Optymalizacja wypukÅ‚a
    • 7.4. MateriaÅ‚y dodatkowe
    • Ćwiczenia

Część II. Centralne problemy uczenia maszynowego

  • 8. Gdy model spotyka dane
    • 8.1. Dane, modele i uczenie
    • 8.2. Minimalizacja ryzyka empirycznego
    • 8.3. Estymacja parametrów
    • 8.4. Modelowanie probabilistyczne i wnioskowanie
    • 8.5. Modele digrafowe
    • 8.6. Wybór modelu
  • 9. Regresja liniowa
    • 9.1. SformuÅ‚owanie problemu
    • 9.2. Estymacja parametrów
    • 9.3. Bayesowska regresja liniowa
    • 9.4. Estymacja metodÄ… maksymalnej wiarygodnoÅ›ci jako rzut ortogonalny
    • 9.5. MateriaÅ‚y dodatkowe
  • 10. Redukcja wymiarowoÅ›ci za pomocÄ… analizy gÅ‚ównych skÅ‚adowych
    • 10.1. SformuÅ‚owanie problemu
    • 10.2. Perspektywa maksymalizacji wariancji
    • 10.3. Perspektywa rzutowania
    • 10.4. Znajdowanie wektora wÅ‚asnego i aproksymacja za pomocÄ… macierzy niskiego rzÄ™du
    • 10.5. PCA w dużej liczbie wymiarów
    • 10.6. Najważniejsze kroki algorytmu PCA z praktycznego punktu widzenia
    • 10.7. Perspektywa zmiennej ukrytej
    • 10.8. MateriaÅ‚y dodatkowe
  • 11. Szacowanie gÄ™stoÅ›ci za pomocÄ… modeli mieszanin rozkÅ‚adów Gaussa
    • 11.1. Model mieszaniny rozkÅ‚adów Gaussa
    • 11.2. Uczenie parametrów za pomocÄ… metody maksymalnej wiarygodnoÅ›ci
    • 11.3. Algorytm EM
    • 11.4. Perspektywa zmiennej ukrytej
    • 11.5. MateriaÅ‚y dodatkowe
  • 12. Klasyfikacja za pomocÄ… maszyny wektorów noÅ›nych
    • 12.1. HiperpÅ‚aszczyzny rozdzielajÄ…ce
    • 12.2. Pierwotna maszyna wektorów noÅ›nych
    • 12.3. Dualna maszyna wektorów noÅ›nych
    • 12.4. JÄ…dra
    • 12.5. RozwiÄ…zanie numeryczne
    • 12.6. MateriaÅ‚y dodatkowe
  • Bibliografia

Dodaj do koszyka Matematyka w uczeniu maszynowym

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2024 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.