reklama - zainteresowany?

Matematyka w uczeniu maszynowym. Opanuj algebr - Helion

Matematyka w uczeniu maszynowym. Opanuj algebr

MIEJSCE 10 na liście TOP 20
Autor: Tivadar Danka
Tytuł oryginału: Mathematics of Machine Learning: Master linear algebra, calculus, and probability for machine learning
Tłumaczenie: Ma
ISBN: 978-83-289-3325-5
stron: 696, Format: 165x235, okładka: mi
Księgarnia: Helion

Książka będzie dostępna od stycznia 2026

Tagi: Uczenie maszynowe

Uczenie maszynowe jest powszechnie stosowane w aplikacjach, jednak szczegó

Spis treści

Matematyka w uczeniu maszynowym. Opanuj algebrę liniową, rachunek różniczkowy i całkowy oraz rachunek prawdopodobieństwa -- spis treści

O autorze

O recenzentach

Przedmowa

Wprowadzenie

Część 1. Algebra liniowa

  • Rozdział 1. Wektory i przestrzenie wektorowe
    • 1.1. Czym jest przestrzeń wektorowa?
      • 1.1.1. Przykłady przestrzeni wektorowych
    • 1.2. Podstawy
      • 1.2.1. Kombinacje liniowe i niezależność
      • 1.2.2. Powłoki liniowe zbiorów wektorów
      • 1.2.3. Bazy, czyli minimalne zbiory generujące
      • 1.2.4. Przestrzenie wektorowe o skończonej liczbie wymiarów
      • 1.2.5. Dlaczego bazy są tak istotne?
      • 1.2.6. Istnienie baz
      • 1.2.7. Podprzestrzenie
    • 1.3. Wektory w praktyce
      • 1.3.1. Krotki
      • 1.3.2. Listy
      • 1.3.3. Tablice NumPy
      • 1.3.4. Tablice NumPy jako wektory
      • 1.3.5. Czy NumPy naprawdę jest szybsza niż Python?
    • 1.4. Podsumowanie
    • 1.5. Zadania
  • Rozdział 2. Struktura geometryczna przestrzeni wektorowych
    • 2.1. Normy i odległości
      • 2.1.1. Definiowanie odległości za pomocą norm
    • 2.2. Iloczyny wewnętrzne, kąty i powody ich znaczenia
      • 2.2.1. Norma generowana przez iloczyn wewnętrzny
      • 2.2.2. Ortogonalność
      • 2.2.3. Geometryczna interpretacja iloczynów wewnętrznych
      • 2.2.4. Bazy ortogonalne i ortonormalne
      • 2.2.5. Proces ortogonalizacji Grama-Schmidta
      • 2.2.6. Dopełnienie ortogonalne
    • 2.3. Podsumowanie
    • 2.4. Zadania
  • Rozdział 3. Algebra liniowa w praktyce
    • 3.1. Wektory w NumPy
      • 3.1.1. Normy, odległości i iloczyny skalarne
      • 3.1.2. Proces ortogonalizacji Grama-Schmidta
    • 3.2. Macierze - podstawowe narzędzie algebry liniowej
      • 3.2.1. Operacje na macierzach
      • 3.2.2. Macierze jako tablice
      • 3.2.3. Macierze w NumPy
      • 3.2.4. Jeszcze o mnożeniu macierzy
      • 3.2.5. Macierze i dane
    • 3.3. Podsumowanie
    • 3.4. Zadania
  • Rozdział 4. Przekształcenia liniowe
    • 4.1. Czym jest przekształcenie liniowe?
      • 4.1.1. Przekształcenia liniowe i macierze
      • 4.1.2. Jeszcze o operacjach na macierzach
      • 4.1.3. Odwracanie przekształceń liniowych
      • 4.1.4. Jądro i obraz
    • 4.2. Zmiana bazy
      • 4.2.1. Macierz przekształceń
    • 4.3. Przekształcenia liniowe na płaszczyźnie euklidesowej
      • 4.3.1. Rozciąganie
      • 4.3.2. Obrót
      • 4.3.3. Ścinanie
      • 4.3.4. Odbicie
      • 4.3.5. Projekcja ortogonalna
    • 4.4. Wyznaczniki, czyli jak przekształcenia liniowe wpływają na objętość
      • 4.4.1. Wpływ przekształceń liniowych na skalowanie płaszczyzny
      • 4.4.2. Wieloliniowość wyznaczników
      • 4.4.3. Podstawowe właściwości wyznaczników
    • 4.5. Podsumowanie
    • 4.6. Zadania
  • Rozdział 5. Macierze i równania
    • 5.1. Równania liniowe
      • 5.1.1. Metoda eliminacji Gaussa
      • 5.1.2. Ręczne zastosowanie metody eliminacji Gaussa
      • 5.1.3. Kiedy można zastosować metodę eliminacji Gaussa?
      • 5.1.4. Złożoność czasowa metody eliminacji Gaussa
      • 5.1.5. Kiedy możliwe jest rozwiązanie układu równań liniowych?
      • 5.1.6. Odwracanie macierzy
    • 5.2. Rozkład LU
      • 5.2.1. Implementacja rozkładu LU
      • 5.2.2. Odwracanie macierzy w praktyce
      • 5.2.3. Jak odwracać macierze w praktyce?
    • 5.3. Wyznaczniki w praktyce
      • 5.3.1. Mniejsze zło
      • 5.3.2. Podejście rekurencyjne
      • 5.3.3. Jak obliczać wyznaczniki w praktyce?
    • 5.4. Podsumowanie
    • 5.5. Zadania
  • Rozdział 6. Wartości własne i wektory własne
    • 6.1. Wartości własne macierzy
    • 6.2. Wyznaczanie par wartość własna - wektor własny
      • 6.2.1. Wielomian charakterystyczny
      • 6.2.2. Znajdowanie wektorów własnych
    • 6.3. Wektory własne, przestrzenie własne i ich bazy
    • 6.4. Podsumowanie
    • 6.5. Zadania
  • Rozdział 7. Metody rozkładu macierzy
    • 7.1. Przekształcenia specjalne
      • 7.1.1. Przekształcenia sprzężone
      • 7.1.2. Przekształcenia ortogonalne
    • 7.2. Przekształcenia samosprzężone i twierdzenie o rozkładzie spektralnym
    • 7.3. Rozkład według wartości osobliwych
    • 7.4. Projekcje ortogonalne
      • 7.4.1. Właściwości projekcji ortogonalnych
      • 7.4.2. Projekcje ortogonalne są optymalne
    • 7.5. Obliczanie wartości własnych
      • 7.5.1. Potęgowa metoda obliczania wektorów własnych rzeczywistych macierzy symetrycznych
      • 7.5.2. Metoda potęgowa w praktyce
      • 7.5.3. Metoda potęgowa dla pozostałych wektorów własnych
    • 7.6. Algorytm QR
      • 7.6.1. Rozkład QR
      • 7.6.2. Iteracyjne zastosowanie rozkładu QR
    • 7.7. Podsumowanie
    • 7.8. Zadania
  • Rozdział 8. Macierze i grafy
    • 8.1. Graf skierowany macierzy nieujemnej
    • 8.2. Zalety reprezentacji grafowej
      • 8.2.1. Spójność grafów
    • 8.3. Postać normalna Frobeniusa
      • 8.3.1. Macierze permutacji
      • 8.3.2. Grafy skierowane i ich silnie spójne składowe
      • 8.3.3. Łączenie grafów i macierzy permutacji
    • 8.4. Podsumowanie
    • 8.5. Zadania
  • Bibliografia

Część 2. Rachunek różniczkowy i całkowy

  • Rozdział 9. Funkcje
    • 9.1. Funkcje w teorii
      • 9.1.1. Matematyczna definicja funkcji
      • 9.1.2. Dziedzina i obraz
      • 9.1.3. Operacje na funkcjach
      • 9.1.4. Modele mentalne funkcji
    • 9.2. Funkcje w praktyce
      • 9.2.1. Operacje na funkcjach
      • 9.2.2. Funkcje jako obiekty wywoływalne
      • 9.2.3. Klasa bazowa funkcji
      • 9.2.4. Złożenia w podejściu obiektowym
    • 9.3. Podsumowanie
    • 9.4. Zadania
  • Rozdział 10. Liczby, ciągi i szeregi
    • 10.1. Liczby
      • 10.1.1. Liczby naturalne i liczby całkowite
      • 10.1.2. Liczby wymierne
      • 10.1.3. Liczby rzeczywiste
    • 10.2. Ciągi
      • 10.2.1. Zbieżność
      • 10.2.2. Własności zbieżności
      • 10.2.3. Znane ciągi zbieżne
      • 10.2.4. Znaczenie zbieżności w uczeniu maszynowym
      • 10.2.5. Ciągi rozbieżne
      • 10.2.6. Notacja dużego O i małego o
      • 10.2.7. Liczby rzeczywiste jako ciągi
    • 10.3. Szeregi
      • 10.3.1. Szeregi zbieżne i szeregi rozbieżne
      • 10.3.2. Właściwości szeregów
      • 10.3.3. Zbieżność warunkowa i zbieżność bezwzględna
      • 10.3.4. Powrót do przestawiania
      • 10.3.5. Testy zbieżności szeregów
      • 10.3.6. Iloczyn Cauchy'ego szeregów
    • 10.4. Podsumowanie
    • 10.5. Zadania
  • Rozdział 11. Topologia, granice i ciągłość
    • 11.1. Topologia
      • 11.1.1. Zbiory otwarte i zbiory domknięte
      • 11.1.2. Odległość i topologia
      • 11.1.3. Zbiory i ciągi
      • 11.1.4. Zbiory ograniczone
      • 11.1.5. Zbiory zwarte
    • 11.2. Granice
      • 11.2.1. Równoznaczne definicje granic
    • 11.3. Ciągłość
      • 11.3.1. Właściwości funkcji ciągłych
    • 11.4. Podsumowanie
    • 11.5. Zadania
  • Rozdział 12. Różniczkowanie
    • 12.1. Różniczkowanie w teorii
      • 12.1.1. Równoważne formy różniczkowania
      • 12.1.2. Różniczkowanie i ciągłość
    • 12.2. Różniczkowanie w praktyce
      • 12.2.1. Reguły różniczkowania
      • 12.2.2. Pochodne funkcji elementarnych
      • 12.2.3. Pochodne wyższych rzędów
      • 12.2.4. Rozszerzanie klasy bazowej Function
      • 12.2.5. Pochodna funkcji złożonych
      • 12.2.6. Różniczkowanie numeryczne
    • 12.3. Podsumowanie
    • 12.4. Zadania
  • Rozdział 13. Optymalizacja
    • 13.1. Minima, maksima i pochodne
      • 13.1.1. Lokalne minima i maksima
      • 13.1.2. Charakterystyka optimów przy użyciu pochodnych wyższego rzędu
      • 13.1.3. Twierdzenia o wartości średniej
    • 13.2. Podstawy metody spadku gradientu
      • 13.2.1. Jeszcze o pochodnych
      • 13.2.2. Algorytm spadku gradientu
      • 13.2.3. Implementacja metody spadku gradientu
      • 13.2.4. Wady i uwagi
    • 13.3. Dlaczego metoda spadku gradientu jest skuteczna?
      • 13.3.1. Podstawy równań różniczkowych
      • 13.3.2. (Nieco) bardziej ogólna postać równań różniczkowych zwyczajnych
      • 13.3.3. Geometryczna interpretacja równań różniczkowych
      • 13.3.4. Wersja ciągła gradientowej metody maksymalizacji funkcji
      • 13.3.5. Gradientowa metoda maksymalizacji funkcji jako zdyskretyzowane równanie różniczkowe
      • 13.3.6. Gradientowa metoda maksymalizacji funkcji w praktyce
    • 13.4. Podsumowanie
    • 13.5. Zadania
  • Rozdział 14. Całkowanie
    • 14.1. Całkowanie w teorii
      • 14.1.1. Podziały i ich zagęszczanie
      • 14.1.2. Całka Riemanna
      • 14.1.3. Całkowanie jako odwrotność różniczkowania
    • 14.2. Całkowanie w praktyce
      • 14.2.1. Całki i operacje
      • 14.2.2. Całkowanie przez części
      • 14.2.3. Całkowanie przez podstawienie
      • 14.2.4. Całkowanie numeryczne
      • 14.2.5. Implementacja metody trapezów
    • 14.3. Podsumowanie
    • 14.4. Zadania
  • Bibliografia

Część 3. Rachunek różniczkowy i całkowy wielu zmiennych

  • Rozdział 15. Funkcje wielu zmiennych
    • 15.1. Czym jest funkcja wielu zmiennych?
    • 15.2. Funkcje liniowe wielu zmiennych
    • 15.3. Przekleństwo wielowymiarowości
    • 15.4. Podsumowanie
  • Rozdział 16. Pochodne i gradienty
    • 16.1. Pochodne cząstkowe i pochodne całkowite
      • 16.1.1. Gradient
      • 16.1.2. Pochodne cząstkowe wyższego rzędu
      • 16.1.3. Pochodna całkowita
      • 16.1.4. Pochodne kierunkowe
      • 16.1.5. Właściwości gradientu
    • 16.2. Pochodne funkcji wektorowych
      • 16.2.1. Pochodne krzywych
      • 16.2.2. Macierze Jacobiego i Hessego
      • 16.2.3. Pochodna całkowita dla funkcji wektorowych zmiennych wektorowych
      • 16.2.4. Pochodne i operacje na funkcjach
    • 16.3. Podsumowanie
    • 16.4. Zadania
  • Rozdział 17. Optymalizacja funkcji wielu zmiennych
    • 17.1. Funkcje wielu zmiennych w kodzie
    • 17.2. Jeszcze o minimach i maksimach
    • 17.3. Pełna postać metody spadku gradientu
    • 17.4. Podsumowanie
    • 17.5. Zadania
  • Bibliografia

Część 4. Teoria prawdopodobieństwa

  • Rozdział 18. Czym jest prawdopodobieństwo?
    • 18.1. Język myślenia
      • 18.1.1. Myślenie w kategoriach absolutnych
      • 18.1.2. Myślenie probabilistyczne
    • 18.2. Aksjomaty prawdopodobieństwa
      • 18.2.1. Przestrzenie zdarzeń i ?-algebry
      • 18.2.2. Opisywanie ?-algebr
      • 18.2.3. ?-algebry na liczbach rzeczywistych
      • 18.2.4. Miary prawdopodobieństwa
      • 18.2.5. Podstawowe właściwości prawdopodobieństwa
      • 18.2.6. Przestrzenie probabilistyczne w R𝑛
      • 18.2.7. Jak interpretować prawdopodobieństwo?
    • 18.3. Prawdopodobieństwo warunkowe
      • 18.3.1. Niezależność
      • 18.3.2. Jeszcze o prawie prawdopodobieństwa całkowitego
      • 18.3.3. Twierdzenie Bayesa
      • 18.3.4. Bayesowska interpretacja prawdopodobieństwa
      • 18.3.5. Proces wnioskowania probabilistycznego
      • 18.3.6. Paradoks Monty'ego Halla
    • 18.4. Podsumowanie
    • 18.5. Zadania
  • Rozdział 19. Zmienne losowe i rozkłady
    • 19.1. Zmienne losowe
      • 19.1.1. Dyskretne zmienne losowe
      • 19.1.2. Zmienne losowe o wartościach rzeczywistych
      • 19.1.3. Zmienne losowe - ujęcie ogólne
      • 19.1.4. Co kryje się za definicją zmiennych losowych?
      • 19.1.5. Niezależność zmiennych losowych
    • 19.2. Rozkłady dyskretne
      • 19.2.1. Rozkład zero-jedynkowy
      • 19.2.2. Rozkład dwumianowy
      • 19.2.3. Rozkład geometryczny
      • 19.2.4. Rozkład jednostajny
      • 19.2.5. Rozkład jednopunktowy
      • 19.2.6. Jeszcze o prawie prawdopodobieństwa całkowitego
      • 19.2.7. Sumy dyskretnych zmiennych losowych
    • 19.3. Rozkłady o wartościach rzeczywistych
      • 19.3.1. Dystrybuanta
      • 19.3.2. Właściwości funkcji rozkładu
      • 19.3.3. Dystrybuanta dyskretnych zmiennych losowych
      • 19.3.4. Rozkład jednostajny
      • 19.3.5. Rozkład wykładniczy
      • 19.3.6. Rozkład normalny
    • 19.4. Funkcje gęstości
      • 19.4.1. Funkcje gęstości w praktyce
      • 19.4.2. Klasyfikacja zmiennych losowych o wartościach rzeczywistych
    • 19.5. Podsumowanie
    • 19.6. Zadania
  • Rozdział 20. Wartość oczekiwana
    • 20.1. Dyskretne zmienne losowe
      • 20.1.1. Wartość oczekiwana w pokerze
    • 20.2. Ciągłe zmienne losowe
    • 20.3. Właściwości wartości oczekiwanej
    • 20.4. Wariancja
      • 20.4.1. Kowariancja i korelacja
    • 20.5. Prawo wielkich liczb
      • 20.5.1. Rzuty monetą.
      • 20.5.2. .rzuty kośćmi.
      • 20.5.3. .i cała reszta
      • 20.5.4. Słabe prawo wielkich liczb
      • 20.5.5. Mocne prawo wielkich liczb
    • 20.6. Teoria informacji
      • 20.6.1. Zgadnij liczbę
      • 20.6.2. Zgadnij liczbę, wersja 2. Elektryczne Boogaloo
      • 20.6.3. Informacja i entropia
      • 20.6.4. Entropia różniczkowa
    • 20.7. Estymacja metodą największej wiarygodności
      • 20.7.1. Podstawy modelowania probabilistycznego
      • 20.7.2. Modelowanie wysokości
      • 20.7.3. Metoda ogólna
      • 20.7.4. Problem niemieckich czołgów
    • 20.8. Podsumowanie
    • 20.9. Zadania
  • Bibliografia

Dodatki

  • Dodatek A. To tylko logika
    • A.1. Podstawy logiki matematycznej
    • A.2. Spójniki logiczne
    • A.3. Rachunek zdań
    • A.4. Zmienne i predykaty
    • A.5. Kwantyfikatory egzystencjalne i ogólne
    • A.6. Zadania
  • Dodatek B. Struktura matematyki
    • B.1. Czym jest definicja?
    • B.2. Czym jest twierdzenie?
    • B.3. Czym jest dowód?
    • B.4. Równoważności
    • B.5. Techniki udowadniania twierdzeń
      • B.5.1. Dowód przez indukcję
      • B.5.2. Dowód nie wprost
      • B.5.3. Kontrapozycja
  • Dodatek C. Podstawy teorii zbiorów
    • C.1. Czym jest zbiór?
    • C.2. Operacje na zbiorach
      • C.2.1. Suma, iloczyn, różnica
      • C.2.2. Prawa De Morgana
    • C.3. Iloczyn kartezjański
    • C.4. Moc zbiorów
    • C.5. Paradoks Russella (opcjonalnie)
  • Dodatek D. Liczby zespolone
    • D.1. Definicja liczb zespolonych
    • D.2. Reprezentacja geometryczna
    • D.3. Podstawowe twierdzenie algebry
    • D.4. Dlaczego liczby zespolone są ważne?

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2026 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.