Matematyka w uczeniu maszynowym. Opanuj algebr - Helion

MIEJSCE 10 na liście TOP 20
Autor: Tivadar DankaTytuł oryginału: Mathematics of Machine Learning: Master linear algebra, calculus, and probability for machine learning
Tłumaczenie: Ma
ISBN: 978-83-289-3325-5
stron: 696, Format: 165x235, okładka: mi
Księgarnia: Helion
Książka będzie dostępna od stycznia 2026
Tagi: Uczenie maszynowe
Uczenie maszynowe jest powszechnie stosowane w aplikacjach, jednak szczegó
Zobacz także:
- Zaawansowane uczenie maszynowe z językiem Python 55,94 zł, (17,90 zł -68%)
- Data Science w Pythonie. Kurs video. Przetwarzanie i analiza danych 149,00 zł, (67,05 zł -55%)
- Python. Uczenie maszynowe w przyk 129,00 zł, (64,50 zł -50%)
- Uczenie przez wzmacnianie w finansach. Wprowadzenie z wykorzystaniem Pythona 79,00 zł, (39,50 zł -50%)
- Zaawansowane techniki przetwarzania j 89,00 zł, (44,50 zł -50%)
Spis treści
Matematyka w uczeniu maszynowym. Opanuj algebrę liniową, rachunek różniczkowy i całkowy oraz rachunek prawdopodobieństwa -- spis treści
O autorze
O recenzentach
Przedmowa
Wprowadzenie
Część 1. Algebra liniowa
- Rozdział 1. Wektory i przestrzenie wektorowe
- 1.1. Czym jest przestrzeń wektorowa?
- 1.1.1. Przykłady przestrzeni wektorowych
- 1.2. Podstawy
- 1.2.1. Kombinacje liniowe i niezależność
- 1.2.2. Powłoki liniowe zbiorów wektorów
- 1.2.3. Bazy, czyli minimalne zbiory generujące
- 1.2.4. Przestrzenie wektorowe o skończonej liczbie wymiarów
- 1.2.5. Dlaczego bazy są tak istotne?
- 1.2.6. Istnienie baz
- 1.2.7. Podprzestrzenie
- 1.3. Wektory w praktyce
- 1.3.1. Krotki
- 1.3.2. Listy
- 1.3.3. Tablice NumPy
- 1.3.4. Tablice NumPy jako wektory
- 1.3.5. Czy NumPy naprawdę jest szybsza niż Python?
- 1.4. Podsumowanie
- 1.5. Zadania
- 1.1. Czym jest przestrzeń wektorowa?
- Rozdział 2. Struktura geometryczna przestrzeni wektorowych
- 2.1. Normy i odległości
- 2.1.1. Definiowanie odległości za pomocą norm
- 2.2. Iloczyny wewnętrzne, kąty i powody ich znaczenia
- 2.2.1. Norma generowana przez iloczyn wewnętrzny
- 2.2.2. Ortogonalność
- 2.2.3. Geometryczna interpretacja iloczynów wewnętrznych
- 2.2.4. Bazy ortogonalne i ortonormalne
- 2.2.5. Proces ortogonalizacji Grama-Schmidta
- 2.2.6. Dopełnienie ortogonalne
- 2.3. Podsumowanie
- 2.4. Zadania
- 2.1. Normy i odległości
- Rozdział 3. Algebra liniowa w praktyce
- 3.1. Wektory w NumPy
- 3.1.1. Normy, odległości i iloczyny skalarne
- 3.1.2. Proces ortogonalizacji Grama-Schmidta
- 3.2. Macierze - podstawowe narzędzie algebry liniowej
- 3.2.1. Operacje na macierzach
- 3.2.2. Macierze jako tablice
- 3.2.3. Macierze w NumPy
- 3.2.4. Jeszcze o mnożeniu macierzy
- 3.2.5. Macierze i dane
- 3.3. Podsumowanie
- 3.4. Zadania
- 3.1. Wektory w NumPy
- Rozdział 4. Przekształcenia liniowe
- 4.1. Czym jest przekształcenie liniowe?
- 4.1.1. Przekształcenia liniowe i macierze
- 4.1.2. Jeszcze o operacjach na macierzach
- 4.1.3. Odwracanie przekształceń liniowych
- 4.1.4. Jądro i obraz
- 4.2. Zmiana bazy
- 4.2.1. Macierz przekształceń
- 4.3. Przekształcenia liniowe na płaszczyźnie euklidesowej
- 4.3.1. Rozciąganie
- 4.3.2. Obrót
- 4.3.3. Ścinanie
- 4.3.4. Odbicie
- 4.3.5. Projekcja ortogonalna
- 4.4. Wyznaczniki, czyli jak przekształcenia liniowe wpływają na objętość
- 4.4.1. Wpływ przekształceń liniowych na skalowanie płaszczyzny
- 4.4.2. Wieloliniowość wyznaczników
- 4.4.3. Podstawowe właściwości wyznaczników
- 4.5. Podsumowanie
- 4.6. Zadania
- 4.1. Czym jest przekształcenie liniowe?
- Rozdział 5. Macierze i równania
- 5.1. Równania liniowe
- 5.1.1. Metoda eliminacji Gaussa
- 5.1.2. Ręczne zastosowanie metody eliminacji Gaussa
- 5.1.3. Kiedy można zastosować metodę eliminacji Gaussa?
- 5.1.4. Złożoność czasowa metody eliminacji Gaussa
- 5.1.5. Kiedy możliwe jest rozwiązanie układu równań liniowych?
- 5.1.6. Odwracanie macierzy
- 5.2. Rozkład LU
- 5.2.1. Implementacja rozkładu LU
- 5.2.2. Odwracanie macierzy w praktyce
- 5.2.3. Jak odwracać macierze w praktyce?
- 5.3. Wyznaczniki w praktyce
- 5.3.1. Mniejsze zło
- 5.3.2. Podejście rekurencyjne
- 5.3.3. Jak obliczać wyznaczniki w praktyce?
- 5.4. Podsumowanie
- 5.5. Zadania
- 5.1. Równania liniowe
- Rozdział 6. Wartości własne i wektory własne
- 6.1. Wartości własne macierzy
- 6.2. Wyznaczanie par wartość własna - wektor własny
- 6.2.1. Wielomian charakterystyczny
- 6.2.2. Znajdowanie wektorów własnych
- 6.3. Wektory własne, przestrzenie własne i ich bazy
- 6.4. Podsumowanie
- 6.5. Zadania
- Rozdział 7. Metody rozkładu macierzy
- 7.1. Przekształcenia specjalne
- 7.1.1. Przekształcenia sprzężone
- 7.1.2. Przekształcenia ortogonalne
- 7.2. Przekształcenia samosprzężone i twierdzenie o rozkładzie spektralnym
- 7.3. Rozkład według wartości osobliwych
- 7.4. Projekcje ortogonalne
- 7.4.1. Właściwości projekcji ortogonalnych
- 7.4.2. Projekcje ortogonalne są optymalne
- 7.5. Obliczanie wartości własnych
- 7.5.1. Potęgowa metoda obliczania wektorów własnych rzeczywistych macierzy symetrycznych
- 7.5.2. Metoda potęgowa w praktyce
- 7.5.3. Metoda potęgowa dla pozostałych wektorów własnych
- 7.6. Algorytm QR
- 7.6.1. Rozkład QR
- 7.6.2. Iteracyjne zastosowanie rozkładu QR
- 7.7. Podsumowanie
- 7.8. Zadania
- 7.1. Przekształcenia specjalne
- Rozdział 8. Macierze i grafy
- 8.1. Graf skierowany macierzy nieujemnej
- 8.2. Zalety reprezentacji grafowej
- 8.2.1. Spójność grafów
- 8.3. Postać normalna Frobeniusa
- 8.3.1. Macierze permutacji
- 8.3.2. Grafy skierowane i ich silnie spójne składowe
- 8.3.3. Łączenie grafów i macierzy permutacji
- 8.4. Podsumowanie
- 8.5. Zadania
- Bibliografia
Część 2. Rachunek różniczkowy i całkowy
- Rozdział 9. Funkcje
- 9.1. Funkcje w teorii
- 9.1.1. Matematyczna definicja funkcji
- 9.1.2. Dziedzina i obraz
- 9.1.3. Operacje na funkcjach
- 9.1.4. Modele mentalne funkcji
- 9.2. Funkcje w praktyce
- 9.2.1. Operacje na funkcjach
- 9.2.2. Funkcje jako obiekty wywoływalne
- 9.2.3. Klasa bazowa funkcji
- 9.2.4. Złożenia w podejściu obiektowym
- 9.3. Podsumowanie
- 9.4. Zadania
- 9.1. Funkcje w teorii
- Rozdział 10. Liczby, ciągi i szeregi
- 10.1. Liczby
- 10.1.1. Liczby naturalne i liczby całkowite
- 10.1.2. Liczby wymierne
- 10.1.3. Liczby rzeczywiste
- 10.2. Ciągi
- 10.2.1. Zbieżność
- 10.2.2. Własności zbieżności
- 10.2.3. Znane ciągi zbieżne
- 10.2.4. Znaczenie zbieżności w uczeniu maszynowym
- 10.2.5. Ciągi rozbieżne
- 10.2.6. Notacja dużego O i małego o
- 10.2.7. Liczby rzeczywiste jako ciągi
- 10.3. Szeregi
- 10.3.1. Szeregi zbieżne i szeregi rozbieżne
- 10.3.2. Właściwości szeregów
- 10.3.3. Zbieżność warunkowa i zbieżność bezwzględna
- 10.3.4. Powrót do przestawiania
- 10.3.5. Testy zbieżności szeregów
- 10.3.6. Iloczyn Cauchy'ego szeregów
- 10.4. Podsumowanie
- 10.5. Zadania
- 10.1. Liczby
- Rozdział 11. Topologia, granice i ciągłość
- 11.1. Topologia
- 11.1.1. Zbiory otwarte i zbiory domknięte
- 11.1.2. Odległość i topologia
- 11.1.3. Zbiory i ciągi
- 11.1.4. Zbiory ograniczone
- 11.1.5. Zbiory zwarte
- 11.2. Granice
- 11.2.1. Równoznaczne definicje granic
- 11.3. Ciągłość
- 11.3.1. Właściwości funkcji ciągłych
- 11.4. Podsumowanie
- 11.5. Zadania
- 11.1. Topologia
- Rozdział 12. Różniczkowanie
- 12.1. Różniczkowanie w teorii
- 12.1.1. Równoważne formy różniczkowania
- 12.1.2. Różniczkowanie i ciągłość
- 12.2. Różniczkowanie w praktyce
- 12.2.1. Reguły różniczkowania
- 12.2.2. Pochodne funkcji elementarnych
- 12.2.3. Pochodne wyższych rzędów
- 12.2.4. Rozszerzanie klasy bazowej Function
- 12.2.5. Pochodna funkcji złożonych
- 12.2.6. Różniczkowanie numeryczne
- 12.3. Podsumowanie
- 12.4. Zadania
- 12.1. Różniczkowanie w teorii
- Rozdział 13. Optymalizacja
- 13.1. Minima, maksima i pochodne
- 13.1.1. Lokalne minima i maksima
- 13.1.2. Charakterystyka optimów przy użyciu pochodnych wyższego rzędu
- 13.1.3. Twierdzenia o wartości średniej
- 13.2. Podstawy metody spadku gradientu
- 13.2.1. Jeszcze o pochodnych
- 13.2.2. Algorytm spadku gradientu
- 13.2.3. Implementacja metody spadku gradientu
- 13.2.4. Wady i uwagi
- 13.3. Dlaczego metoda spadku gradientu jest skuteczna?
- 13.3.1. Podstawy równań różniczkowych
- 13.3.2. (Nieco) bardziej ogólna postać równań różniczkowych zwyczajnych
- 13.3.3. Geometryczna interpretacja równań różniczkowych
- 13.3.4. Wersja ciągła gradientowej metody maksymalizacji funkcji
- 13.3.5. Gradientowa metoda maksymalizacji funkcji jako zdyskretyzowane równanie różniczkowe
- 13.3.6. Gradientowa metoda maksymalizacji funkcji w praktyce
- 13.4. Podsumowanie
- 13.5. Zadania
- 13.1. Minima, maksima i pochodne
- Rozdział 14. Całkowanie
- 14.1. Całkowanie w teorii
- 14.1.1. Podziały i ich zagęszczanie
- 14.1.2. Całka Riemanna
- 14.1.3. Całkowanie jako odwrotność różniczkowania
- 14.2. Całkowanie w praktyce
- 14.2.1. Całki i operacje
- 14.2.2. Całkowanie przez części
- 14.2.3. Całkowanie przez podstawienie
- 14.2.4. Całkowanie numeryczne
- 14.2.5. Implementacja metody trapezów
- 14.3. Podsumowanie
- 14.4. Zadania
- 14.1. Całkowanie w teorii
- Bibliografia
Część 3. Rachunek różniczkowy i całkowy wielu zmiennych
- Rozdział 15. Funkcje wielu zmiennych
- 15.1. Czym jest funkcja wielu zmiennych?
- 15.2. Funkcje liniowe wielu zmiennych
- 15.3. Przekleństwo wielowymiarowości
- 15.4. Podsumowanie
- Rozdział 16. Pochodne i gradienty
- 16.1. Pochodne cząstkowe i pochodne całkowite
- 16.1.1. Gradient
- 16.1.2. Pochodne cząstkowe wyższego rzędu
- 16.1.3. Pochodna całkowita
- 16.1.4. Pochodne kierunkowe
- 16.1.5. Właściwości gradientu
- 16.2. Pochodne funkcji wektorowych
- 16.2.1. Pochodne krzywych
- 16.2.2. Macierze Jacobiego i Hessego
- 16.2.3. Pochodna całkowita dla funkcji wektorowych zmiennych wektorowych
- 16.2.4. Pochodne i operacje na funkcjach
- 16.3. Podsumowanie
- 16.4. Zadania
- 16.1. Pochodne cząstkowe i pochodne całkowite
- Rozdział 17. Optymalizacja funkcji wielu zmiennych
- 17.1. Funkcje wielu zmiennych w kodzie
- 17.2. Jeszcze o minimach i maksimach
- 17.3. Pełna postać metody spadku gradientu
- 17.4. Podsumowanie
- 17.5. Zadania
- Bibliografia
Część 4. Teoria prawdopodobieństwa
- Rozdział 18. Czym jest prawdopodobieństwo?
- 18.1. Język myślenia
- 18.1.1. Myślenie w kategoriach absolutnych
- 18.1.2. Myślenie probabilistyczne
- 18.2. Aksjomaty prawdopodobieństwa
- 18.2.1. Przestrzenie zdarzeń i ?-algebry
- 18.2.2. Opisywanie ?-algebr
- 18.2.3. ?-algebry na liczbach rzeczywistych
- 18.2.4. Miary prawdopodobieństwa
- 18.2.5. Podstawowe właściwości prawdopodobieństwa
- 18.2.6. Przestrzenie probabilistyczne w R𝑛
- 18.2.7. Jak interpretować prawdopodobieństwo?
- 18.3. Prawdopodobieństwo warunkowe
- 18.3.1. Niezależność
- 18.3.2. Jeszcze o prawie prawdopodobieństwa całkowitego
- 18.3.3. Twierdzenie Bayesa
- 18.3.4. Bayesowska interpretacja prawdopodobieństwa
- 18.3.5. Proces wnioskowania probabilistycznego
- 18.3.6. Paradoks Monty'ego Halla
- 18.4. Podsumowanie
- 18.5. Zadania
- 18.1. Język myślenia
- Rozdział 19. Zmienne losowe i rozkłady
- 19.1. Zmienne losowe
- 19.1.1. Dyskretne zmienne losowe
- 19.1.2. Zmienne losowe o wartościach rzeczywistych
- 19.1.3. Zmienne losowe - ujęcie ogólne
- 19.1.4. Co kryje się za definicją zmiennych losowych?
- 19.1.5. Niezależność zmiennych losowych
- 19.2. Rozkłady dyskretne
- 19.2.1. Rozkład zero-jedynkowy
- 19.2.2. Rozkład dwumianowy
- 19.2.3. Rozkład geometryczny
- 19.2.4. Rozkład jednostajny
- 19.2.5. Rozkład jednopunktowy
- 19.2.6. Jeszcze o prawie prawdopodobieństwa całkowitego
- 19.2.7. Sumy dyskretnych zmiennych losowych
- 19.3. Rozkłady o wartościach rzeczywistych
- 19.3.1. Dystrybuanta
- 19.3.2. Właściwości funkcji rozkładu
- 19.3.3. Dystrybuanta dyskretnych zmiennych losowych
- 19.3.4. Rozkład jednostajny
- 19.3.5. Rozkład wykładniczy
- 19.3.6. Rozkład normalny
- 19.4. Funkcje gęstości
- 19.4.1. Funkcje gęstości w praktyce
- 19.4.2. Klasyfikacja zmiennych losowych o wartościach rzeczywistych
- 19.5. Podsumowanie
- 19.6. Zadania
- 19.1. Zmienne losowe
- Rozdział 20. Wartość oczekiwana
- 20.1. Dyskretne zmienne losowe
- 20.1.1. Wartość oczekiwana w pokerze
- 20.2. Ciągłe zmienne losowe
- 20.3. Właściwości wartości oczekiwanej
- 20.4. Wariancja
- 20.4.1. Kowariancja i korelacja
- 20.5. Prawo wielkich liczb
- 20.5.1. Rzuty monetą.
- 20.5.2. .rzuty kośćmi.
- 20.5.3. .i cała reszta
- 20.5.4. Słabe prawo wielkich liczb
- 20.5.5. Mocne prawo wielkich liczb
- 20.6. Teoria informacji
- 20.6.1. Zgadnij liczbę
- 20.6.2. Zgadnij liczbę, wersja 2. Elektryczne Boogaloo
- 20.6.3. Informacja i entropia
- 20.6.4. Entropia różniczkowa
- 20.7. Estymacja metodą największej wiarygodności
- 20.7.1. Podstawy modelowania probabilistycznego
- 20.7.2. Modelowanie wysokości
- 20.7.3. Metoda ogólna
- 20.7.4. Problem niemieckich czołgów
- 20.8. Podsumowanie
- 20.9. Zadania
- 20.1. Dyskretne zmienne losowe
- Bibliografia
Dodatki
- Dodatek A. To tylko logika
- A.1. Podstawy logiki matematycznej
- A.2. Spójniki logiczne
- A.3. Rachunek zdań
- A.4. Zmienne i predykaty
- A.5. Kwantyfikatory egzystencjalne i ogólne
- A.6. Zadania
- Dodatek B. Struktura matematyki
- B.1. Czym jest definicja?
- B.2. Czym jest twierdzenie?
- B.3. Czym jest dowód?
- B.4. Równoważności
- B.5. Techniki udowadniania twierdzeń
- B.5.1. Dowód przez indukcję
- B.5.2. Dowód nie wprost
- B.5.3. Kontrapozycja
- Dodatek C. Podstawy teorii zbiorów
- C.1. Czym jest zbiór?
- C.2. Operacje na zbiorach
- C.2.1. Suma, iloczyn, różnica
- C.2.2. Prawa De Morgana
- C.3. Iloczyn kartezjański
- C.4. Moc zbiorów
- C.5. Paradoks Russella (opcjonalnie)
- Dodatek D. Liczby zespolone
- D.1. Definicja liczb zespolonych
- D.2. Reprezentacja geometryczna
- D.3. Podstawowe twierdzenie algebry
- D.4. Dlaczego liczby zespolone są ważne?





