Matematyka i sztuczna inteligencja. Kluczowe koncepcje zwi - Helion
Tytuł oryginału: Essential Math for AI: Next-Level Mathematics for Efficient and Successful AI Systems
Tłumaczenie: Rados
ISBN: 978-83-289-1446-9
stron: 544, Format: ebook
Księgarnia: Helion
Cena książki: 129,00 zł
Książka będzie dostępna od grudnia 2024
Sztuczna inteligencja i technologie oparte na danych s
Zobacz także:
- Sztuczna inteligencja w Azure. Kurs video. Uczenie maszynowe i Azure Machine Learning Service 199,00 zł, (69,65 zł -65%)
- Web scraping w Data Science. Kurs video. Uczenie maszynowe i architektura splotowych sieci neuronowych 178,97 zł, (62,64 zł -65%)
- Sztuczna inteligencja w Azure. Kurs video. Us 199,00 zł, (69,65 zł -65%)
- AI w praktyce. Kurs video. Narz 164,31 zł, (59,15 zł -64%)
- Uczenie g 129,00 zł, (51,60 zł -60%)
Spis treści
Matematyka i sztuczna inteligencja. Kluczowe koncepcje zwiększania skuteczności i wydajności systemów eBook -- spis treści
Przedmowa
Rozdział 1. Dlaczego warto poznać matematykę zarządzającą sztuczną inteligencją?
- Czym jest sztuczna inteligencja?
- Dlaczego sztuczna inteligencja jest dziś tak popularna?
- Co potrafi sztuczna inteligencja?
- Specyficzne zadania agenta AI
- Jakie są ograniczenia sztucznej inteligencji?
- Co się stanie, gdy systemy AI zawiodą?
- Dokąd zmierza sztuczna inteligencja?
- Kim są obecni główni twórcy w dziedzinie sztucznej inteligencji?
- Jakie obliczenia matematyczne są zwykle stosowane w sztucznej inteligencji?
- Podsumowanie i spojrzenie w przyszłość
Rozdział 2. Dane, dane, dane
- Dane dla AI
- Dane rzeczywiste a dane symulowane
- Modele matematyczne - liniowe kontra nieliniowe
- Przykład danych rzeczywistych
- Przykład danych symulowanych
- Modele matematyczne - symulacje i sztuczna inteligencja
- Skąd pochodzą dane?
- Słownictwo związane z rozkładem danych, prawdopodobieństwem i statystyką
- Zmienne losowe
- Rozkłady prawdopodobieństwa
- Prawdopodobieństwa krańcowe
- Rozkład równomierny i normalny
- Prawdopodobieństwa warunkowe i twierdzenie Bayesa
- Prawdopodobieństwa warunkowe i rozkłady łączne
- Rozkład aprioryczny, rozkład a posteriori i funkcja wiarygodności
- Kombinacje rozkładów
- Sumy i iloczyny zmiennych losowych
- Wykorzystanie grafów do przedstawienia łącznych rozkładów prawdopodobieństwa
- Wartość oczekiwana, średnia, wariancja i niepewność
- Kowariancja i korelacja
- Procesy Markowa
- Normalizacja, skalowanie i (lub) standaryzacja zmiennej losowej lub zbioru danych
- Typowe przykłady
- Rozkłady ciągłe a rozkłady dyskretne (gęstość kontra masa)
- Potęga funkcji gęstości prawdopodobieństwa łącznego
- Równomierny rozkład danych
- Rozkład normalny (Gaussa) w kształcie dzwonu
- Rozkłady danych - inne ważne i powszechnie używane rozkłady
- Różne zastosowania słowa "rozkład"
- Testy A/B
- Podsumowanie i spojrzenie w przyszłość
Rozdział 3. Dopasowywanie funkcji do danych
- Tradycyjne i bardzo przydatne modele uczenia maszynowego
- Rozwiązania numeryczne a rozwiązania analityczne
- Regresja - przewidywanie wartości liczbowej
- Funkcja szkoleniowa
- Funkcja straty
- Optymalizacja
- Regresja logistyczna - klasyfikacja do dwóch klas
- Funkcja szkoleniowa
- Funkcja straty
- Optymalizacja
- Regresja softmax - przyporządkowanie do wielu klas
- Funkcja szkoleniowa
- Funkcja straty
- Optymalizacja
- Wykorzystanie omówionych modeli do ostatniej warstwy sieci neuronowej
- Inne popularne techniki i zestawy technik uczenia maszynowego
- Maszyny wektorów nośnych
- Drzewa decyzyjne
- Lasy losowe
- Klasteryzacja k-średnich
- Miary wydajności dla modeli klasyfikacji
- Podsumowanie i perspektywy na przyszłość
Rozdział 4. Optymalizacja w sieciach neuronowych
- Kora mózgowa a sztuczne sieci neuronowe
- Funkcja szkoleniowa - w pełni połączone (gęste) sieci neuronowe z przekazem w przód
- Sieć neuronowa jest reprezentacją grafu obliczeniowego funkcji szkoleniowej
- Łączenie liniowe, dodawanie przesunięcia i aktywacja
- Popularne funkcje aktywacji
- Uniwersalna aproksymacja funkcji
- Teoria aproksymacji dla uczenia głębokiego
- Funkcje straty
- Optymalizacja
- Matematyka sieci neuronowych i ich tajemniczy sukces
- Zstępowanie gradientowe ?i+1=?i-??L?i
- Rola hiperparametru szybkości uczenia
- Wykresy wypukłe i niewypukłe
- Stochastyczne zstępowanie gradientowe
- Inicjalizacja wag ?0 dla procesu optymalizacji
- Techniki regularyzacji
- Dropout
- Wczesne zatrzymanie
- Normalizacja wsadowa każdej warstwy
- Kontrola rozmiaru wag poprzez penalizowanie ich normy
- Penalizacja normy l2 a penalizacja normy l1
- Wyjaśnienie roli hiperparametru regularyzacji ?
- Przykłady hiperparametrów występujących w uczeniu maszynowym
- Reguła łańcuchowa i propagacja wstecz: Obliczanie ?L?i
- Propagacja wsteczna nie różni się zbytnio od sposobu, w jaki uczy się ludzki mózg
- Dlaczego propagacja wstecz daje lepsze efekty?
- Propagacja wsteczna w szczegółach
- Ocena znaczenia cech danych wejściowych
- Podsumowanie i perspektywy na przyszłość
Rozdział 5. Konwolucyjne sieci neuronowe i komputerowe przetwarzanie obrazów
- Splot i korelacja krzyżowa
- Niezmienność translacji i równoważność translacji
- Splot w zwykłej przestrzeni jest iloczynem w przestrzeni częstotliwości
- Splot z perspektywy projektowania systemów
- Splot i odpowiedź impulsowa w systemach liniowych i niezmiennych względem translacji
- Operacja splotu a jednowymiarowe sygnały dyskretne
- Operacja splotu a dwuwymiarowe sygnały dyskretne
- Filtrowanie obrazów
- Mapy cech
- Notacja algebry liniowej
- Przypadek jednowymiarowy - mnożenie przez macierz Toeplitza
- Przypadek dwuwymiarowy - mnożenie przez podwójną blokową macierz cykliczną
- Pooling
- Konwolucyjna sieć neuronowa do klasyfikacji obrazów
- Podsumowanie i perspektywy na przyszłość
Rozdział 6. Rozkład według wartości osobliwych - przetwarzanie obrazów, przetwarzanie języka naturalnego i media społecznościowe
- Faktoryzacja macierzy
- Macierze diagonalne
- Macierze jako przekształcenia liniowe działające na przestrzeń
- Działanie macierzy A na prawe wektory osobliwe
- Działanie macierzy A na standardowe wektory jednostkowe i wyznaczony przez nie kwadrat jednostkowy
- Działanie macierzy A na jednostkowym okręgu
- Transformacja okręgu w elipsę zgodnie z rozkładem według wartości osobliwych
- Macierze obrotu i odbić
- Działanie macierzy A na ogólny wektor x
- Trzy sposoby mnożenia macierzy
- Ogólny zarys
- Współczynnik uwarunkowania i stabilność obliczeniowa
- Elementy rozkładu wartości osobliwych
- Rozkład według wartości osobliwych a rozkład według wartości własnych
- Obliczanie rozkładu według wartości osobliwych
- Numeryczne obliczanie wektora własnego
- Pseudoinwersja
- Zastosowanie rozkładu według wartości osobliwych w przetwarzaniu obrazów
- Analiza składowych głównych a redukcja wymiarów
- Analiza składowych głównych a grupowanie
- Aplikacje społecznościowe
- Utajona analiza semantyczna
- Losowy rozkład według wartości osobliwych
- Podsumowanie i perspektywy na przyszłość
Rozdział 7. AI w przetwarzaniu języka naturalnego i finansach - wektoryzacjai szeregi czasowe
- Modele AI w przetwarzaniu języka naturalnego
- Przygotowanie danych języka naturalnego do maszynowego przetwarzania
- Modele statystyczne i funkcja logarytmiczna
- Prawo Zipfa o liczności terminów
- Różne reprezentacje wektorowe dla dokumentów języka naturalnego
- Reprezentacja wektorowa częstości terminów w dokumencie lub "worku słów"
- Reprezentacja wektorowa dokumentu TF-IDF
- Tematyczna reprezentacja wektorowa dokumentu określona przez utajoną analizę semantyczną
- Reprezentacja wektora tematycznego dokumentu określona przez utajoną alokację Dirichleta
- Reprezentacja wektora tematycznego dokumentu określona przez utajoną analizę dyskryminacyjną
- Reprezentacje wektorów znaczeń słów i dokumentów określone przez osadzone sieci neuronowe
- Podobieństwo kosinusowe
- Zastosowania mechanizmów przetwarzania języka naturalnego
- Analiza tonu
- Filtry spamu
- Wyszukiwanie i odzyskiwanie informacji
- Tłumaczenie maszynowe
- Podpisy do obrazów
- Chatboty
- Inne zastosowania
- Transformery i modele uwagi
- Architektura transformera
- Mechanizm uwagi
- Transformerom daleko do doskonałości
- Konwolucyjne sieci neuronowe dla danych w postaci szeregów czasowych
- Rekurencyjne sieci neuronowe dla danych szeregów czasowych
- Jak działają rekurencyjne sieci neuronowe?
- Bramkowane jednostki rekurencyjne i jednostki LSTM
- Przykład danych języka naturalnego
- Sztuczna inteligencja w dziedzinie finansów
- Podsumowanie i perspektywy na przyszłość
Rozdział 8. Probabilistyczne modele generatywne
- Do czego przydają się modele generatywne?
- Typowe reguły matematyczne modeli generatywnych
- Przejście z myślenia deterministycznego na myślenie probabilistyczne
- Oszacowanie metodą największej wiarygodności
- Jawne i niejawne modele gęstości
- Jawny model gęstości - wykonalny: w pełni sieci przekonań
- Przykład: generowanie obrazów za pomocą modelu PixelCNN i maszynowego dźwięku za pomocą modelu WaveNet
- Jawny model gęstości - wykonalny: zmiana zmiennych w nieliniowej analizie składowych niezależnych
- Jawny model gęstości - niepraktyczny: aproksymacja autoenkoderów wariacyjnych za pomocą metod wariacyjnych
- Jawny model gęstości - niepraktyczny: aproksymacja maszyny Boltzmanna za pomocą łańcucha Markowa
- Niejawny łańcuch gęstości Markowa - generatywna sieć stochastyczna
- Niejawna gęstość prawdopodobieństwa - generatywne sieci kontradyktoryjne
- Jak działają generatywne sieci kontradyktoryjne?
- Przykład: uczenie maszynowe i sieci generatywne w fizyce wysokich energii
- Inne modele generatywne
- Naiwny klasyfikator Bayesa
- Mieszany model Gaussa
- Ewolucja modeli generatywnych
- Sieci Hopfielda
- Maszyna Boltzmanna
- Ograniczona maszyna Boltzmanna
- Oryginalny autoenkoder
- Probabilistyczne modelowanie języka
- Podsumowanie i perspektywy na przyszłość
Rozdział 9. Modele grafów
- Grafy - węzły, krawędzie i ich cechy
- Przykład: algorytm PageRank
- Odwracanie macierzy za pomocą grafów
- Grafy grup Cayleya - czysta algebra i obliczenia równoległe
- Przekazywanie komunikatów w obrębie grafu
- Nieograniczone zastosowania grafów
- Sieci ludzkiego mózgu
- Rozprzestrzenianie się choroby
- Rozprzestrzenianie się informacji
- Mechanizmy detekcji i śledzenia rozpowszechniania fałszywych wiadomości
- Systemy rekomendacji w skali internetu
- Walka z rakiem
- Grafy biochemiczne
- Generowanie grafów molekularnych na potrzeby odkrywania struktur leków i białek
- Sieci cytowań
- Sieci mediów społecznościowych i prognozowanie wpływu społecznego
- Struktury socjologiczne
- Sieci bayesowskie
- Prognozowanie ruchu
- Logistyka i badania operacyjne
- Modele językowe
- Struktura grafu internetowego
- Automatyczna analiza programów komputerowych
- Struktury danych w informatyce
- Równoważenie obciążenia w sieciach rozproszonych
- Sztuczne sieci neuronowe
- Losowe spacery po grafach
- Uczenie reprezentacji węzłów
- Zadania dla grafowych sieci neuronowych
- Klasyfikacja węzłów
- Klasyfikacja grafów
- Klasteryzacja i wykrywanie społeczności
- Generowanie grafów
- Maksymalizacja oddziaływania
- Prognozowanie połączeń
- Dynamiczne modele grafowe
- Sieci bayesowskie
- Sieć bayesowska jako reprezentacja zagęszczonej tabeli prawdopodobieństwa warunkowego
- Tworzenie prognoz za pomocą sieci bayesowskiej
- Sieci bayesowskie to sieci przekonań, a nie sieci przyczynowe
- Ważne informacje o sieciach bayesowskich
- Łańcuchy, rozwidlenia i kolidery
- Jak skonfigurować sieć bayesowską zmiennych dla znanego zestawu danych?
- Grafy wykorzystywane na potrzeby probabilistycznego modelowania przyczynowego
- Krótka historia teorii grafów
- Główne pojęcia w teorii grafów
- Drzewa rozpinające i najkrótsze drzewa rozpinające
- Zbiory przekrojów i wierzchołki przekrojów
- Planarność
- Grafy jako przestrzenie wektorowe
- Realizowalność
- Kolorowanie i dopasowywanie
- Wyliczanie
- Algorytmy i obliczeniowe aspekty grafów
- Podsumowanie i perspektywy na przyszłość
Rozdział 10. Badania operacyjne
- Nie ma darmowych obiadów
- Analiza złożoności i notacja O()
- Optymalizacja - sedno badań operacyjnych
- Myślenie o optymalizacji
- Optymalizacja - skończone wymiary, bez ograniczeń
- Optymalizacja - wymiary skończone, ograniczone mnożniki Lagrange'a
- Optymalizacja - nieskończone wymiary, rachunek wariacyjny
- Optymalizacja w sieciach
- Problem komiwojażera
- Minimalne drzewo rozpinające
- Najkrótsza ścieżka
- Maksymalny przepływ, minimalny przekrój
- Maksymalny przepływ, minimalny koszt
- Metoda ścieżki krytycznej w projektowaniu
- Problem n-królowych
- Optymalizacja liniowa
- Format ogólny i format standardowy
- Wizualizacja problemu optymalizacji liniowej w dwóch wymiarach
- Konwersja funkcji wypukłej na liniową
- Geometria optymalizacji liniowej
- Metoda simpleks
- Problem transportowy i problemy przydziału
- Dualizm, relaksacja Lagrange'a, ceny cienie, Max-Min, Min-Max i tak dalej
- Czułość
- Teoria gier i multiagenty
- Kolejkowanie
- Zapasy
- Uczenie maszynowe w badaniach operacyjnych
- Równanie Hamiltona-Jacobiego-Bellmana
- Badania operacyjne na potrzeby sztucznej inteligencji
- Podsumowanie i perspektywy na przyszłość
Rozdział 11. Prawdopodobieństwo
- Gdzie w tej książce pojawiło się prawdopodobieństwo?
- Jakie dodatkowe tematy są niezbędne dla sztucznej inteligencji?
- Modelowanie przyczynowe i rachunek do
- Alternatywa: rachunek do
- Paradoksy i interpretacje diagramów
- Problem Monty'ego Halla
- Paradoks Berksona
- Paradoks Simpsona
- Duże macierze losowe
- Przykłady losowych wektorów i macierzy
- Główne rozważania dotyczące teorii macierzy losowych
- Zespołowe macierze losowe
- Gęstość wartości własnych sumy dwóch dużych macierzy losowych
- Niezbędne narzędzia matematyki dla dużych macierzy losowych
- Procesy stochastyczne
- Proces Bernoulliego
- Proces Poissona
- Losowy spacer
- Proces Wienera, czyli ruchy Browna
- Martyngały
- Proces Levy'ego
- Proces rozgałęziający
- Łańcuch Markowa
- Lemat Itô
- Procesy decyzyjne Markowa a uczenie przez wzmacnianie
- Przykłady uczenia przez wzmacnianie
- Uczenie przez wzmacnianie jako proces decyzyjny Markowa
- Uczenie przez wzmacnianie w kontekście sterowania optymalnego i dynamiki nieliniowej
- Biblioteka Pythona do obsługi uczenia przez wzmacnianie
- Rygorystyczne podstawy teoretyczne
- Które zdarzenia mają prawdopodobieństwo?
- Czy można mówić o szerszym zakresie zmiennych losowych?
- Trójka prawdopodobieństwa (przestrzeń próbek, algebra sigma, miara prawdopodobieństwa)
- Gdzie leży trudność?
- Zmienna losowa, oczekiwanie i całkowanie
- Rozkład zmiennej losowej i twierdzenie o zmianie zmiennej
- Kolejne kroki w rygorystycznej teorii prawdopodobieństwa
- Twierdzenie o uniwersalności dla sieci neuronowych
- Podsumowanie i perspektywy na przyszłość
Rozdział 12. Logika matematyczna
- Różne frameworki logiki
- Logika zdaniowa
- Od kilku aksjomatów do kompletnej teorii
- Kodyfikacja logiki w agencie
- Uczenie maszynowe deterministyczne kontra probabilistyczne
- Logika pierwszego rzędu
- Relacje pomiędzy kwantyfikatorami "dla wszystkich" i "istnieje"
- Logika probabilistyczna
- Logika rozmyta
- Logika temporalna
- Porównanie z ludzkim językiem naturalnym
- Maszyny i złożone wnioskowanie matematyczne
- Podsumowanie i perspektywy na przyszłość
Rozdział 13. Sztuczna inteligencja i cząstkowe równania różniczkowe
- Co to jest cząstkowe równanie różniczkowe?
- Modelowanie z wykorzystaniem równań różniczkowych
- Modele w różnych skalach
- Parametry równań PDE
- Zmiana jednej rzeczy w PDE może mieć wielkie znaczenie
- Czy można wykorzystać sztuczną inteligencję?
- Rozwiązania numeryczne są bardzo cenne
- Funkcje ciągłe a funkcje dyskretne
- Motywy PDE z mojej pracy doktorskiej
- Dyskretyzacja i przekleństwo wymiarowości
- Różnice skończone
- Elementy skończone
- Metody wariacyjne, czyli energetyczne
- Metody Monte Carlo
- Wybrane zagadnienia mechaniki statystycznej - cudowne równanie główne
- Rozwiązania jako oczekiwania badanych procesów losowych
- Przekształcanie równań PDE
- Transformata Fouriera
- Transformata Laplace'a
- Operatory rozwiązań
- Przykład użycia równania ciepła
- Przykład użycia równania Poissona
- Iteracja oparta na punkcie stałym
- Sztuczna inteligencja dla PDE
- Uczenie głębokie w celu rozpoznania wartości fizycznych parametrów
- Uczenie głębokie do nauki siatek
- Uczenie głębokie w celu uzyskania przybliżeń operatorów rozwiązań PDE
- Rozwiązania numeryczne wielkowymiarowych równań różniczkowych
- Symulowanie zjawisk naturalnych bezpośrednio na podstawie danych
- Równanie PDE Hamiltona-Jacobiego-Bellmana w programowaniu dynamicznym
- Równania PDE na potrzeby AI?
- Inne rozważania dotyczące cząstkowych równań różniczkowych
- Podsumowanie i perspektywy na przyszłość
Rozdział 14. Sztuczna inteligencja, etyka, matematyka, prawo i przepisy
- Dobra sztuczna inteligencja
- Przepisy mają znaczenie
- Co może pójść źle?
- Od matematyki do broni
- Chemiczne środki bojowe
- Sztuczna inteligencja a polityka
- Niezamierzone wyniki działania modeli generatywnych
- Jak to naprawić?
- Rozwiązanie problemu niedostatecznej reprezentacji danych szkoleniowych
- Rozwiązanie problemu stronniczości w wektorach słów
- Prywatność
- Uczciwość
- Wstrzykiwanie moralności do systemów sztucznej inteligencji
- Demokratyzacja i dostępność systemów sztucznej inteligencji dla nieprofesjonalistów
- Priorytetyzacja danych wysokiej jakości
- Odróżnianie stronniczości od dyskryminacji
- Szum medialny
- Końcowe przemyślenia
Skorowidz