Sztuczna inteligencja dla in - Helion
ISBN: 978-83-8156-357-4
stron: 224, Format: ebook
Data wydania: 2022-04-19
Księgarnia: Helion
Cena książki: 19,90 zł (poprzednio: 41,46 zł)
Oszczędzasz: 52% (-21,56 zł)
Osoby które kupowały "Sztuczna inteligencja dla in", wybierały także:
- Unlocking Data with Generative AI and RAG. Enhance Generative AI systems by integrating internal data with Large Language Models using RAG 115,00 zł, (29,90 zł -74%)
- UX for Enterprise ChatGPT Solutions. A practical guide to designing enterprise-grade LLMs 115,00 zł, (29,90 zł -74%)
- Generative AI-Powered Assistant for Developers. Accelerate software development with Amazon Q Developer 99,67 zł, (29,90 zł -70%)
- Sztuczna inteligencja w kreowaniu warto 49,67 zł, (14,90 zł -70%)
- Artificial Intelligence for Students 83,10 zł, (34,90 zł -58%)
Spis treści
Sztuczna inteligencja dla inżynierów. Metody ogólne eBook -- spis treści
O książce v
Notacja ix
1. O sztucznej inteligencji 1
Jarosław Chudziak, Tomasz Gambin, Piotr Gawrysiak, Mieczysław Muraszkiewicz
2. Przeszukiwanie i optymalizacja 27
Rafał Biedrzycki, Wiktor Daszczuk, Robert Nowak, Paweł Wawrzyński
2.1. Wstęp 27
2.2. Metody klasyczne w SI 30
2.2.1 Metoda Newtona 30
2.2.2 Metoda Levenberga 31
2.2.3 Metoda gradientu prostego 32
2.2.4 Metoda stochastycznego najszybszego spadku 34
2.3. Przeszukiwanie przestrzeni stanów 37
2.3.1 Strategie ślepe 38
2.3.2 Strategie heurystyczne 45
2.3.3 Gry dwuosobowe, algorytm MiniMax 49
2.4. Algorytmy ewolucyjne i inne metaheurystyki 55
2.4.1 Algorytm genetyczny 55
2.4.2 Algorytm ewolucyjny58
2.4.3 Strategia ewolucyjna ES(1+1) 62
2.4.4 Strategie ewolucyjne ES(μ + λ), ES(μ, λ 63
2.4.5 Inne metaheurystyki 65
2.5. Uwagi bibliograficzne 75
3. Uczenie maszynowe 77
Paweł Cichosz
3.1. Systemy uczące się 77
3.1.1 W stronę definicji uczenia się 78
3.1.2 Rodzaje informacji trenującej 79
3.1.3 Wprowadzenie do uczenia indukcyjnego 80
3.2. Drzewa decyzyjne 90
3.2.1 Drzewa decyzyjne jako reprezentacja modelu 90
3.2.2 Zstępująca budowa drzewa 94
3.2.3 Kryterium stopu 95
3.2.4 Kryterium wyboru podziału 97
3.2.5 Przycinanie drzewa 100
3.2.6 Predykcja probabilistyczna 103
3.2.7 Drzewa regresji 104
3.2.8 Właściwości drzew decyzyjnych 106
3.3. Modele liniowe 106
3.3.1 Regresja liniowa 107
3.3.2 Klasyfikacja liniowo-progowa 113
3.3.3 Regresja logistyczna 117
3.3.4 Obsługa atrybutów dyskretnych 123
3.3.5 Klasyfikacja wieloklasowa 124
3.3.6 Właściwości modeli liniowych 125
3.4. Naiwny klasyfikator bayesowski 126
3.4.1 Wnioskowanie bayesowskie 126
3.4.2 Estymacja prawdopodobieństw 127
3.4.3 Prawdopodobieństwa zerowe i prawie zerowe 129
3.4.4 Atrybuty ciągłe 131
3.4.5 Predykcja 132
3.4.6 Właściwości naiwnego klasyfikatora bayesowskiego 133
3.5. Las losowy 134
3.5.1 Modele zespołowe 134
3.5.2 Tworzenie modeli bazowych 136
3.5.3 Łączenie predykcji 136
3.5.4 Budowa lasu losowego 137
3.5.5 Predykcja lasu losowego 140
3.5.6 Ocena predykcyjnej użyteczności atrybutów 140
3.5.7 Właściwości lasów losowych 142
3.6. Algorytm SVM 143
3.6.1 Udoskonalenie klasyfikacji liniowo-progowej 144
3.6.2 Maksymalizacja marginesu klasyfikacji 145
3.6.3 Twardy margines 147
3.6.4 Miękki margines 151
3.6.5 Postać dualna 154
3.6.6 Funkcje jądrowe 157
3.6.7 Właściwości algorytmu SVM 159
3.7. Ocena jakości modeli 160
3.7.1 Miary jakości klasyfikacji 160
3.7.2 Miary jakości regresji 169
3.7.3 Procedury oceny 171
3.8. Elementy teorii uczenia się 176
3.8.1 Klasy pojęć i przestrzenie modeli 176
3.8.2 PAC-nauczalność 178
3.8.3 PAC-uczenie się dla algorytmów spójnych 182
3.8.4 Uczenie agnostyczne 185
3.8.5 Wymiar Vapnika-Chervonenkisa 187
3.8.6 Podsumowanie wniosków z teorii 190
3.9. Uwagi bibliograficzne 190
4. Sieci neuronowe 193
Karol Piczak, Paweł Wawrzyński
4.1. Perceptron wielowarstwowy 194
4.1.1 Model neuronu 194
4.1.2 Perceptron dwuwarstwowy 195
4.1.3 Własność uniwersalnej aproksymacji 197
4.1.4 Perceptron wielowarstwowy 197
4.2. Uczenie sieci neuronowej 198
4.2.1 Uczenie jako rozwiązanie problemu optymalizacji 199
4.2.2 Skalowanie wejść i wyjść, inicjacja wag 201
4.2.3 Wsteczna propagacja gradientu 202
4.2.4 Algorytmy optymalizacji 207
4.3. Rekurencyjne sieci neuronowe 211
4.3.1 Uczenie rekurencyjnej sieci neuronowej 212
4.3.2 Siec iLSTM 213
4.3.3 Sieci GRU 215
4.4. Hiper parametry 216
4.4.1 Funkcje aktywacji neuronów 217
4.4.2 Inicjacja wag 221
4.4.3 Normalizacja 224
4.4.4 Dobór wielkości sieci 225
4.4.5 Wczesne zatrzymanie uczenia 226
4.4.6 Regularyzacja 226
4.4.7 Inne techniki poprawy generalizacji 228
4.5. Modele splotowe 230
4.5.1 Operacja splotu 231
4.5.2 Warstwy splotowe 232
4.5.3 Złożone architektury splotowe 240
4.6. Uwagi bibliograficzne 249
5. Etyka i sztuczna inteligencja 251
Katarzyna Budzyńska, Mieczysław Muraszkiewicz
5.1. Wybrane dylematy i problemy 251
5.2. Sztuczna inteligencja godna zaufania 257
5.3. Uwagi bibliograficzne 261
6. Podsumowanie 265
Jarosław Arabas, Mieczysław Muraszkiewicz, Robert Nowak
Bibliografia 269
Skorowidz 275