reklama - zainteresowany?

Uczenie maszynowe w Pythonie. Receptury - Helion

Uczenie maszynowe w Pythonie. Receptury
ebook
Autor: Chris Albon
ISBN: 978-83-283-5051-9
Format: ebook
Data wydania: 2018-12-01
Ksi臋garnia: Helion

Cena ksi膮偶ki: 51,75 z艂 (poprzednio: 69,00 z艂)
Oszcz臋dzasz: 25% (-17,25 z艂)

Dodaj do koszyka Uczenie maszynowe w Pythonie. Receptury

Dodaj do koszyka Uczenie maszynowe w Pythonie. Receptury

 

Osoby kt贸re kupowa艂y "Uczenie maszynowe w Pythonie. Receptury", wybiera艂y tak偶e:

  • Windows Media Center. Domowe centrum rozrywki
  • Ruby on Rails. 膯wiczenia
  • DevOps w praktyce. Kurs video. Jenkins, Ansible, Terraform i Docker
  • Przyw贸dztwo w 艣wiecie VUCA. Jak by膰 skutecznym liderem w niepewnym 艣rodowisku
  • Scrum. O zwinnym zarz膮dzaniu projektami. Wydanie II rozszerzone

Dodaj do koszyka Uczenie maszynowe w Pythonie. Receptury

Spis tre艣ci

Uczenie maszynowe w Pythonie. Receptury eBook -- spis tre艣ci


Wprowadzenie 11

1. Wektor, macierz i tablica 15

  • 1.0. Wprowadzenie 15
  • 1.1. Tworzenie wektora 15
  • 1.2. Tworzenie macierzy 16
  • 1.3. Tworzenie macierzy rzadkiej 17
  • 1.4. Pobieranie element贸w 18
  • 1.5. Opisywanie macierzy 20
  • 1.6. Przeprowadzanie operacji na elementach 20
  • 1.7. Znajdowanie warto艣ci maksymalnej i minimalnej 21
  • 1.8. Obliczanie 艣redniej, wariancji i odchylenia standardowego 22
  • 1.9. Zmiana kszta艂tu tablicy 23
  • 1.10. Transponowanie wektora lub macierzy 24
  • 1.11. Sp艂aszczanie macierzy 25
  • 1.12. Znajdowanie rz臋du macierzy 25
  • 1.13. Obliczanie wyznacznika macierzy 26
  • 1.14. Pobieranie przek膮tnej macierzy 27
  • 1.15. Obliczanie 艣ladu macierzy 27
  • 1.16. Znajdowanie wektor贸w i warto艣ci w艂asnych 28
  • 1.17. Obliczanie iloczynu skalarnego 29
  • 1.18. Dodawanie i odejmowanie macierzy 30
  • 1.19. Mno偶enie macierzy 31
  • 1.20. Odwracanie macierzy 32
  • 1.21. Generowanie liczb losowych 33

2. Wczytywanie danych 35

  • 2.0. Wprowadzenie 35
  • 2.1. Wczytywanie przyk艂adowego zbioru danych 35
  • 2.2. Tworzenie symulowanego zbioru danych 36
  • 2.3. Wczytywanie pliku CSV 39
  • 2.4. Wczytywanie pliku Excela 40
  • 2.5. Wczytywanie pliku JSON 41
  • 2.6. Wykonywanie zapyta艅 do bazy danych SQL 42

3. Przygotowywanie danych 45

  • 3.0. Wprowadzenie 45
  • 3.1. Tworzenie ramki danych 46
  • 3.2. Opisywanie danych 47
  • 3.3. Poruszanie si臋 po ramce danych 49
  • 3.4. Pobieranie wierszy na podstawie pewnych warunk贸w 51
  • 3.5. Zast臋powanie warto艣ci 52
  • 3.6. Zmiana nazwy kolumny 53
  • 3.7. Znajdowanie warto艣ci minimalnej, maksymalnej, sumy, 艣redniej i liczby element贸w w kolumnie 54
  • 3.8. Znajdowanie unikatowych warto艣ci 55
  • 3.9. Obs艂uga brakuj膮cych warto艣ci 56
  • 3.10. Usuwanie kolumn 58
  • 3.11. Usuwanie wiersza 59
  • 3.12. Usuwanie powielonych wierszy 60
  • 3.13. Grupowanie wierszy 62
  • 3.14. Grupowanie wierszy wed艂ug czasu 63
  • 3.15. Iterowanie przez kolumn臋 65
  • 3.16. Wywo艂ywanie funkcji dla wszystkich element贸w kolumny 66
  • 3.17. Wywo艂ywanie funkcji dla grupy 67
  • 3.18. Konkatenacja obiekt贸w typu DataFrame 68
  • 3.19. Z艂膮czanie obiekt贸w typu DataFrame 69

4. Obs艂uga danych liczbowych 73

  • 4.0. Wprowadzenie 73
  • 4.1. Przeskalowywanie cechy 73
  • 4.2. Standaryzowanie cechy 74
  • 4.3. Normalizowanie obserwacji 76
  • 4.4. Generowanie cech wielomianowych i interakcji 78
  • 4.5. Transformacja cech 79
  • 4.6. Wykrywanie element贸w odstaj膮cych 80
  • 4.7. Obs艂uga element贸w odstaj膮cych 82
  • 4.8. Dyskretyzacja cech 84
  • 4.9. Grupowanie obserwacji przy u偶yciu klastra 85
  • 4.10. Usuwanie obserwacji, w kt贸rych brakuje warto艣ci 87
  • 4.11. Uzupe艂nianie brakuj膮cych warto艣ci 88

5. Obs艂uga danych kategoryzuj膮cych 91

  • 5.0. Wprowadzenie 91
  • 5.1. Kodowanie nominalnych cech kategoryzuj膮cych 92
  • 5.2. Kodowanie porz膮dkowych cech kategoryzuj膮cych 94
  • 5.3. Kodowanie s艂ownik贸w cech 96
  • 5.4. Wstawianie brakuj膮cych warto艣ci klas 98
  • 5.5. Obs艂uga niezr贸wnowa偶onych klas 99

6. Obs艂uga tekstu 103

  • 6.0. Wprowadzenie 103
  • 6.1. Oczyszczanie tekstu 103
  • 6.2. Przetwarzanie i oczyszczanie danych HTML 105
  • 6.3. Usuwanie znaku przestankowego 105
  • 6.4. Tokenizacja tekstu 106
  • 6.5. Usuwanie s艂贸w o ma艂ym znaczeniu 107
  • 6.6. Stemming s艂贸w 108
  • 6.7. Oznaczanie cz臋艣ci mowy 109
  • 6.8. Kodowanie tekstu za pomoc膮 modelu worka s艂贸w 111
  • 6.9. Okre艣lanie wagi s艂贸w 113

7. Obs艂uga daty i godziny 117

  • 7.0. Wprowadzenie 117
  • 7.1. Konwertowanie ci膮gu tekstowego na dat臋 117
  • 7.2. Obs艂uga stref czasowych 118
  • 7.3. Pobieranie daty i godziny 120
  • 7.4. Podzia艂 danych daty na wiele cech 121
  • 7.5. Obliczanie r贸偶nicy mi臋dzy datami 122
  • 7.6. Kodowanie dni tygodnia 123
  • 7.7. Tworzenie cechy op贸藕nionej w czasie 124
  • 7.8. U偶ycie okien up艂ywaj膮cego czasu 125
  • 7.9. Obs艂uga brakuj膮cych danych w serii danych zawieraj膮cych warto艣ci daty i godziny 126

8. Obs艂uga obraz贸w 129

  • 8.0. Wprowadzenie 129
  • 8.1. Wczytywanie obrazu 129
  • 8.2. Zapisywanie obrazu 132
  • 8.3. Zmiana wielko艣ci obrazu 133
  • 8.4. Kadrowanie obrazu 134
  • 8.5. Rozmywanie obrazu 135
  • 8.6. Wyostrzanie obrazu 138
  • 8.7. Zwi臋kszanie kontrastu 138
  • 8.8. Izolowanie kolor贸w 141
  • 8.9. Progowanie obrazu 142
  • 8.10. Usuwanie t艂a obrazu 145
  • 8.11. Wykrywanie kraw臋dzi 147
  • 8.12. Wykrywanie naro偶nik贸w w obrazie 150
  • 8.13. Tworzenie cech w uczeniu maszynowym 153
  • 8.14. U偶ycie 艣redniej koloru jako cechy 155
  • 8.15. U偶ycie histogramu koloru jako cechy 157

9. Redukowanie wymiarowo艣ci za pomoc膮 wyodr臋bniania cech 161

  • 9.0. Wprowadzenie 161
  • 9.1. Redukowanie cech za pomoc膮 g艂贸wnych sk艂adowych 161
  • 9.2. Redukowanie cech, gdy dane s膮 liniowo nieroz艂膮czne 164
  • 9.3. Redukowanie cech przez maksymalizacj臋 roz艂膮czno艣ci klas 166
  • 9.4. Redukowanie cech za pomoc膮 rozk艂adu macierzy 169
  • 9.5. Redukowanie cech w rzadkich danych 170

10. Redukcja wymiarowo艣ci za pomoc膮 wyboru cech 173

  • 10.0. Wprowadzenie 173
  • 10.1. Progowanie wariancji cechy liczbowej 173
  • 10.2. Progowanie wariancji cechy binarnej 175
  • 10.3. Obs艂uga wysoce skorelowanych cech 176
  • 10.4. Usuwanie nieistotnych dla klasyfikacji cech 177
  • 10.5. Rekurencyjne eliminowanie cech 179

11. Ocena modelu 183

  • 11.0. Wprowadzenie 183
  • 11.1. Modele sprawdzianu krzy偶owego 183
  • 11.2. Tworzenie modelu regresji bazowej 186
  • 11.3. Tworzenie modelu klasyfikacji bazowej 188
  • 11.4. Ocena prognoz klasyfikatora binarnego 189
  • 11.5. Ocena progowania klasyfikatora binarnego 192
  • 11.6. Ocena prognoz klasyfikatora wieloklasowego 195
  • 11.7. Wizualizacja wydajno艣ci klasyfikatora 197
  • 11.8. Ocena modelu regresji 199
  • 11.9. Ocena modelu klasteryzacji 201
  • 11.10. Definiowanie niestandardowych wsp贸艂czynnik贸w oceny modelu 202
  • 11.11. Wizualizacja efektu wywieranego przez wielko艣膰 zbioru ucz膮cego 204
  • 11.12. Tworzenie raportu tekstowego dotycz膮cego wsp贸艂czynnika oceny 206
  • 11.13. Wizualizacja efektu wywieranego przez zmian臋 warto艣ci hiperparametr贸w 207

12. Wyb贸r modelu 211

  • 12.0. Wprowadzenie 211
  • 12.1. Wyb贸r najlepszych modeli przy u偶yciu wyczerpuj膮cego wyszukiwania 212
  • 12.2. Wyb贸r najlepszych modeli za pomoc膮 przeszukiwania losowego 214
  • 12.3. Wyb贸r najlepszych modeli z wielu algorytm贸w uczenia maszynowego 216
  • 12.4. Wyb贸r najlepszych modeli na etapie przygotowywania danych 217
  • 12.5. Przyspieszanie wyboru modelu za pomoc膮 r贸wnoleg艂o艣ci 219
  • 12.6. Przyspieszanie wyboru modelu przy u偶yciu metod charakterystycznych dla algorytmu 220
  • 12.7. Ocena wydajno艣ci po wyborze modelu 221

13. Regresja liniowa 225

  • 13.0. Wprowadzenie 225
  • 13.1. Wyznaczanie linii 225
  • 13.2. Obs艂uga wp艂ywu interakcji 227
  • 13.3. Wyznaczanie zale偶no艣ci nieliniowej 228
  • 13.4. Redukowanie wariancji za pomoc膮 regularyzacji 230
  • 13.5. Redukowanie cech za pomoc膮 regresji metod膮 LASSO 232

14. Drzewa i lasy 235

  • 14.0. Wprowadzenie 235
  • 14.1. Trenowanie klasyfikatora drzewa decyzyjnego 235
  • 14.2. Trenowanie regresora drzewa decyzyjnego 237
  • 14.3. Wizualizacja modelu drzewa decyzyjnego 238
  • 14.4. Trenowanie klasyfikatora losowego lasu 240
  • 14.5. Testowanie regresora losowego lasu 241
  • 14.6. Identyfikacja wa偶nych cech w losowych lasach 242
  • 14.7. Wyb贸r wa偶nych cech w losowym lesie 245
  • 14.8. Obs艂uga niezr贸wnowa偶onych klas 246
  • 14.9. Kontrolowanie wielko艣ci drzewa 247
  • 14.10. Poprawa wydajno艣ci za pomoc膮 wzmocnienia 248
  • 14.11. Ocena losowego lasu za pomoc膮 estymatora b艂臋du out-of-bag 250

15. Algorytm k najbli偶szych s膮siad贸w 251

  • 15.0. Wprowadzenie 251
  • 15.1. Wyszukiwanie najbli偶szych s膮siad贸w obserwacji 251
  • 15.2. Tworzenie klasyfikatora k najbli偶szych s膮siad贸w 253
  • 15.3. Ustalanie najlepszej wielko艣ci s膮siedztwa 255
  • 15.4. Tworzenie klasyfikatora najbli偶szych s膮siad贸w opartego na promieniu 256

16. Regresja logistyczna 259

  • 16.0. Wprowadzenie 259
  • 16.1. Trenowanie klasyfikatora binarnego 259
  • 16.2. Trenowanie klasyfikatora wieloklasowego 260
  • 16.3. Redukcja wariancji poprzez regularyzacj臋 262
  • 16.4. Trenowanie klasyfikatora na bardzo du偶ych danych 263
  • 16.5. Obs艂uga niezr贸wnowa偶onych klas 264

17. Maszyna wektora no艣nego 267

  • 17.0. Wprowadzenie 267
  • 17.1. Trenowanie klasyfikatora liniowego 267
  • 17.2. Obs艂uga liniowo nierozdzielnych klas przy u偶yciu funkcji j膮dra 270
  • 17.3. Okre艣lanie prognozowanego prawdopodobie艅stwa 273
  • 17.4. Identyfikacja wektor贸w no艣nych 275
  • 17.5. Obs艂uga niezr贸wnowa偶onych klas 276

18. Naiwny klasyfikator bayesowski 279

  • 18.0. Wprowadzenie 279
  • 18.1. Trenowanie klasyfikatora dla cech ci膮g艂ych 280
  • 18.2. Trenowanie klasyfikatora dla cech dyskretnych lub liczebnych 282
  • 18.3. Trenowanie naiwnego klasyfikatora bayesowskiego dla cech binarnych 283
  • 18.4. Kalibrowanie prognozowanego prawdopodobie艅stwa 284

19. Klasteryzacja 287

  • 19.0. Wprowadzenie 287
  • 19.1. Klasteryzacja za pomoc膮 k 艣rednich 287
  • 19.2. Przyspieszanie klasteryzacji za pomoc膮 k 艣rednich 290
  • 19.3. Klasteryzacja za pomoc膮 algorytmu meanshift 290
  • 19.4. Klasteryzacja za pomoc膮 algorytmu DBSCAN 292
  • 19.5. Klasteryzacja za pomoc膮 艂膮czenia hierarchicznego 293

20. Sieci neuronowe 295

  • 20.0. Wprowadzenie 295
  • 20.1. Przygotowywanie danych dla sieci neuronowej 296
  • 20.2. Projektowanie sieci neuronowej 297
  • 20.3. Trenowanie klasyfikatora binarnego 300
  • 20.4. Trenowanie klasyfikatora wieloklasowego 302
  • 20.5. Trenowanie regresora 304
  • 20.6. Generowanie prognoz 305
  • 20.7. Wizualizacja historii trenowania 307
  • 20.8. Redukcja nadmiernego dopasowania za pomoc膮 regularyzacji wagi 310
  • 20.9. Redukcja nadmiernego dopasowania za pomoc膮 techniki wcze艣niejszego zako艅czenia procesu uczenia 311
  • 20.10. Redukcja nadmiernego dopasowania za pomoc膮 techniki porzucenia 313
  • 20.11. Zapisywanie post臋pu modelu ucz膮cego 315
  • 20.12. K-krotny sprawdzian krzy偶owy sieci neuronowej 316
  • 20.13. Dostrajanie sieci neuronowej 318
  • 20.14. Wizualizacja sieci neuronowej 320
  • 20.15. Klasyfikacja obraz贸w 322
  • 20.16. Poprawa wydajno艣ci przez modyfikacj臋 obrazu 325
  • 20.17. Klasyfikowanie tekstu 327

21. Zapisywanie i wczytywanie wytrenowanych modeli 331

  • 21.0. Wprowadzenie 331
  • 21.1. Zapisywanie i wczytywanie modelu biblioteki scikit-learn 331
  • 21.2. Zapisywanie i wczytywanie modelu biblioteki Keras 332

Skorowidz 335

Dodaj do koszyka Uczenie maszynowe w Pythonie. Receptury

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2024 CATALIST agencja interaktywna, znaki firmowe nale偶膮 do wydawnictwa Helion S.A.