Uczenie maszynowe w Pythonie. Leksykon kieszonkowy - Helion
Tytuł oryginału: Machine Learning Pocket Reference: Working with Structured Data
TÅ‚umaczenie: Andrzej Watrak
ISBN: 978-83-283-6558-2
stron: 256, Format: 122x194, okładka: miękka
Data wydania: 2020-06-16
Księgarnia: Helion
Cena książki: 34,20 zł (poprzednio: 57,00 zł)
Oszczędzasz: 40% (-22,80 zł)
Uczenie maszynowe i nauka o danych sÄ… dziÅ› ogromnie popularne. Dziedziny te szybko siÄ™ rozwijajÄ…, a poszczególne techniki uczenia maszynowego znajdujÄ… coraz wiÄ™cej różnorodnych zastosowaÅ„. Wiedza, którÄ… można uzyskać dziÄ™ki odpowiedniemu przygotowaniu danych i ich eksploracji, czÄ™sto jest bezcenna. UmiejÄ™tność ich analizy oraz wiedza o możliwych sposobach rozwiÄ…zywania problemów napotykanych podczas uczenia maszynowego sÄ… wiÄ™c dużymi atutami i mogÄ… być wykorzystywane w wielu gaÅ‚Ä™ziach nauki, techniki i biznesu.
Z tego zwiÄ™zÅ‚ego przewodnika po technikach uczenia maszynowego opartego na strukturalnych danych skorzystajÄ… programiÅ›ci, badacze, osoby zajmujÄ…ce siÄ™ naukÄ… o danych oraz twórcy systemów sztucznej inteligencji. ZnalazÅ‚ siÄ™ tu wyczerpujÄ…cy opis procesu uczenia maszynowego i klasyfikacji danych strukturalnych. Przedstawiono też metody klastrowania danych, analizy regresji, redukcji wymiarowoÅ›ci oraz inne ważne zagadnienia. Prezentowane treÅ›ci zostaÅ‚y zilustrowane uwagami, tabelami i przykÅ‚adami kodu. Nie zabrakÅ‚o opisu przydatnych bibliotek, niezwykle użytecznych w pracy analityka danych. W efekcie książka pozwala na szybkie rozwiÄ…zywanie różnego rodzaju problemów zwiÄ…zanych z przetwarzaniem danych strukturalnych.
W książce między innymi:
- klasyfikacja, oczyszczanie i uzupeÅ‚nianie braków danych
- eksploracyjna analiza danych i dobór modelu danych
- przykłady analiz regresji
- redukcja wymiarowości
- potoki w bibliotece scikit-learn
Uczenie maszynowe: nowy wymiar analizy danych!
Osoby które kupowały "Uczenie maszynowe w Pythonie. Leksykon kieszonkowy", wybierały także:
- Data Science w Pythonie. Kurs video. Algorytmy uczenia maszynowego 199,00 zł, (59,70 zł -70%)
- Power BI Desktop. Kurs video. Wykorzystanie narzędzia w analizie i wizualizacji danych 349,00 zł, (104,70 zł -70%)
- Statystyka. Kurs video. Przewodnik dla student 128,71 zł, (39,90 zł -69%)
- Microsoft Excel. Kurs video. Wykresy i wizualizacja danych 199,00 zł, (69,65 zł -65%)
- Analiza danych w Tableau. Kurs video. Podstawy pracy analityka 249,00 zł, (87,15 zł -65%)
Spis treści
Uczenie maszynowe w Pythonie. Leksykon kieszonkowy -- spis treści
Przedmowa 9
- Czego należy oczekiwać? 9
- Dla kogo jest ta książka? 10
- Konwencje typograficzne 10
- PrzykÅ‚ady kodów 11
- Podziękowania 11
Rozdział 1. Wprowadzenie 13
- Wykorzystywane biblioteki 13
- Instalowanie bibliotek za pomocÄ… programu pip 15
- Instalowanie bibliotek za pomocÄ… programu conda 16
Rozdział 2. Schemat procesu uczenia maszynowego 19
Rozdział 3. Klasyfikacja danych: baza Titanic 21
- Proponowany schemat projektu 21
- Importowane biblioteki 21
- Zadanie pytania 22
- Stosowana terminologia 22
- Zebranie danych 24
- Oczyszczanie danych 25
- Zdefiniowanie cech 30
- Próbkowanie danych 32
- Imputacja danych 32
- Normalizacja danych 33
- Refaktoryzacja kodu 34
- Model odniesienia 35
- Różne rodziny algorytmów 35
- Kontaminacja modeli 37
- Utworzenie modelu 37
- Ocena modelu 38
- Optymalizacja modelu 39
- Macierz pomyłek 40
- Krzywa ROC 40
- Krzywa uczenia 42
- Wdrożenie modelu 43
Rozdział 4. Brakujące dane 45
- Badanie braków danych 45
- Pomijanie braków 49
- Imputacja danych 49
- Tworzenie kolumn ze wskaźnikami 50
Rozdział 5. Oczyszczanie danych 51
- Nazwy kolumn 51
- Uzupełnianie brakujących wartości 52
Rozdział 6. Badanie danych 53
- Ilość danych 53
- Statystyki podsumowujÄ…ce 53
- Histogram 54
- Wykres punktowy 56
- Wykres Å‚Ä…czony 57
- Macierz wykresów 59
- Wykresy pudełkowy i skrzypcowy 60
- Porównywanie dwóch cech porzÄ…dkowych 61
- Korelacja 63
- Wykres RadViz 66
- Wykres wspóÅ‚rzÄ™dnych równolegÅ‚ych 68
Rozdział 7. Wstępne przetwarzanie danych 71
- Normalizacja 71
- Skalowanie w zadanym zakresie 72
- Kolumny wskaźnikowe 73
- Kodowanie etykietowe 74
- Kodowanie częstościowe 74
- WyodrÄ™bnianie kategorii danych z ciÄ…gów znaków 75
- Inne rodzaje kodowania kolumn kategorialnych 76
- Przetwarzanie dat 78
- Tworzenie cechy col_na 79
- Ręczne przetwarzanie cech 79
Rozdział 8. Wybieranie cech 81
- Skorelowane kolumny danych 81
- Regresja lasso 83
- Rekurencyjna eliminacja cech 85
- Informacja wzajemna 86
- Analiza gÅ‚ównych skÅ‚adowych 87
- Ważność cech 87
RozdziaÅ‚ 9. Niezrównoważone klasy danych 89
- Wybór innego wskaźnika 89
- Algorytmy drzewa decyzyjnego i metody zespołowe 89
- Penalizacja modeli 89
- Próbkowanie w górÄ™ mniej licznych klas 90
- Generowanie danych w mniej licznych klasach 91
- Próbkowanie w dóÅ‚ bardziej licznych klas 91
- Próbkowanie w górÄ™, a potem w dóÅ‚ 92
Rozdział 10. Klasyfikacja 93
- Regresja logistyczna 94
- Naiwny klasyfikator Bayesa 98
- Maszyna wektorów noÅ›nych 99
- K najbliższych sÄ…siadów 102
- Drzewo decyzyjne 104
- Las losowy 111
- XGBoost 115
- Model LightGBM z gradientowym wzmacnianiem 124
- TPOT 128
RozdziaÅ‚ 11. Wybór modelu 133
- Krzywa weryfikacji 133
- Krzywa uczenia 134
Rozdział 12. Wskaźniki i ocena klasyfikacji 137
- Tablica pomyłek 137
- Wskaźniki 140
- Dokładność 141
- Czułość 141
- Precyzja 141
- F1 142
- Raport klasyfikacyjny 142
- Krzywa ROC 142
- Krzywa precyzja-czułość 144
- Krzywa skumulowanych zysków 145
- Krzywa podniesienia 147
- Równowaga klas 149
- BÅ‚Ä…d prognozowania klas 150
- Próg dyskryminacji 150
Rozdział 13. Interpretacja modelu 153
- WspóÅ‚czynniki regresji 153
- Ważność cech 153
- Pakiet LIME 153
- Interpretacja drzewa 155
- Wykres częściowych zależności 156
- Modele zastępcze 158
- Pakiet Shapley 159
Rozdział 14. Regresja 163
- Model odniesienia 165
- Regresja liniowa 165
- Maszyna wektorów noÅ›nych 168
- K najbliższych sÄ…siadów 170
- Drzewo decyzyjne 172
- Las losowy 177
- XGBoost 180
- LightGBM 185
Rozdział 15. Wskaźniki i ocena regresji 191
- Wskaźniki 191
- Wykres reszt 193
- Heteroskedastyczność 194
- Rozkład normalny reszt 195
- Wykres bÅ‚Ä™dów prognozowanych wyników 196
Rozdział 16. Interpretacja modelu regresyjnego 199
- Shapley 199
Rozdział 17. Redukcja wymiarowości danych 205
- Analiza gÅ‚ównych skÅ‚adowych 205
- UMAP 221
- t-SNE 226
- PHATE 230
Rozdział 18. Klastrowanie danych 233
- Algorytm k-średnich 233
- Klastrowanie aglomeracyjne (hierarchiczne) 239
- Interpretowanie klastrów 241
Rozdział 19. Potoki 247
- Potok klasyfikacyjny 247
- Potok regresyjny 249
- Potok analizy gÅ‚ównych skÅ‚adowych 249