Uczenie maszynowe w j - Helion
Tytuł oryginału: Machine Learning with R: Learn techniques for building and improving machine learning models, from data preparation to model tuning, evaluation, and working with big data, 4th Edition
TÅ‚umaczenie: Grzegorz Werner
ISBN: 978-83-289-0899-4
stron: 688, Format: 165x235, okładka: mi
Data wydania: 2024-06-04
Księgarnia: Helion
Cena książki: 97,30 zł (poprzednio: 139,00 zł)
Oszczędzasz: 30% (-41,70 zł)
Osoby które kupowały "Uczenie maszynowe w j", wybierały także:
- R i pakiet shiny. Kurs video. Interaktywne aplikacje w analizie danych 148,98 zł, (59,59 zł -60%)
- Zaawansowana analiza danych. Jak przej 59,90 zł, (29,95 zł -50%)
- Statystyka praktyczna w data science. 50 kluczowych zagadnień w językach R i Python. Wydanie II 69,00 zł, (34,50 zł -50%)
- Język R. Receptury. Analiza danych, statystyka i przetwarzanie grafiki. Wydanie II 89,00 zł, (44,50 zł -50%)
- Deep Learning. Praca z językiem R i biblioteką Keras 77,00 zł, (38,50 zł -50%)
Spis treści
Uczenie maszynowe w języku R. Tworzenie i doskonalenie modeli - od przygotowania danych po dostrajanie, ewaluację i pracę z big data. Wydanie IV -- spis treści
O autorze
O recenzencie
Przedmowa
Rozdział 1. Wprowadzenie do uczenia maszynowego
- PoczÄ…tki uczenia maszynowego
- Użycia i nadużycia uczenia maszynowego
- Sukcesy uczenia maszynowego
- Ograniczenia uczenia maszynowego
- Etyka uczenia maszynowego
- Jak uczÄ… siÄ™ maszyny?
- Zachowywanie danych
- Abstrakcja
- Generalizacja
- Ewaluacja
- Uczenie maszynowe w praktyce
- Typy danych wejściowych
- Typy algorytmów uczenia maszynowego
- Dopasowywanie danych wejÅ›ciowych do algorytmów
- Uczenie maszynowe w języku R
- Instalowanie pakietów R
- Wczytywanie pakietów R i usuwanie ich z pamiÄ™ci
- Instalowanie RStudio
- Dlaczego R i dlaczego teraz?
- Podsumowanie
Rozdział 2. Zarządzanie danymi
- Struktury danych języka R
- Wektory
- Czynniki
- Listy
- Ramki danych
- Macierze i tablice
- Zarządzanie danymi w języku R
- Wczytywanie, zapisywanie i usuwanie struktur danych R
- Importowanie i zapisywanie zbiorów danych z plików CSV
- Importowanie typowych formatów zbiorów danych do RStudio
- Badanie i rozumienie danych
- Badanie struktury danych
- Badanie cech liczbowych
- Badanie cech kategorycznych
- Eksplorowanie relacji między cechami
- Podsumowanie
RozdziaÅ‚ 3. Uczenie leniwe - klasyfikacja metodÄ… najbliższych sÄ…siadów
- Klasyfikacja metodÄ… najbliższych sÄ…siadów
- Algorytm k-NN
- Dlaczego algorytm k-NN jest "leniwy"?
- Przykład - diagnozowanie raka piersi a pomocą algorytmu k-NN
- Etap 1. Zbieranie danych
- Etap 2. Badanie i przygotowywanie danych
- Etap 3. Trenowanie modelu na danych
- Etap 4. Ewaluacja modelu
- Etap 5. Poprawianie działania modelu
- Podsumowanie
Rozdział 4. Uczenie probabilistyczne - naiwny klasyfikator bayesowski
- Naiwny klasyfikator bayesowski
- Podstawowe założenia metod bayesowskich
- Naiwny klasyfikator bayesowski
- PrzykÅ‚ad - filtrowanie spamu w telefonach komórkowych za pomocÄ… naiwnego klasyfikatora bayesowskiego
- Etap 1. Zbieranie danych
- Etap 2. Badanie i przygotowywanie danych
- Etap 3. Trenowanie modelu na danych
- Etap 4. Ocena działania modelu
- Etap 5. Ulepszanie modelu
- Podsumowanie
Rozdział 5. Dziel i zwyciężaj - klasyfikacja z wykorzystaniem drzew decyzyjnych i reguł
- Drzewa decyzyjne
- Dziel i zwyciężaj
- Algorytm drzewa decyzyjnego C5.0
- Przykład - identyfikowanie ryzykownych pożyczek za pomocą drzew decyzyjnych C5.0
- Etap 1. Zbieranie danych
- Etap 2. Badanie i przygotowywanie danych
- Etap 3. Trenowanie modelu na danych
- Etap 4. Ocena działania modelu
- Etap 5. Poprawianie działania modelu
- Reguły klasyfikacji
- Wydzielaj i zwyciężaj
- Algorytm 1R
- Algorytm RIPPER
- Reguły z drzew decyzyjnych
- Dlaczego drzewa i reguły są "zachłanne"?
- PrzykÅ‚ad - identyfikowanie trujÄ…cych grzybów za pomocÄ… algorytmu uczÄ…cego siÄ™ reguÅ‚
- Etap 1. Zbieranie danych
- Etap 2. Badanie i przygotowywanie danych
- Etap 3. Trenowanie modelu na danych
- Etap 4. Ewaluacja modelu
- Etap 5. Poprawianie działania modelu
- Podsumowanie
Rozdział 6. Prognozowanie danych liczbowych - metody regresji
- Regresja
- Prosta regresja liniowa
- Metoda zwykÅ‚ych najmniejszych kwadratów
- Korelacje
- Wieloraka regresja liniowa
- Uogólnione modele liniowe i regresja logistyczna
- PrzykÅ‚ad - przewidywanie kosztów likwidacji szkód z wykorzystaniem regresji liniowej
- Etap 1. Zbieranie danych
- Etap 2. Badanie i przygotowywanie danych
- Etap 3. Trenowanie modelu na danych
- Etap 4. Ewaluacja modelu
- Etap 5. Poprawianie działania modelu
- Krok dalej - przewidywanie odpływu ubezpieczonych z wykorzystaniem regresji logistycznej
- Drzewa regresji i drzewa modeli
- Dodawanie regresji do drzew
- Przykład - ocenianie jakości win za pomocą drzew regresji i drzew modeli
- Etap 1. Zbieranie danych
- Etap 2. Badanie i przygotowywanie danych
- Etap 3. Trenowanie modelu na danych
- Etap 4. Ewaluacja modelu
- Etap 5. Poprawianie działania modelu
- Podsumowanie
RozdziaÅ‚ 7. Czarne skrzynki - sieci neuronowe i maszyny wektorów noÅ›nych
- Sieci neuronowe
- Od neuronów biologicznych do sztucznych
- Funkcje aktywacji
- Topologia sieci
- Trenowanie sieci neuronowej za pomocÄ… propagacji wstecznej
- Przykład - modelowanie wytrzymałości betonu za pomocą sieci ANN
- Etap 1. Zbieranie danych
- Etap 2. Badanie i przygotowywanie danych
- Etap 3. Trenowanie modelu na danych
- Etap 4. Ewaluacja modelu
- Etap 5. Poprawianie działania modelu
- Maszyny wektorów noÅ›nych
- Klasyfikacja za pomocą hiperpłaszczyzn
- Używanie funkcji jądrowych w przestrzeniach nieliniowych
- PrzykÅ‚ad - optyczne rozpoznawanie znaków za pomocÄ… modelu SVM
- Etap 1. Zbieranie danych
- Etap 2. Badanie i przygotowywanie danych
- Etap 3. Trenowanie modelu na danych
- Etap 4. Ewaluacja modelu
- Etap 5. Poprawianie działania modelu
- Podsumowanie
RozdziaÅ‚ 8. Znajdowanie wzorców - analiza koszyka z wykorzystaniem reguÅ‚ asocjacyjnych
- Reguły asocjacyjne
- Algorytm Apriori do nauki reguł asocjacyjnych
- Mierzenie istotności reguł - wsparcie i ufność
- Budowanie zbioru reguł z wykorzystaniem zasady Apriori
- PrzykÅ‚ad - identyfikowanie czÄ™sto kupowanych artykuÅ‚ów spożywczych za pomocÄ… reguÅ‚ asocjacyjnych
- Etap 1. Gromadzenie danych
- Etap 2. Badanie i przygotowywanie danych
- Etap 3. Trenowanie modelu na danych
- Etap 4. Ewaluacja modelu
- Etap 5. Poprawianie działania modelu
- Podsumowanie
Rozdział 9. Znajdowanie grup danych - klasteryzacja metodą k-średnich
- Klasteryzacja
- Klasteryzacja jako zadanie uczenia maszynowego
- Klastry algorytmów klasteryzacji
- Klasteryzacja metodą k-średnich
- Znajdowanie segmentów rynkowych wÅ›ród nastolatków poprzez klasteryzacjÄ™ metodÄ… k-Å›rednich
- Etap 1. Zbieranie danych
- Etap 2. Badanie i przygotowywanie danych
- Etap 3. Trenowanie modelu na danych
- Etap 4. Ewaluacja modelu
- Etap 5. Poprawianie działania modelu
- Podsumowanie
Rozdział 10. Ewaluacja działania modelu
- Mierzenie trafności klasyfikacji
- Rozumienie prognoz klasyfikatora
- Bliższe spojrzenie na macierze bÅ‚Ä™dów
- Używanie macierzy bÅ‚Ä™dów do mierzenia trafnoÅ›ci
- Nie tylko dokładność - inne miary trafności
- Wizualizacja kompromisów za pomocÄ… krzywych ROC
- Szacowanie przyszłej trafności
- Metoda wstrzymywania
- Walidacja krzyżowa
- Próbkowanie bootstrapowe
- Podsumowanie
Rozdział 11. Jak odnieść sukces w uczeniu maszynowym?
- Co decyduje o sukcesie praktyka uczenia maszynowego?
- Co decyduje o sukcesie modelu uczenia maszynowego?
- Unikanie oczywistych prognoz
- Przeprowadzanie uczciwych ewaluacji
- UwzglÄ™dnianie realiów
- Budowanie zaufania do modelu
- Więcej "nauki" w "nauce o danych"
- Notatniki R i znakowanie R
- Zaawansowane badanie danych
- Podsumowanie
Rozdział 12. Zaawansowane przygotowywanie danych
- Inżynieria cech
- Rola człowieka i maszyny
- Wpływ big data i uczenia głębokiego
- Praktyczna inżynieria cech
- Podpowiedź 1. Znajdź nowe cechy podczas burzy mózgów
- Podpowiedź 2. Znajdź spostrzeżenia ukryte w tekście
- Podpowiedź 3. Przekształcaj zakresy liczbowe
- Podpowiedź 4. Obserwuj zachowanie sÄ…siadów
- Podpowiedź 5. Wykorzystaj powiązane wiersze
- Podpowiedź 6. Dekomponuj szeregi czasowe
- Podpowiedź 7. Dołącz dane zewnętrzne
- tidyverse
- "Schludne" struktury tabelaryczne - obiekty tibble
- Szybsze odczytywanie plików prostokÄ…tnych za pomocÄ… pakietów readr i readxl
- Przygotowywanie i potokowe przetwarzanie danych za pomocÄ… pakietu dplyr
- Przekształcanie tekstu za pomocą pakietu stringr
- Czyszczenie danych za pomocÄ… pakietu lubridate
- Podsumowanie
Rozdział 13. Trudne dane - za duże, za małe, zbyt złożone
- Dane wysokowymiarowe
- Stosowanie selekcji cech
- Ekstrakcja cech
- Używanie danych rozrzedzonych
- Identyfikowanie danych rozrzedzonych
- Przykład - zmiana odwzorowania rozrzedzonych danych kategorycznych
- Przykład - dzielenie rozrzedzonych danych liczbowych na przedziały
- Obsługa brakujących danych
- Typy brakujÄ…cych danych
- Imputacja brakujących wartości
- Problem niezrównoważonych danych
- Proste strategie przywracania równowagi danych
- Generowanie syntetycznego zrównoważonego zbioru danych z wykorzystaniem algorytmu SMOTE
- Czy zrównoważone zawsze znaczy lepsze?
- Podsumowanie
Rozdział 14. Budowanie lepiej uczących się modeli
- Dostrajanie standardowych modeli
- OkreÅ›lanie zakresu dostrajania hiperparametrów
- Przykład - automatyczne dostrajanie za pomocą pakietu caret
- ZwiÄ™kszanie trafnoÅ›ci modeli za pomocÄ… zespoÅ‚ów
- Uczenie zespołowe
- Popularne algorytmy zespołowe
- SpiÄ™trzanie modeli do celów metanauki
- Spiętrzanie i mieszanie modeli
- Praktyczne metody mieszania i spiętrzania w języku R
- Podsumowanie
Rozdział 15. Praca z big data
- Praktyczne zastosowania uczenia głębokiego
- Pierwsze kroki w uczeniu głębokim
- Konwolucyjne sieci neuronowe
- Uczenie nienadzorowane a big data
- Reprezentowanie koncepcji wysokowymiarowych jako osadzeń
- Wizualizacja danych wysokowymiarowych
- Adaptowanie jÄ™zyka R do obsÅ‚ugi dużych zbiorów danych
- Odpytywanie baz danych SQL
- Szybsza praca dziÄ™ki przetwarzaniu równolegÅ‚emu
- Używanie wyspecjalizowanego sprzÄ™tu i algorytmów
- Podsumowanie