reklama - zainteresowany?

Uczenie maszynowe w j - Helion

Uczenie maszynowe w j
Autor: Brett Lantz
Tytuł oryginału: Machine Learning with R: Learn techniques for building and improving machine learning models, from data preparation to model tuning, evaluation, and working with big data, 4th Edition
TÅ‚umaczenie: Grzegorz Werner
ISBN: 978-83-289-0899-4
stron: 688, Format: 165x235, okładka: mi
Data wydania: 2024-06-04
Księgarnia: Helion

Cena książki: 97,30 zł (poprzednio: 139,00 zł)
Oszczędzasz: 30% (-41,70 zł)

Dodaj do koszyka Uczenie maszynowe w j

Tagi: R - Programowanie | Uczenie maszynowe

Uczenie maszynowe polega na przekszta

Dodaj do koszyka Uczenie maszynowe w j

 

Osoby które kupowały "Uczenie maszynowe w j", wybierały także:

  • R i pakiet shiny. Kurs video. Interaktywne aplikacje w analizie danych
  • Zaawansowana analiza danych. Jak przej
  • Statystyka praktyczna w data science. 50 kluczowych zagadnieÅ„ w jÄ™zykach R i Python. Wydanie II
  • JÄ™zyk R. Receptury. Analiza danych, statystyka i przetwarzanie grafiki. Wydanie II
  • Deep Learning. Praca z jÄ™zykiem R i bibliotekÄ… Keras

Dodaj do koszyka Uczenie maszynowe w j

Spis treści

Uczenie maszynowe w języku R. Tworzenie i doskonalenie modeli - od przygotowania danych po dostrajanie, ewaluację i pracę z big data. Wydanie IV -- spis treści

O autorze

O recenzencie

Przedmowa

Rozdział 1. Wprowadzenie do uczenia maszynowego

  • PoczÄ…tki uczenia maszynowego
  • Użycia i nadużycia uczenia maszynowego
    • Sukcesy uczenia maszynowego
    • Ograniczenia uczenia maszynowego
    • Etyka uczenia maszynowego
  • Jak uczÄ… siÄ™ maszyny?
    • Zachowywanie danych
    • Abstrakcja
    • Generalizacja
    • Ewaluacja
  • Uczenie maszynowe w praktyce
    • Typy danych wejÅ›ciowych
    • Typy algorytmów uczenia maszynowego
    • Dopasowywanie danych wejÅ›ciowych do algorytmów
  • Uczenie maszynowe w jÄ™zyku R
    • Instalowanie pakietów R
    • Wczytywanie pakietów R i usuwanie ich z pamiÄ™ci
    • Instalowanie RStudio
    • Dlaczego R i dlaczego teraz?
  • Podsumowanie

Rozdział 2. Zarządzanie danymi

  • Struktury danych jÄ™zyka R
    • Wektory
    • Czynniki
    • Listy
    • Ramki danych
    • Macierze i tablice
  • ZarzÄ…dzanie danymi w jÄ™zyku R
    • Wczytywanie, zapisywanie i usuwanie struktur danych R
    • Importowanie i zapisywanie zbiorów danych z plików CSV
    • Importowanie typowych formatów zbiorów danych do RStudio
  • Badanie i rozumienie danych
    • Badanie struktury danych
    • Badanie cech liczbowych
    • Badanie cech kategorycznych
    • Eksplorowanie relacji miÄ™dzy cechami
  • Podsumowanie

RozdziaÅ‚ 3. Uczenie leniwe - klasyfikacja metodÄ… najbliższych sÄ…siadów

  • Klasyfikacja metodÄ… najbliższych sÄ…siadów
    • Algorytm k-NN
    • Dlaczego algorytm k-NN jest "leniwy"?
  • PrzykÅ‚ad - diagnozowanie raka piersi a pomocÄ… algorytmu k-NN
    • Etap 1. Zbieranie danych
    • Etap 2. Badanie i przygotowywanie danych
    • Etap 3. Trenowanie modelu na danych
    • Etap 4. Ewaluacja modelu
    • Etap 5. Poprawianie dziaÅ‚ania modelu
  • Podsumowanie

Rozdział 4. Uczenie probabilistyczne - naiwny klasyfikator bayesowski

  • Naiwny klasyfikator bayesowski
    • Podstawowe zaÅ‚ożenia metod bayesowskich
    • Naiwny klasyfikator bayesowski
  • PrzykÅ‚ad - filtrowanie spamu w telefonach komórkowych za pomocÄ… naiwnego klasyfikatora bayesowskiego
    • Etap 1. Zbieranie danych
    • Etap 2. Badanie i przygotowywanie danych
    • Etap 3. Trenowanie modelu na danych
    • Etap 4. Ocena dziaÅ‚ania modelu
    • Etap 5. Ulepszanie modelu
  • Podsumowanie

Rozdział 5. Dziel i zwyciężaj - klasyfikacja z wykorzystaniem drzew decyzyjnych i reguł

  • Drzewa decyzyjne
    • Dziel i zwyciężaj
    • Algorytm drzewa decyzyjnego C5.0
  • PrzykÅ‚ad - identyfikowanie ryzykownych pożyczek za pomocÄ… drzew decyzyjnych C5.0
    • Etap 1. Zbieranie danych
    • Etap 2. Badanie i przygotowywanie danych
    • Etap 3. Trenowanie modelu na danych
    • Etap 4. Ocena dziaÅ‚ania modelu
    • Etap 5. Poprawianie dziaÅ‚ania modelu
  • ReguÅ‚y klasyfikacji
    • Wydzielaj i zwyciężaj
    • Algorytm 1R
    • Algorytm RIPPER
    • ReguÅ‚y z drzew decyzyjnych
    • Dlaczego drzewa i reguÅ‚y sÄ… "zachÅ‚anne"?
  • PrzykÅ‚ad - identyfikowanie trujÄ…cych grzybów za pomocÄ… algorytmu uczÄ…cego siÄ™ reguÅ‚
    • Etap 1. Zbieranie danych
    • Etap 2. Badanie i przygotowywanie danych
    • Etap 3. Trenowanie modelu na danych
    • Etap 4. Ewaluacja modelu
    • Etap 5. Poprawianie dziaÅ‚ania modelu
  • Podsumowanie

Rozdział 6. Prognozowanie danych liczbowych - metody regresji

  • Regresja
    • Prosta regresja liniowa
    • Metoda zwykÅ‚ych najmniejszych kwadratów
    • Korelacje
    • Wieloraka regresja liniowa
    • Uogólnione modele liniowe i regresja logistyczna
  • PrzykÅ‚ad - przewidywanie kosztów likwidacji szkód z wykorzystaniem regresji liniowej
    • Etap 1. Zbieranie danych
    • Etap 2. Badanie i przygotowywanie danych
    • Etap 3. Trenowanie modelu na danych
    • Etap 4. Ewaluacja modelu
    • Etap 5. Poprawianie dziaÅ‚ania modelu
    • Krok dalej - przewidywanie odpÅ‚ywu ubezpieczonych z wykorzystaniem regresji logistycznej
  • Drzewa regresji i drzewa modeli
    • Dodawanie regresji do drzew
  • PrzykÅ‚ad - ocenianie jakoÅ›ci win za pomocÄ… drzew regresji i drzew modeli
    • Etap 1. Zbieranie danych
    • Etap 2. Badanie i przygotowywanie danych
    • Etap 3. Trenowanie modelu na danych
    • Etap 4. Ewaluacja modelu
    • Etap 5. Poprawianie dziaÅ‚ania modelu
  • Podsumowanie

RozdziaÅ‚ 7. Czarne skrzynki - sieci neuronowe i maszyny wektorów noÅ›nych

  • Sieci neuronowe
    • Od neuronów biologicznych do sztucznych
    • Funkcje aktywacji
    • Topologia sieci
    • Trenowanie sieci neuronowej za pomocÄ… propagacji wstecznej
  • PrzykÅ‚ad - modelowanie wytrzymaÅ‚oÅ›ci betonu za pomocÄ… sieci ANN
    • Etap 1. Zbieranie danych
    • Etap 2. Badanie i przygotowywanie danych
    • Etap 3. Trenowanie modelu na danych
    • Etap 4. Ewaluacja modelu
    • Etap 5. Poprawianie dziaÅ‚ania modelu
  • Maszyny wektorów noÅ›nych
    • Klasyfikacja za pomocÄ… hiperpÅ‚aszczyzn
    • Używanie funkcji jÄ…drowych w przestrzeniach nieliniowych
  • PrzykÅ‚ad - optyczne rozpoznawanie znaków za pomocÄ… modelu SVM
    • Etap 1. Zbieranie danych
    • Etap 2. Badanie i przygotowywanie danych
    • Etap 3. Trenowanie modelu na danych
    • Etap 4. Ewaluacja modelu
    • Etap 5. Poprawianie dziaÅ‚ania modelu
  • Podsumowanie

RozdziaÅ‚ 8. Znajdowanie wzorców - analiza koszyka z wykorzystaniem reguÅ‚ asocjacyjnych

  • ReguÅ‚y asocjacyjne
    • Algorytm Apriori do nauki reguÅ‚ asocjacyjnych
    • Mierzenie istotnoÅ›ci reguÅ‚ - wsparcie i ufność
    • Budowanie zbioru reguÅ‚ z wykorzystaniem zasady Apriori
  • PrzykÅ‚ad - identyfikowanie czÄ™sto kupowanych artykuÅ‚ów spożywczych za pomocÄ… reguÅ‚ asocjacyjnych
    • Etap 1. Gromadzenie danych
    • Etap 2. Badanie i przygotowywanie danych
    • Etap 3. Trenowanie modelu na danych
    • Etap 4. Ewaluacja modelu
    • Etap 5. Poprawianie dziaÅ‚ania modelu
  • Podsumowanie

Rozdział 9. Znajdowanie grup danych - klasteryzacja metodą k-średnich

  • Klasteryzacja
    • Klasteryzacja jako zadanie uczenia maszynowego
    • Klastry algorytmów klasteryzacji
    • Klasteryzacja metodÄ… k-Å›rednich
  • Znajdowanie segmentów rynkowych wÅ›ród nastolatków poprzez klasteryzacjÄ™ metodÄ… k-Å›rednich
    • Etap 1. Zbieranie danych
    • Etap 2. Badanie i przygotowywanie danych
    • Etap 3. Trenowanie modelu na danych
    • Etap 4. Ewaluacja modelu
    • Etap 5. Poprawianie dziaÅ‚ania modelu
  • Podsumowanie

Rozdział 10. Ewaluacja działania modelu

  • Mierzenie trafnoÅ›ci klasyfikacji
    • Rozumienie prognoz klasyfikatora
    • Bliższe spojrzenie na macierze bÅ‚Ä™dów
    • Używanie macierzy bÅ‚Ä™dów do mierzenia trafnoÅ›ci
    • Nie tylko dokÅ‚adność - inne miary trafnoÅ›ci
    • Wizualizacja kompromisów za pomocÄ… krzywych ROC
  • Szacowanie przyszÅ‚ej trafnoÅ›ci
    • Metoda wstrzymywania
    • Walidacja krzyżowa
    • Próbkowanie bootstrapowe
  • Podsumowanie

Rozdział 11. Jak odnieść sukces w uczeniu maszynowym?

  • Co decyduje o sukcesie praktyka uczenia maszynowego?
  • Co decyduje o sukcesie modelu uczenia maszynowego?
    • Unikanie oczywistych prognoz
    • Przeprowadzanie uczciwych ewaluacji
    • UwzglÄ™dnianie realiów
    • Budowanie zaufania do modelu
  • WiÄ™cej "nauki" w "nauce o danych"
    • Notatniki R i znakowanie R
    • Zaawansowane badanie danych
  • Podsumowanie

Rozdział 12. Zaawansowane przygotowywanie danych

  • Inżynieria cech
    • Rola czÅ‚owieka i maszyny
    • WpÅ‚yw big data i uczenia gÅ‚Ä™bokiego
  • Praktyczna inżynieria cech
    • Podpowiedź 1. Znajdź nowe cechy podczas burzy mózgów
    • Podpowiedź 2. Znajdź spostrzeżenia ukryte w tekÅ›cie
    • Podpowiedź 3. PrzeksztaÅ‚caj zakresy liczbowe
    • Podpowiedź 4. Obserwuj zachowanie sÄ…siadów
    • Podpowiedź 5. Wykorzystaj powiÄ…zane wiersze
    • Podpowiedź 6. Dekomponuj szeregi czasowe
    • Podpowiedź 7. DoÅ‚Ä…cz dane zewnÄ™trzne
  • tidyverse
    • "Schludne" struktury tabelaryczne - obiekty tibble
    • Szybsze odczytywanie plików prostokÄ…tnych za pomocÄ… pakietów readr i readxl
    • Przygotowywanie i potokowe przetwarzanie danych za pomocÄ… pakietu dplyr
    • PrzeksztaÅ‚canie tekstu za pomocÄ… pakietu stringr
    • Czyszczenie danych za pomocÄ… pakietu lubridate
  • Podsumowanie

Rozdział 13. Trudne dane - za duże, za małe, zbyt złożone

  • Dane wysokowymiarowe
    • Stosowanie selekcji cech
    • Ekstrakcja cech
  • Używanie danych rozrzedzonych
    • Identyfikowanie danych rozrzedzonych
    • PrzykÅ‚ad - zmiana odwzorowania rozrzedzonych danych kategorycznych
    • PrzykÅ‚ad - dzielenie rozrzedzonych danych liczbowych na przedziaÅ‚y
  • ObsÅ‚uga brakujÄ…cych danych
    • Typy brakujÄ…cych danych
    • Imputacja brakujÄ…cych wartoÅ›ci
  • Problem niezrównoważonych danych
    • Proste strategie przywracania równowagi danych
    • Generowanie syntetycznego zrównoważonego zbioru danych z wykorzystaniem algorytmu SMOTE
    • Czy zrównoważone zawsze znaczy lepsze?
  • Podsumowanie

Rozdział 14. Budowanie lepiej uczących się modeli

  • Dostrajanie standardowych modeli
    • OkreÅ›lanie zakresu dostrajania hiperparametrów
    • PrzykÅ‚ad - automatyczne dostrajanie za pomocÄ… pakietu caret
  • ZwiÄ™kszanie trafnoÅ›ci modeli za pomocÄ… zespoÅ‚ów
    • Uczenie zespoÅ‚owe
    • Popularne algorytmy zespoÅ‚owe
  • SpiÄ™trzanie modeli do celów metanauki
    • SpiÄ™trzanie i mieszanie modeli
    • Praktyczne metody mieszania i spiÄ™trzania w jÄ™zyku R
  • Podsumowanie

Rozdział 15. Praca z big data

  • Praktyczne zastosowania uczenia gÅ‚Ä™bokiego
    • Pierwsze kroki w uczeniu gÅ‚Ä™bokim
    • Konwolucyjne sieci neuronowe
  • Uczenie nienadzorowane a big data
    • Reprezentowanie koncepcji wysokowymiarowych jako osadzeÅ„
    • Wizualizacja danych wysokowymiarowych
  • Adaptowanie jÄ™zyka R do obsÅ‚ugi dużych zbiorów danych
    • Odpytywanie baz danych SQL
    • Szybsza praca dziÄ™ki przetwarzaniu równolegÅ‚emu
    • Używanie wyspecjalizowanego sprzÄ™tu i algorytmów
  • Podsumowanie

Dodaj do koszyka Uczenie maszynowe w j

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2024 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.