reklama - zainteresowany?

Poznajemy Sparka. Błyskawiczna analiza danych - Helion

Poznajemy Sparka. Błyskawiczna analiza danych
ebook
Autor: Andy Konwinski, Karau Holden, Patrick Wendel, Matei Zaharia
ISBN: 978-8-3011-8685-2
stron: 260, Format: ebook
Data wydania: 2016-06-17
Księgarnia: Helion

Cena książki: 55,20 zł (poprzednio: 68,15 zł)
Oszczędzasz: 19% (-12,95 zł)

Dodaj do koszyka Poznajemy Sparka. Błyskawiczna analiza danych

Tagi: Big Data | Inne - Programowanie

Ilość danych we wszystkich domenach wciąż rośnie. Jak możemy skutecznie je wykorzystywać? W książce Poznajemy Sparka przedstawiono Apache Spark, system open source do przetwarzania klastrów, dzięki któremu pisanie i uruchamianie aplikacji analizy danych jest szybsze. Za pomocą Sparka można stawić czoła dużym zbiorom danych za pośrednictwem prostych interfejsów w językach Python, Java i Scala.

Dzięki tej pracy, napisanej przez deweloperów Sparka, naukowcy zajmujący się danymi i inżynierowie dowiedzą się, jak przedstawiać równoległe zadania za pomocą kilku wierszy kodu oraz jak pisać aplikacje od prostych zdań wsadowych do przetwarzania strumieniowego i systemów uczących się. Informacje zawarte w książce pozwolą im na:.

  • szybkie zgłębienie możliwości Sparka, takich jak rozproszone zbiory danych, buforowanie w pamięci oraz interaktywna powłoka
  • wykorzystywanie wbudowanych bibliotek, łącznie z Spark SQL, Spark Streaming oraz MLlib
  • wykorzystywanie paradygmatu programowania zamiast łączenia i dopasowywania narzędzi takich jak Hive, Hadoop, Mahout i Storm 
  • poznawanie sposobu wykorzystywania aplikacji interakcyjnych, wsadowych i strumieniowych dołączanie źródeł danych, np. HDFS, Hive, JSON i S3

Dodaj do koszyka Poznajemy Sparka. Błyskawiczna analiza danych

 

Osoby które kupowały "Poznajemy Sparka. Błyskawiczna analiza danych", wybierały także:

  • Zrozumieć BPMN. Modelowanie procesów biznesowych. Wydanie 2 rozszerzone
  • Excel 2016 PL. Biblia
  • Naczelny Algorytm. Jak jego odkrycie zmieni nasz świat
  • Big Data. Najlepsze praktyki budowy skalowalnych systemów obsługi danych w czasie rzeczywistym
  • Hadoop. Komplety przewodnik. Analiza i przechowywanie danych

Dodaj do koszyka Poznajemy Sparka. Błyskawiczna analiza danych

Spis treści

Poznajemy Sparka. Byskawiczna analiza danych eBook -- spis treci

  • Okadka
  • Strona tytuowa
  • Strona redakcyjna
  • Spis treci
  • Sowo wstpne
  • Wprowadzenie
  • 1. Wprowadzenie do analizy danych w Sparku
    • Czym jest Apache Spark?
    • Ujednolicony stos
    • Jdro Sparka
    • Spark SQL
    • Spark Streaming
    • MLlib
    • GraphX
    • Zarzdzanie klastrami
    • Kto i po co korzysta ze Sparka?
    • Zadania z zakresu nauki o danych
    • Aplikacje przetwarzania danych
    • Krótka historia Sparka
    • Wersje i wydania Sparka
    • Warstwy pamici w Sparku
  • 2. Pobieranie Sparka i rozpoczcie pracy
    • Pobieranie Sparka
    • Wprowadzenie do powok Sparka dla Pythona i Scali
    • Wprowadzenie do podstawowych poj Sparka
    • Niezalene aplikacje
    • Inicjalizowanie kontekstu SparkContext
    • Tworzenie niezalenych aplikacji
    • Podsumowanie
  • 3. Programowanie z rozproszonymi zbiorami danych RDD
    • Podstawy RDD
    • Tworzenie RDD
    • Dziaania na RDD
    • Transformacje
    • Akcje
    • Leniwa ewaluacja
    • Przekazywanie funkcji do Sparka
    • Python
    • Scala
    • Java
    • Popularne transformacje i akcje
    • Podstawowe RDD
    • Przeksztacenia midzy typami RDD
    • Utrzymywanie (buforowanie)
    • Podsumowanie
  • 4. Praca z parami klucz-warto
    • Motywacja
    • Tworzenie RDD par
    • Transformacje na RDD par
    • Agregacje
    • Grupowanie danych
    • Zczenia
    • Sortowanie danych
    • Dziaania dostpne na RDD par
    • Partycjonowanie danych (zaawansowane)
    • Okrelanie partycjonera RDD
    • Dziaania, które zyskuj dziki partycjonowaniu
    • Dziaania, które maj wpyw na partycjonowanie
    • Przykad: PageRank
    • Niestandardowe partycjonery
    • Podsumowanie
  • 5. adowanie i zapisywanie danych
    • Motywacja
    • Formaty plików
    • Pliki tekstowe
    • JSON
    • Wartoci oddzielane przecinkami i tabulatorami
    • Pliki sekwencyjne
    • Pliki obiektowe
    • Formaty wejcia i wyjcia w Hadoop
    • Kompresja plików
    • Systemy plików
    • Lokalny lub zwyky
    • Amazon S3
    • HDFS
    • Dane strukturalne w Spark SQL
    • Apache Hive
    • JSON
    • Bazy danych
    • czniki z baz danych Java
    • Cassandra
    • HBase
    • Elasticsearch
    • Podsumowanie
  • 6. Zaawansowane programowanie w Sparku
    • Wprowadzenie
    • Akumulatory
    • Akumulatory i odporno na bdy
    • Akumulatory niestandardowe
    • Zmienne rozgoszeniowe
    • Optymalizacja rozgosze
    • Praca na poszczególnych partycjach
    • Potokowanie do programów zewntrznych
    • Dziaania liczbowe na RDD
    • Podsumowanie
  • 7. Uruchamianie Sparka w klastrze
    • Wprowadzenie
    • Spark Runtime Architecture
    • Sterownik
    • Wykonawcy
    • Meneder klastrów
    • Uruchamianie programu
    • Podsumowanie
    • Wdraanie aplikacji za pomoc spark-submit
    • Pakowanie kodu i elementów zalenych
    • Aplikacja Java Spark budowana za pomoc Mavena
    • Aplikacja Scala Spark budowana za pomoc sbt
    • Konflikty zalenoci
    • Harmonogramowanie w aplikacjach Sparka i midzy nimi
    • Menedery klastrów
    • Meneder klastrów Standalone
    • Hadoop YARN
    • Apache Mesos
    • Amazon EC2
    • Którego menedera klastrów uywa?
    • Podsumowanie
  • 8. Dostrajanie i debugowanie Sparka
    • Konfigurowanie Sparka z SparkConf
    • Skadniki wykonania: prace, zadania i etapy
    • Znajdowanie informacji
    • Sieciowy interfejs uytkownika w Sparku (Web UI)
    • Dzienniki sterownika i wykonawców
    • Kluczowe zagadnienia dotyczce wydajnoci
    • Poziom równolegoci
    • Format serializacji
    • Zarzdzanie pamici
    • Dostarczanie sprztu
    • Podsumowanie
  • 9. Spark SQL
    • czenie ze Spark SQL
    • Uywanie Spark SQL w aplikacjach
    • Inicjalizacja Spark SQL
    • Przykad podstawowych zapyta
    • Elementy DataFrames
    • Buforowanie
    • adowanie i zapisywanie danych
    • Apache Hive
    • róda danych lub Parquet
    • JSON
    • Ze zbiorów RDD
    • Serwer JDBC/ODBC
    • Praca z Beeline
    • Dugotrwae tablice i zapytania
    • Funkcje definiowane przez uytkowników
    • UDF w Spark SQL
    • Funkcje UDF w Hive
    • Wydajno Spark SQL
    • Opcje dostrajania wydajnoci
    • Podsumowanie
  • 10. Spark Streaming
    • Prosty przykad
    • Architektura i abstrakcja
    • Transformacje
    • Transformacje bezstanowe
    • Transformacje stanowe
    • Operacje wyjcia
    • róda wejciowe
    • Gówne róda
    • Dodatkowe róda
    • Wiele róde i ustawianie rozmiaru klastra
    • Dziaanie 24/7
    • Punkty kontrolne
    • Odporno sterownika na bdy
    • Odporno wza roboczego na bdy
    • Odporno odbiornika na bdy
    • Gwarancje przetwarzania
    • Interfejs uytkownika w strumieniowaniu
    • Kwestie wydajnoci
    • Rozmiary wsadu i okien
    • Poziom równolegoci
    • Czyszczenie pamici i jej wykorzystywanie
    • Podsumowanie
  • 11. Systemy uczce si w MLlib
    • Przegld
    • Wymagania dotyczce systemu
    • Podstawy systemów uczcych si
    • Przykad: klasyfikacja spamu
    • Typy danych
    • Praca z wektorami
    • Algorytmy
    • Ekstrakcja cech
    • Statystyki
    • Klasyfikacja i regresja
    • Klastrowanie
    • Wspólne filtrowanie i rekomendacje
    • Zmniejszenie wymiarowoci
    • Ewaluacja modelu
    • Wskazówki i kwestie wydajnoci
    • Przygotowanie cech
    • Konfigurowanie algorytmów
    • Bufrowanie zbiorów RDD do ponownego wykorzystania
    • Rozpoznawanie rzadkoci
    • Poziom równolegoci
    • API potoku
    • Podsumowanie
  • O autorach
  • Przypisy

Dodaj do koszyka Poznajemy Sparka. Błyskawiczna analiza danych

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2022 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.