Microsoft Fabric od podstaw. Kompleksowe projektowanie nowoczesnej analityki danych - Helion

Autor: Nikola Ilic, Ben Weissman
Tytuł oryginału: Fundamentals of Microsoft Fabric: Designing End-to-End Analytics Solutions
Tłumaczenie: El
ISBN: 978-83-289-3552-5
stron: 400, Format: Nieustalono, okładka: mi
Księgarnia: Helion
Cena książki: 99,00 zł
Tytuł oryginału: Fundamentals of Microsoft Fabric: Designing End-to-End Analytics Solutions
Tłumaczenie: El
ISBN: 978-83-289-3552-5
stron: 400, Format: Nieustalono, okładka: mi
Księgarnia: Helion
Cena książki: 99,00 zł
Książka będzie dostępna od stycznia 2026
Budowanie efektywnych rozwi
Zobacz także:
- Data Science w Pythonie. Kurs video. Przetwarzanie i analiza danych 149,00 zł, (67,05 zł -55%)
- Excel 2013. Kurs video. Poziom drugi. Przetwarzanie i analiza danych 79,00 zł, (35,55 zł -55%)
- Kompletny przewodnik po Power Query (M). Opanuj wykonywanie z 169,00 zł, (84,50 zł -50%)
- OSINT w praktyce. Jak gromadzi 67,00 zł, (33,50 zł -50%)
- Mistrz analizy danych. Od danych do wiedzy. Wydanie II 99,00 zł, (49,50 zł -50%)
Spis treści
Microsoft Fabric od podstaw. Kompleksowe projektowanie nowoczesnej analityki danych -- spis treści
Słowo wstępne
Przedmowa
Część I. Podstawy Microsoft Fabric
- Rozdział 1. Czym jest Microsoft Fabric?
- Microsoft Fabric - dlaczego i po co?
- Ogólna struktura
- Obszary robocze i domeny
- OneLake
- Data Factory
- Data Engineering
- Data Warehouse
- Data Science
- Real-Time Intelligence
- Power BI
- Bazy danych
- Rozwiązania branżowe
- Copiloty
- Model cenowy Fabric
- Podsumowanie
- Rozdział 2. Pierwsze kroki z Microsoft Fabric
- Zakładanie konta Azure
- Włączanie Fabric
- Pierwsze działania w Fabric
- Tworzenie obszaru roboczego
- Budowanie repozytorium lakehouse
- Budowanie hurtowni danych
- Wizualizowanie danych Fabric w Power BI
- Podsumowanie
- Rozdział 3. Wszystkie drogi prowadzą do OneLake
- Wprowadzenie do jezior danych
- Ewolucja rozwiązania do przechowywania danych
- Znaczenie jezior danych
- Wprowadzenie do OneLake
- Oddzielenie mocy obliczeniowej od pamięci masowej
- Eksplorator plików
- Czym wyróżnia się OneLake?
- Fundamenty OneLake
- Formaty Delta i Iceberg
- Zgodność operacyjna
- Skalowalność i wydajność
- Dane przechowywane w OneLake
- Organizowanie danych w OneLake
- Domeny
- Obszary robocze
- Główne różnice między domenami a obszarami roboczymi
- Pozyskiwanie danych i integrowanie ich z OneLake
- Metody pozyskiwania danych
- Mechanizmy integracji
- Katalog OneLake
- Eksplorator OneLake
- Podsumowanie
Część II. Funkcje - szczegółowy opis
- Rozdział 4. Data Factory
- Potoki
- Budowanie potoku danych - przewodnik krok po kroku
- Przenoszenie i przekształcanie danych
- Porównanie funkcji przenoszenia danych
- Rozszerzanie koordynacji danych
- Harmonogramy i wyzwalacze
- Apache Airflow
- Podsumowanie
- Rozdział 5. Data Engineering
- Podstawy architektury lakehouse
- Repozytoria lakehouse a jeziora danych
- Architektura medalionowa
- Repozytoria lakehouse w Microsoft Fabric
- Schematy lakehouse
- Integrowanie danych z repozytorium lakehouse
- Praca z danymi w repozytorium lakehouse
- Używanie Sparka do inżynierii danych
- Praktyczny przykład - tworzenie potoku ETL w notatniku
- Podsumowanie
- Rozdział 6. Data Warehousing
- Podstawy hurtowni danych
- Hurtownie danych a repozytoria lakehouse
- Hurtownie danych w Microsoft Fabric
- Integrowanie danych z hurtownią
- Odpytywanie hurtowni danych
- Elementy hurtowni danych w Fabric
- Hurtownie danych a tradycyjne mechanizmy bazodanowe
- Ograniczenia języka T-SQL
- Podsumowanie
- Rozdział 7. Data Science w Microsoft Fabric
- MLflow
- Śledzenie eksperymentów w prognozowaniu sprzedaży
- Wdrażanie modeli za pośrednictwem REST API w celu wsparcia zespołów nietechnicznych
- Zarządzanie wersjami modelu
- SynapseML
- AutoML
- Semantic Link
- Wizualizacja zależności w modelu semantycznym
- Optymalizowanie modeli semantycznych z użyciem reguł BPA
- Tłumaczenie modeli semantycznych
- Migrowanie istniejących modeli semantycznych do Direct Lake
- Wzbogacanie warstwy złotej
- Podsumowanie
- MLflow
- Rozdział 8. Real-Time Intelligence
- Czym jest przetwarzanie strumieniowe?
- Centrum danych czasu rzeczywistego
- Strumienie zdarzeń
- Repozytorium zdarzeń i baza danych KQL
- Repozytorium zdarzeń
- Baza danych KQL
- Odpytywanie i wizualizowanie danych w Real-Time Intelligence
- Zestaw kwerend KQL
- Pulpity nawigacyjne czasu rzeczywistego
- Wizualizowanie danych z użyciem Power BI
- Aktywator
- Kluczowe koncepcje związane z aktywatorem
- Element aktywatora
- Praca z danymi Power BI
- Praca z danymi z centrum czasu rzeczywistego
- Scenariusze zaawansowane
- Wyzwalanie elementów Fabric
- Tworzenie niestandardowych działań do wyzwalania przepływów Power Automate
- Podsumowanie
- Rozdział 9. Power BI
- Obciążenia robocze Power BI w erze przed Fabric
- Tryb Import - najwyższa wydajność
- Tryb DirectQuery do raportowania w czasie rzeczywistym
- Obciążenia robocze Power BI w Microsoft Fabric
- Tryb Direct Lake
- Warunki wstępne
- Dwa warianty Direct Lake
- Domyślny lub niestandardowy model semantyczny
- Synchronizowanie modelu semantycznego z OneLake
- Kluczowe koncepcje związane z Direct Lake
- Jak działa Direct Lake?
- Odświeżanie modelu semantycznego Direct Lake (tzw. kadrowanie)
- Transkodowanie (wczytywanie kolumn do pamięci)
- Temperatura
- Zabezpieczenia Direct Lake
- Sterowanie działaniem modeli semantycznych Direct Lake na SQL
- Ograniczenia Direct Lake
- Podsumowanie
- Obciążenia robocze Power BI w erze przed Fabric
- Rozdział 10. Bazy danych SQL
- Po co bazy danych SQL w Fabric?
- Rola sztucznej inteligencji
- Efektywność operacyjna
- Główne cechy baz danych SQL
- Prostota i autonomiczne działanie
- Integracja AI i optymalizacja
- Zintegrowany nadzór i zabezpieczenia
- Integracja DevOps
- Zunifikowane przechowywanie danych w OneLake
- Interfejs GraphQL
- Pozyskiwanie i odpytywanie danych
- Praktyczny przewodnik po tworzeniu baz danych SQL i zarządzaniu nimi
- Podsumowanie
- Rozdział 11. Dublowanie
- Czym jest dublowanie?
- Wymagania dotyczące dublowania
- Włączanie funkcji dublowania na koncie dzierżawcy
- Łączność sieciowa
- Ograniczenia źródeł danych
- Przewodnik krok po kroku - dublowanie z Azure SQL
- System Assigned Managed Identity (SAMI)
- Przyznawanie dostępu do Fabric za pośrednictwem głównego konta bazy danych
- Tworzenie dublowanej bazy danych Azure SQL
- Fabric Link to nie to samo
- Podsumowanie
- Rozdział 12. Microsoft Fabric API for GraphQL
- Podstawowe operacje GraphQL
- Praca z GraphQL w Fabric
- Odpytywanie danych za pomocą API for GraphQL
- Tworzenie relacji
- Dokonywanie zmian za pomocą mutacji
- Używanie zmiennych
- Podsumowanie
- Rozdział 13. AI i Copiloty
- Czym jest Copilot?
- Włączanie Copilota w Microsoft Fabric
- Copilot dla Data Factory
- Copilot dla Data Engineering i Data Science
- Copilot dla Data Warehouse
- Copilot dla Power BI
- Przygotowywanie modelu semantycznego dla Copilota
- Tworzenie raportów w usłudze Power BI lub programie Power BI Desktop
- Podsumowywanie treści raportu w okienku Copilota
- Pisanie formuł DAX przy użyciu Copilota
- Copilot dla Real-Time Intelligence
- Copilot dla baz danych SQL
- Usługi AI w Microsoft Fabric
- Agent danych w Microsoft Fabric
- Agent danych Fabric a Copilot
- Praca z agentem danych Fabric
- Podsumowanie
Część III. Wdrażanie Fabric w środowisku produkcyjnym
- Rozdział 14. Model cenowy Fabric
- Moc obliczeniowa i zasoby
- Typy zasobów
- Rozmiary zasobów
- Czym dokładnie jest jednostka mocy obliczeniowej (CU)?
- Tymczasowe zwiększanie (i odzyskiwanie) mocy
- Ograniczenia zasobów obliczeniowych
- Pamięć masowa
- Licencje użytkowników
- Łączność sieciowa
- Różnice regionalne
- Dodatkowe opcje cenowe
- Podsumowanie
- Moc obliczeniowa i zasoby
- Rozdział 15. Administracja i monitorowanie Microsoft Fabric
- Nadzór nad danymi w Microsoft Fabric
- Administrowanie Microsoft Fabric
- Hierarchiczna struktura Microsoft Fabric
- Praca z portalem administracyjnym
- Monitorowanie Microsoft Fabric
- Centrum monitorowania
- Aplikacja Capacity Metrics
- Centrum Microsoft Purview
- Obszar roboczy Admin monitoring
- Podsumowanie
- Rozdział 16. Zabezpieczanie Microsoft Fabric
- Bezpieczny dostęp do danych w Microsoft Fabric
- Kontrola dostępu na poziomie obszarów roboczych
- Kontrola dostępu na poziomie elementów
- Zabezpieczenia na poziomie wierszy
- Zabezpieczenia na poziomie obiektów i kolumn
- Kontrola dostępu na poziomie folderów
- Model bezpieczeństwa skrótów
- Typowe scenariusze bezpieczeństwa
- Odkrywanie i wiarygodność danych
- Katalog OneLake
- Rekomendacje
- Tagi
- Etykiety poufności
- Podsumowanie
- Bezpieczny dostęp do danych w Microsoft Fabric
- Rozdział 17. Ciągła integracja i ciągłe wdrażanie w Microsoft Fabric
- Opcje przepływu pracy CI/CD
- Integracja z Gitem
- Potoki wdrożeniowe
- Zalecane praktyki zarządzania cyklem życia
- Automatyzowanie procesów CI/CD z użyciem interfejsów REST Fabric
- Podsumowanie
- Opcje przepływu pracy CI/CD
- Rozdział 18. Przewodnik decyzyjny - co kiedy wybrać?
- Jak wybrać odpowiednią opcję?
- Wybór mechanizmu analitycznego
- Objętość danych
- Obsługiwane typy danych
- Obsługiwane języki programowania
- Obsługiwane metody pozyskiwania danych i dostępu do danych
- Kontrola dostępu
- Zgodność operacyjna z OneLake
- Przewodnik decyzyjny - scenariusze
- Dublowana baza danych Azure SQL a baza danych SQL
- Scenariusz 1. Aplikacja internetowa z danymi operacyjnymi
- Scenariusz 2. Duże zbiory danych zawierające poufne informacje
- Baza danych SQL w Fabric a hurtownia danych Fabric
- Scenariusz 1. Gromadzenie dużych zbiorów danych do raportów analitycznych
- Scenariusz 2. Raportowanie operacyjne w czasie zbliżonym do rzeczywistego z wymuszanymi ograniczeniami bazy danych
- Tryb Direct Lake a tryb Import dla modeli semantycznych
- Scenariusz 1. Samodzielna analiza z wykorzystaniem Power Query
- Scenariusz 2. Wymóg raportowania w czasie zbliżonym do rzeczywistego
- Scenariusz 3. Zasobochłonny proces odświeżania danych
- Scenariusz 4. Wykorzystanie tabel i kolumn obliczeniowych DAX
- Scenariusz 5. Używanie widoków T-SQL
- Scenariusz 6. Zabezpieczenia RLS/OLS egzekwowane w hurtowni danych lub punkcie końcowym analityki SQL repozytorium lakehouse
- Wszystkie drogi prowadzą do OneLake, ale która jest właściwa?
- Przepływ danych, notatnik, potok, dublowanie czy skrót?
- Scenariusz 1. Importowanie danych w pierwotnej formie z lokalnego źródła
- Scenariusz 2. Dostosowywanie procesu zapisu danych
- Scenariusz 3. Przygotowanie danych dla warstwy prezentacji
- Używać porządkowania pionowego czy nie?
- Podsumowanie





