Prywatno - Helion
Tytuł oryginału: Practical Data Privacy: Enhancing Privacy and Security in Data
TÅ‚umaczenie: Piotr Fabija
ISBN: 978-83-289-0922-9
stron: 312, Format: 165x235, okładka: mi
Data wydania: 2024-10-01
Księgarnia: Helion
Cena książki: 47,40 zł (poprzednio: 79,00 zł)
Oszczędzasz: 40% (-31,60 zł)
Osoby które kupowały "Prywatno", wybierały także:
- OSINT w praktyce. Kurs video. Dark web, OPSEC i wycieki danych 96,25 zł, (34,65 zł -64%)
- Cybersecurity dla ka 144,86 zł, (52,15 zł -64%)
- Wireshark. Kurs video. Analiza ruchu sieciowego i wykrywanie w 198,98 zł, (79,59 zł -60%)
- Prometheus. Kurs video. Monitorowanie system 159,00 zł, (63,60 zł -60%)
- Python dla haker 89,00 zł, (40,05 zł -55%)
Spis treści
Prywatność danych w praktyce. Skuteczna ochrona prywatności i bezpieczeństwa danych -- spis treści
Przedmowa
Wprowadzenie
Rozdział 1. Zarządzanie danymi i proste podejście do prywatności
- ZarzÄ…dzanie danymi - co to jest?
- Identyfikacja danych wrażliwych
- Wskazywanie informacji umożliwiających identyfikację osoby
- Dokumentowanie danych do wykorzystania
- Podstawowa dokumentacja danych
- Wyszukiwanie i dokumentowanie nieznanych danych
- Określanie pochodzenia danych
- Kontrolowanie wersji danych
- Podstawowa prywatność - pseudonimizacja na potrzeby ochrony prywatności w fazie projektowania
- Podsumowanie
Rozdział 2. Anonimizacja
- Co to jest anonimizacja?
- Definicja prywatnoÅ›ci różnicowej
- Epsilon - czym jest utrata prywatności?
- Co gwarantuje prywatność różnicowa, a czego nie?
- Zrozumienie prywatnoÅ›ci różnicowej
- Prywatność różnicowa w praktyce - anonimizacja spisu powszechnego w USA
- Prywatność różnicowa z mechanizmem Laplace'a
- Prywatność różnicowa z rozkÅ‚adem Laplace'a - podejÅ›cie naiwne
- Czułość i błąd
- Budżety prywatności
- Inne mechanizmy - szum gaussowski w prywatnoÅ›ci różnicowej
- Porównanie szumu Laplace'a i Gaussa
- Prywatność różnicowa w Å›wiecie rzeczywistym - usuwanie obciążenia zaszumionych wyników
- Jednostki czułości i prywatności
- A co z k-anonimowością?
- Podsumowanie
Rozdział 3. Uwzględnianie prywatności w potokach danych
- Jak wbudować prywatność w potoki danych?
- Zaprojektuj odpowiednie środki ochrony prywatności
- Spotykaj się z użytkownikami tam, gdzie się znajdują
- Implementowanie prywatności
- Testowanie i weryfikowanie
- Inżynieria prywatności i zarządzania danymi w potokach
- Przykładowy przepływ pracy w udostępnianiu danych
- Dodawanie do gromadzonych danych informacji o pochodzeniu i zgodzie
- Wykorzystywanie bibliotek prywatnoÅ›ci różnicowej w potokach
- Anonimowe gromadzenie danych
- Gromadzenie danych z prywatnoÅ›ciÄ… różnicowÄ… przez Apple
- Dlaczego pierwotne zbieranie danych z prywatnoÅ›ciÄ… różnicowÄ… w Chrome zostaÅ‚o porzucone?
- WspóÅ‚praca z zespoÅ‚em inżynierii danych i kierownictwem
- Podziel się odpowiedzialnością
- Tworzenie przepÅ‚ywów pracy uwzglÄ™dniajÄ…cych dokumentowanie i prywatność
- Prywatność jako podstawowa propozycja wartości
- Podsumowanie
Rozdział 4. Ataki na prywatność
- Ataki na prywatność - analiza typowych wektorów ataków
- Atak na Netflix Prize
- Ataki połączeniowe
- Ataki identyfikacyjne
- Atak na mapÄ™ Strava
- Atak wnioskujący o członkostwo
- Wnioskowanie o atrybutach wrażliwych
- Inne ataki bazujące na wycieku z modelu - zapamiętywanie
- Ataki polegające na kradzieży modeli
- Ataki na protokoły prywatności
- Bezpieczeństwo danych
- Kontrola dostępu
- Zapobieganie utracie danych
- Dodatkowe kontrole bezpieczeństwa
- Modelowanie zagrożeń i reagowanie na incydenty
- Probabilistyczne podejÅ›cie do ataków
- Przeciętna osoba atakująca
- Pomiar ryzyka i ocena zagrożeń
- Środki zaradcze dotyczące bezpieczeństwa danych
- Stosowanie podstawowych zabezpieczeń sieci web
- Ochrona danych treningowych i modeli
- BÄ…dź na bieżąco - poznawanie nowych ataków
- Podsumowanie
Rozdział 5. Uczenie maszynowe i nauka o danych uwzględniające prywatność
- Wykorzystanie technik ochrony prywatności w uczeniu maszynowym
- Techniki ochrony prywatności w typowym przepływie pracy nauki o danych lub uczenia maszynowego
- Uczenie maszynowe chroniące prywatność w środowisku naturalnym
- Stochastyczne zejÅ›cie gradientowe z prywatnoÅ›ciÄ… różnicowÄ…
- Biblioteki open source w uczeniu maszynowym chroniącym prywatność
- Tworzenie cech z prywatnoÅ›ciÄ… różnicowÄ…
- Stosowanie prostszych metod
- Dokumentowanie uczenia maszynowego
- Inne sposoby ochrony prywatności w uczeniu maszynowym
- Uwzględnianie prywatności w projektach związanych z danymi i uczeniem maszynowym
- Zrozumienie potrzeb w zakresie ochrony danych
- Monitorowanie prywatności
- Podsumowanie
Rozdział 6. Uczenie federacyjne i nauka o danych
- Dane rozproszone
- Dlaczego warto korzystać z danych rozproszonych?
- Jak działa rozproszona analiza danych?
- ZachowujÄ…ce prywatność dane rozproszone z prywatnoÅ›ciÄ… różnicowÄ…
- Uczenie federacyjne
- Krótka historia uczenia federacyjnego
- Dlaczego, kiedy i jak korzystać z uczenia federacyjnego
- Projektowanie systemów federacyjnych
- Przykładowa implementacja
- Zagrożenia dla bezpieczeństwa
- Przypadki użycia
- Wdrażanie bibliotek i narzędzi federacyjnych
- Biblioteki federacyjne typu open source
- Flower - ujednolicony system operacyjny dla bibliotek uczenia federacyjnego
- Przyszłość federacyjnej nauki o danych
- Podsumowanie
Rozdział 7. Obliczenia na danych zaszyfrowanych
- Czym sÄ… obliczenia na danych zaszyfrowanych?
- Kiedy używać obliczeń na danych zaszyfrowanych?
- Prywatność a tajność
- Modelowanie zagrożeń
- Rodzaje obliczeń na danych zaszyfrowanych
- Bezpieczne obliczenia wielostronne
- Szyfrowanie homomorficzne
- Rzeczywiste zastosowania obliczeń na danych zaszyfrowanych
- Część wspólna zbiorów prywatnych
- ProtokóÅ‚ Private Join and Compute
- Bezpieczna agregacja
- Uczenie maszynowe na danych zaszyfrowanych
- Pierwsze kroki z PSI i Moose
- Świat z bezpiecznym udostępnianiem danych
- Podsumowanie
Rozdział 8. Prawna strona prywatności
- RODO - przeglÄ…d
- Podstawowe prawa do danych wynikajÄ…ce z RODO
- Administrator danych a podmiot przetwarzajÄ…cy dane
- Stosowanie zgodnych z RODO technologii zwiększających prywatność
- Ocena skutków dla ochrony danych w RODO - zwinna i iteracyjna ocena ryzyka
- Prawo do wyjaśnień - interpretowalność i prywatność
- Kalifornijska ustawa o ochronie prywatnoÅ›ci konsumentów (CCPA)
- Stosowanie zgodnych z CCPA technologii zwiększających prywatność
- Inne regulacje: HIPAA, LGPD, PIPL.
- Regulacje wewnętrzne
- Polityka prywatności i warunki korzystania z usługi
- Umowy o przetwarzaniu danych
- Zapoznawanie siÄ™ z zasadami, wytycznymi i umowami
- WspóÅ‚praca z prawnikami
- Przestrzeganie ustaleÅ„ umownych i prawo umów
- Interpretacja przepisów o ochronie danych
- Prośba o pomoc i radę
- Wspólna praca nad definicjami i pomysÅ‚ami
- Udzielanie wskazówek technicznych
- ZarzÄ…dzanie danymi 2.0
- Czym jest zarzÄ…dzanie federacyjne?
- Wspieranie kultury eksperymentowania
- Działająca dokumentacja, platformy z technologią zwiększającą prywatność
- Podsumowanie
Rozdział 9. Rozważania dotyczące prywatności i praktyczności
- Praktyka - zarządzanie ryzykiem związanym z prywatnością i bezpieczeństwem
- Ocena ryzyka związanego z prywatnością i zarządzanie nim
- Uwzględnianie niepewności przy planowaniu na przyszłość
- Zabieranie głosu i podnoszenie na duchu
- Technologia prywatnoÅ›ci w praktyce - analiza przypadków użycia
- Marketing federacyjny - prowadzenie kampanii marketingowych z wbudowaną prywatnością
- Partnerstwa publiczno-prywatne - wymiana danych na potrzeby zdrowia publicznego
- Zanonimizowane uczenie maszynowe - poszukiwanie zgodności z RODO w iteracyjnych ustawieniach uczenia
- Aplikacja B2B - bez kontaktu z danymi
- Krok po kroku - jak zintegrować i zautomatyzować prywatność w uczeniu maszynowym
- Odkrywanie iteracyjne
- Dokumentowanie wymagań dotyczących prywatności
- Ocena i łączenie podejść
- Przejście na automatyzację
- Prywatność staje się normalnością
- Perspektywa na przyszłość - praca z bibliotekami i zespołami naukowymi
- WspóÅ‚praca z zewnÄ™trznymi zespoÅ‚ami naukowymi
- Inwestowanie w badania wewnętrzne
- Podsumowanie
Rozdział 10. Najczęściej zadawane pytania (i odpowiedzi na nie!)
- Obliczenia na danych zaszyfrowanych i poufne przetwarzanie danych
- Czy obliczenia zabezpieczone sÄ… kwantowo bezpieczne?
- Czy można używać enklaw do rozwiÄ…zywania problemów z prywatnoÅ›ciÄ… danych lub ich poufnoÅ›ciÄ…?
- Co bÄ™dzie, jeÅ›li muszÄ™ chronić prywatność klienta lub użytkownika, który wysyÅ‚a zapytanie lub żądanie do bazy danych?
- Czy problem prywatności mogą rozwiązać clean rooms lub zdalna analiza i zdalny dostęp do danych?
- Chcę zapewnić idealną prywatność lub idealną poufność. Czy jest to możliwe?
- Jak ustalić, czy obliczenia na danych zaszyfrowanych są wystarczająco bezpieczne?
- Jak zarządzać rotacją kluczy w przypadku obliczeń na danych zaszyfrowanych?
- Czym jest piaskownica prywatności Google? Czy wykorzystuje obliczenia na danych zaszyfrowanych?
- ZarzÄ…dzanie danymi i mechanizmy ochrony
- Dlaczego k-anonimowość nie jest wystarczająca?
- Nie sÄ…dzÄ™, by prywatność różnicowa dziaÅ‚aÅ‚a w moim przypadku użycia. Co mam zrobić?
- Czy mogÄ™ używać danych syntetycznych do rozwiÄ…zywania problemów dotyczÄ…cych prywatnoÅ›ci?
- Jak etycznie wspóÅ‚dzielić dane, czyli jakie sÄ… alternatywy dla sprzedaży danych?
- Jak mogÄ™ znaleźć wszystkie prywatne informacje, które muszÄ™ chronić?
- Po usuniÄ™ciu identyfikatorów osobistych dane sÄ… bezpieczne, prawda?
- Jak wnioskować o danych opublikowanych w przeszłości?
- Pracuję nad pulpitem nawigacyjnym lub wizualizacją analizy biznesowej. Jak sprawić, by były przyjazne dla prywatności?
- Kto podejmuje decyzje dotyczące inżynierii prywatności? Jak mam to wprowadzić w swojej organizacji?
- Jakich umiejętności lub jakiego doświadczenia potrzebuję, by zostać inżynierem do spraw prywatności?
- Dlaczego nie było mowy o (wstaw tutaj technologię lub firmę)? Jak mogę dowiedzieć się więcej? Pomocy!
- RODO i inne przepisy o ochronie danych osobowych
- Czy naprawdÄ™ muszÄ™ używać prywatnoÅ›ci różnicowej do otrzymania danych niepodlegajÄ…cych RODO, CPRA, LGPD itp.?
- Czy to prawda, że mogę wykorzystywać dane osobowe podlegające RODO w uzasadnionym interesie?
- Chcę zachować zgodność ze Schrems II i transatlantyckimi przepływami danych. Jakie są możliwe rozwiązania?
- Wybory osobiste i prywatność społecznościowa
- Jakiego dostawcy poczty e-mail, przeglądarki i aplikacji najlepiej użyć, jeśli zależy mi na mojej prywatności?
- Mój znajomy ma automatycznego asystenta domowego lub telefonicznego. Nie chcÄ™, żeby mnie podsÅ‚uchiwaÅ‚. Co mam zrobić?
- Już dawno zrezygnowałem z prywatności. Nie mam nic do ukrycia. Dlaczego mam to zmienić?
- Czy mogę po prostu sprzedać swoje dane firmom?
- LubiÄ™ spersonalizowane reklamy. Dlaczego nie?
- Czy (wypełnij puste miejsce) mnie podsłuchuje? Co mam z tym zrobić?
- Podsumowanie
RozdziaÅ‚ 11. Idź naprzód i projektuj prywatność!
- Kapitalizm nadzoru i nauka o danych
- Kapitalizm GIGerów i nadzór w dziaÅ‚aniu
- Nadzór dla "bezpieczeÅ„stwa"
- Luksusowy nadzór
- Rozległe zbieranie danych i społeczeństwo
- Uczenie maszynowe jako pranie danych
- Dezinformacja i wprowadzanie w błąd
- Obrona
- Badanie, dokumentowanie, hakowanie i uczenie siÄ™
- Kolektywizacja danych
- Kary nakładane w związku z regulacjami
- Wsparcie dla społeczności
- Czempioni prywatności
- Twoje narzędzie wielofunkcyjne do zapewniania prywatności
- Tworzenie wiarygodnych systemów uczenia maszynowego
- Prywatność w fazie projektowania
- Prywatność i władza
- Tschüss
Skorowidz