reklama - zainteresowany?

Prywatno - Helion

Prywatno
Autor: Katharine Jarmul
Tytuł oryginału: Practical Data Privacy: Enhancing Privacy and Security in Data
TÅ‚umaczenie: Piotr Fabija
ISBN: 978-83-289-0922-9
stron: 312, Format: 165x235, okładka: mi
Data wydania: 2024-10-01
Księgarnia: Helion

Cena książki: 63,20 zł (poprzednio: 78,02 zł)
Oszczędzasz: 19% (-14,82 zł)

Nakład wyczerpany

Tagi: Bezpiecze | Inne

Chyba nikogo nie trzeba przekonywa

 

Zobacz także:

  • Certified Information Security Manager Exam Prep Guide
  • Nmap Network Exploration and Security Auditing Cookbook
  • Malware Analysis Techniques
  • Cybersecurity Career Master Plan
  • API Testing and Development with Postman

Spis treści

Prywatność danych w praktyce. Skuteczna ochrona prywatności i bezpieczeństwa danych -- spis treści

Przedmowa

Wprowadzenie

Rozdział 1. Zarządzanie danymi i proste podejście do prywatności

  • ZarzÄ…dzanie danymi - co to jest?
  • Identyfikacja danych wrażliwych
    • Wskazywanie informacji umożliwiajÄ…cych identyfikacjÄ™ osoby
  • Dokumentowanie danych do wykorzystania
    • Podstawowa dokumentacja danych
    • Wyszukiwanie i dokumentowanie nieznanych danych
    • OkreÅ›lanie pochodzenia danych
    • Kontrolowanie wersji danych
  • Podstawowa prywatność - pseudonimizacja na potrzeby ochrony prywatnoÅ›ci w fazie projektowania
  • Podsumowanie

Rozdział 2. Anonimizacja

  • Co to jest anonimizacja?
  • Definicja prywatnoÅ›ci różnicowej
  • Epsilon - czym jest utrata prywatnoÅ›ci?
  • Co gwarantuje prywatność różnicowa, a czego nie?
  • Zrozumienie prywatnoÅ›ci różnicowej
    • Prywatność różnicowa w praktyce - anonimizacja spisu powszechnego w USA
  • Prywatność różnicowa z mechanizmem Laplace'a
    • Prywatność różnicowa z rozkÅ‚adem Laplace'a - podejÅ›cie naiwne
    • CzuÅ‚ość i bÅ‚Ä…d
    • Budżety prywatnoÅ›ci
  • Inne mechanizmy - szum gaussowski w prywatnoÅ›ci różnicowej
    • Porównanie szumu Laplace'a i Gaussa
    • Prywatność różnicowa w Å›wiecie rzeczywistym - usuwanie obciążenia zaszumionych wyników
  • Jednostki czuÅ‚oÅ›ci i prywatnoÅ›ci
  • A co z k-anonimowoÅ›ciÄ…?
  • Podsumowanie

Rozdział 3. Uwzględnianie prywatności w potokach danych

  • Jak wbudować prywatność w potoki danych?
    • Zaprojektuj odpowiednie Å›rodki ochrony prywatnoÅ›ci
    • Spotykaj siÄ™ z użytkownikami tam, gdzie siÄ™ znajdujÄ…
    • Implementowanie prywatnoÅ›ci
    • Testowanie i weryfikowanie
  • Inżynieria prywatnoÅ›ci i zarzÄ…dzania danymi w potokach
    • PrzykÅ‚adowy przepÅ‚yw pracy w udostÄ™pnianiu danych
    • Dodawanie do gromadzonych danych informacji o pochodzeniu i zgodzie
  • Wykorzystywanie bibliotek prywatnoÅ›ci różnicowej w potokach
  • Anonimowe gromadzenie danych
    • Gromadzenie danych z prywatnoÅ›ciÄ… różnicowÄ… przez Apple
    • Dlaczego pierwotne zbieranie danych z prywatnoÅ›ciÄ… różnicowÄ… w Chrome zostaÅ‚o porzucone?
  • WspóÅ‚praca z zespoÅ‚em inżynierii danych i kierownictwem
    • Podziel siÄ™ odpowiedzialnoÅ›ciÄ…
    • Tworzenie przepÅ‚ywów pracy uwzglÄ™dniajÄ…cych dokumentowanie i prywatność
    • Prywatność jako podstawowa propozycja wartoÅ›ci
  • Podsumowanie

Rozdział 4. Ataki na prywatność

  • Ataki na prywatność - analiza typowych wektorów ataków
    • Atak na Netflix Prize
    • Ataki poÅ‚Ä…czeniowe
    • Ataki identyfikacyjne
    • Atak na mapÄ™ Strava
    • Atak wnioskujÄ…cy o czÅ‚onkostwo
    • Wnioskowanie o atrybutach wrażliwych
    • Inne ataki bazujÄ…ce na wycieku z modelu - zapamiÄ™tywanie
    • Ataki polegajÄ…ce na kradzieży modeli
    • Ataki na protokoÅ‚y prywatnoÅ›ci
  • BezpieczeÅ„stwo danych
    • Kontrola dostÄ™pu
    • Zapobieganie utracie danych
    • Dodatkowe kontrole bezpieczeÅ„stwa
    • Modelowanie zagrożeÅ„ i reagowanie na incydenty
  • Probabilistyczne podejÅ›cie do ataków
    • PrzeciÄ™tna osoba atakujÄ…ca
    • Pomiar ryzyka i ocena zagrożeÅ„
  • Åšrodki zaradcze dotyczÄ…ce bezpieczeÅ„stwa danych
    • Stosowanie podstawowych zabezpieczeÅ„ sieci web
    • Ochrona danych treningowych i modeli
    • BÄ…dź na bieżąco - poznawanie nowych ataków
  • Podsumowanie

Rozdział 5. Uczenie maszynowe i nauka o danych uwzględniające prywatność

  • Wykorzystanie technik ochrony prywatnoÅ›ci w uczeniu maszynowym
    • Techniki ochrony prywatnoÅ›ci w typowym przepÅ‚ywie pracy nauki o danych lub uczenia maszynowego
    • Uczenie maszynowe chroniÄ…ce prywatność w Å›rodowisku naturalnym
    • Stochastyczne zejÅ›cie gradientowe z prywatnoÅ›ciÄ… różnicowÄ…
  • Biblioteki open source w uczeniu maszynowym chroniÄ…cym prywatność
    • Tworzenie cech z prywatnoÅ›ciÄ… różnicowÄ…
    • Stosowanie prostszych metod
    • Dokumentowanie uczenia maszynowego
    • Inne sposoby ochrony prywatnoÅ›ci w uczeniu maszynowym
  • UwzglÄ™dnianie prywatnoÅ›ci w projektach zwiÄ…zanych z danymi i uczeniem maszynowym
    • Zrozumienie potrzeb w zakresie ochrony danych
    • Monitorowanie prywatnoÅ›ci
  • Podsumowanie

Rozdział 6. Uczenie federacyjne i nauka o danych

  • Dane rozproszone
    • Dlaczego warto korzystać z danych rozproszonych?
    • Jak dziaÅ‚a rozproszona analiza danych?
    • ZachowujÄ…ce prywatność dane rozproszone z prywatnoÅ›ciÄ… różnicowÄ…
  • Uczenie federacyjne
    • Krótka historia uczenia federacyjnego
    • Dlaczego, kiedy i jak korzystać z uczenia federacyjnego
  • Projektowanie systemów federacyjnych
    • PrzykÅ‚adowa implementacja
    • Zagrożenia dla bezpieczeÅ„stwa
    • Przypadki użycia
    • Wdrażanie bibliotek i narzÄ™dzi federacyjnych
  • Biblioteki federacyjne typu open source
    • Flower - ujednolicony system operacyjny dla bibliotek uczenia federacyjnego
  • PrzyszÅ‚ość federacyjnej nauki o danych
  • Podsumowanie

Rozdział 7. Obliczenia na danych zaszyfrowanych

  • Czym sÄ… obliczenia na danych zaszyfrowanych?
  • Kiedy używać obliczeÅ„ na danych zaszyfrowanych?
    • Prywatność a tajność
    • Modelowanie zagrożeÅ„
  • Rodzaje obliczeÅ„ na danych zaszyfrowanych
    • Bezpieczne obliczenia wielostronne
    • Szyfrowanie homomorficzne
  • Rzeczywiste zastosowania obliczeÅ„ na danych zaszyfrowanych
    • Część wspólna zbiorów prywatnych
    • ProtokóÅ‚ Private Join and Compute
    • Bezpieczna agregacja
    • Uczenie maszynowe na danych zaszyfrowanych
  • Pierwsze kroki z PSI i Moose
  • Åšwiat z bezpiecznym udostÄ™pnianiem danych
  • Podsumowanie

Rozdział 8. Prawna strona prywatności

  • RODO - przeglÄ…d
    • Podstawowe prawa do danych wynikajÄ…ce z RODO
    • Administrator danych a podmiot przetwarzajÄ…cy dane
    • Stosowanie zgodnych z RODO technologii zwiÄ™kszajÄ…cych prywatność
    • Ocena skutków dla ochrony danych w RODO - zwinna i iteracyjna ocena ryzyka
    • Prawo do wyjaÅ›nieÅ„ - interpretowalność i prywatność
  • Kalifornijska ustawa o ochronie prywatnoÅ›ci konsumentów (CCPA)
    • Stosowanie zgodnych z CCPA technologii zwiÄ™kszajÄ…cych prywatność
  • Inne regulacje: HIPAA, LGPD, PIPL.
  • Regulacje wewnÄ™trzne
    • Polityka prywatnoÅ›ci i warunki korzystania z usÅ‚ugi
    • Umowy o przetwarzaniu danych
    • Zapoznawanie siÄ™ z zasadami, wytycznymi i umowami
  • WspóÅ‚praca z prawnikami
    • Przestrzeganie ustaleÅ„ umownych i prawo umów
    • Interpretacja przepisów o ochronie danych
    • ProÅ›ba o pomoc i radÄ™
    • Wspólna praca nad definicjami i pomysÅ‚ami
    • Udzielanie wskazówek technicznych
  • ZarzÄ…dzanie danymi 2.0
    • Czym jest zarzÄ…dzanie federacyjne?
    • Wspieranie kultury eksperymentowania
    • DziaÅ‚ajÄ…ca dokumentacja, platformy z technologiÄ… zwiÄ™kszajÄ…cÄ… prywatność
  • Podsumowanie

Rozdział 9. Rozważania dotyczące prywatności i praktyczności

  • Praktyka - zarzÄ…dzanie ryzykiem zwiÄ…zanym z prywatnoÅ›ciÄ… i bezpieczeÅ„stwem
    • Ocena ryzyka zwiÄ…zanego z prywatnoÅ›ciÄ… i zarzÄ…dzanie nim
    • UwzglÄ™dnianie niepewnoÅ›ci przy planowaniu na przyszÅ‚ość
    • Zabieranie gÅ‚osu i podnoszenie na duchu
  • Technologia prywatnoÅ›ci w praktyce - analiza przypadków użycia
    • Marketing federacyjny - prowadzenie kampanii marketingowych z wbudowanÄ… prywatnoÅ›ciÄ…
    • Partnerstwa publiczno-prywatne - wymiana danych na potrzeby zdrowia publicznego
    • Zanonimizowane uczenie maszynowe - poszukiwanie zgodnoÅ›ci z RODO w iteracyjnych ustawieniach uczenia
    • Aplikacja B2B - bez kontaktu z danymi
  • Krok po kroku - jak zintegrować i zautomatyzować prywatność w uczeniu maszynowym
    • Odkrywanie iteracyjne
    • Dokumentowanie wymagaÅ„ dotyczÄ…cych prywatnoÅ›ci
    • Ocena i Å‚Ä…czenie podejść
    • PrzejÅ›cie na automatyzacjÄ™
    • Prywatność staje siÄ™ normalnoÅ›ciÄ…
  • Perspektywa na przyszÅ‚ość - praca z bibliotekami i zespoÅ‚ami naukowymi
    • WspóÅ‚praca z zewnÄ™trznymi zespoÅ‚ami naukowymi
    • Inwestowanie w badania wewnÄ™trzne
  • Podsumowanie

Rozdział 10. Najczęściej zadawane pytania (i odpowiedzi na nie!)

  • Obliczenia na danych zaszyfrowanych i poufne przetwarzanie danych
    • Czy obliczenia zabezpieczone sÄ… kwantowo bezpieczne?
    • Czy można używać enklaw do rozwiÄ…zywania problemów z prywatnoÅ›ciÄ… danych lub ich poufnoÅ›ciÄ…?
    • Co bÄ™dzie, jeÅ›li muszÄ™ chronić prywatność klienta lub użytkownika, który wysyÅ‚a zapytanie lub żądanie do bazy danych?
    • Czy problem prywatnoÅ›ci mogÄ… rozwiÄ…zać clean rooms lub zdalna analiza i zdalny dostÄ™p do danych?
    • ChcÄ™ zapewnić idealnÄ… prywatność lub idealnÄ… poufność. Czy jest to możliwe?
    • Jak ustalić, czy obliczenia na danych zaszyfrowanych sÄ… wystarczajÄ…co bezpieczne?
    • Jak zarzÄ…dzać rotacjÄ… kluczy w przypadku obliczeÅ„ na danych zaszyfrowanych?
    • Czym jest piaskownica prywatnoÅ›ci Google? Czy wykorzystuje obliczenia na danych zaszyfrowanych?
  • ZarzÄ…dzanie danymi i mechanizmy ochrony
    • Dlaczego k-anonimowość nie jest wystarczajÄ…ca?
    • Nie sÄ…dzÄ™, by prywatność różnicowa dziaÅ‚aÅ‚a w moim przypadku użycia. Co mam zrobić?
    • Czy mogÄ™ używać danych syntetycznych do rozwiÄ…zywania problemów dotyczÄ…cych prywatnoÅ›ci?
    • Jak etycznie wspóÅ‚dzielić dane, czyli jakie sÄ… alternatywy dla sprzedaży danych?
    • Jak mogÄ™ znaleźć wszystkie prywatne informacje, które muszÄ™ chronić?
    • Po usuniÄ™ciu identyfikatorów osobistych dane sÄ… bezpieczne, prawda?
    • Jak wnioskować o danych opublikowanych w przeszÅ‚oÅ›ci?
    • PracujÄ™ nad pulpitem nawigacyjnym lub wizualizacjÄ… analizy biznesowej. Jak sprawić, by byÅ‚y przyjazne dla prywatnoÅ›ci?
    • Kto podejmuje decyzje dotyczÄ…ce inżynierii prywatnoÅ›ci? Jak mam to wprowadzić w swojej organizacji?
    • Jakich umiejÄ™tnoÅ›ci lub jakiego doÅ›wiadczenia potrzebujÄ™, by zostać inżynierem do spraw prywatnoÅ›ci?
    • Dlaczego nie byÅ‚o mowy o (wstaw tutaj technologiÄ™ lub firmÄ™)? Jak mogÄ™ dowiedzieć siÄ™ wiÄ™cej? Pomocy!
  • RODO i inne przepisy o ochronie danych osobowych
    • Czy naprawdÄ™ muszÄ™ używać prywatnoÅ›ci różnicowej do otrzymania danych niepodlegajÄ…cych RODO, CPRA, LGPD itp.?
    • Czy to prawda, że mogÄ™ wykorzystywać dane osobowe podlegajÄ…ce RODO w uzasadnionym interesie?
    • ChcÄ™ zachować zgodność ze Schrems II i transatlantyckimi przepÅ‚ywami danych. Jakie sÄ… możliwe rozwiÄ…zania?
  • Wybory osobiste i prywatność spoÅ‚ecznoÅ›ciowa
    • Jakiego dostawcy poczty e-mail, przeglÄ…darki i aplikacji najlepiej użyć, jeÅ›li zależy mi na mojej prywatnoÅ›ci?
    • Mój znajomy ma automatycznego asystenta domowego lub telefonicznego. Nie chcÄ™, żeby mnie podsÅ‚uchiwaÅ‚. Co mam zrobić?
    • Już dawno zrezygnowaÅ‚em z prywatnoÅ›ci. Nie mam nic do ukrycia. Dlaczego mam to zmienić?
    • Czy mogÄ™ po prostu sprzedać swoje dane firmom?
    • LubiÄ™ spersonalizowane reklamy. Dlaczego nie?
    • Czy (wypeÅ‚nij puste miejsce) mnie podsÅ‚uchuje? Co mam z tym zrobić?
  • Podsumowanie

RozdziaÅ‚ 11. Idź naprzód i projektuj prywatność!

  • Kapitalizm nadzoru i nauka o danych
    • Kapitalizm GIGerów i nadzór w dziaÅ‚aniu
    • Nadzór dla "bezpieczeÅ„stwa"
    • Luksusowy nadzór
  • RozlegÅ‚e zbieranie danych i spoÅ‚eczeÅ„stwo
    • Uczenie maszynowe jako pranie danych
    • Dezinformacja i wprowadzanie w bÅ‚Ä…d
  • Obrona
    • Badanie, dokumentowanie, hakowanie i uczenie siÄ™
    • Kolektywizacja danych
    • Kary nakÅ‚adane w zwiÄ…zku z regulacjami
    • Wsparcie dla spoÅ‚ecznoÅ›ci
  • Czempioni prywatnoÅ›ci
    • Twoje narzÄ™dzie wielofunkcyjne do zapewniania prywatnoÅ›ci
    • Tworzenie wiarygodnych systemów uczenia maszynowego
    • Prywatność w fazie projektowania
    • Prywatność i wÅ‚adza
  • Tschüss

Skorowidz

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2024 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.