reklama - zainteresowany?

Ataki na AI, - Helion

Ataki na AI,
ebook
Autor: John Sotiropoulos
Tytuł oryginału: Adversarial AI Attacks, Mitigations, and Defense Strategies: A cybersecurity professional's guide to AI attacks, threat modeling, and securing AI with MLSecOps
Tłumaczenie: Zbigniew Wa
ISBN: 978-83-289-2236-5
stron: 600, Format: ebook
Data wydania: 2025-07-01
Księgarnia: Helion

Cena książki: 64,50 zł (poprzednio: 129,00 zł)
Oszczędzasz: 50% (-64,50 zł)

Dodaj do koszyka Ataki na AI,

Tagi: Bezpiecze

Wraz z rozwojem rewolucyjnych mo

Dodaj do koszyka Ataki na AI,

 

Osoby które kupowały "Ataki na AI, ", wybierały także:

  • Hakowanie internetu rzeczy w praktyce. Przewodnik po skutecznych metodach atakowania IoT
  • OSINT w praktyce. Jak gromadzi
  • Efektywne zarz
  • Zabbix 7.0. Efektywny monitoring infrastruktury IT dla ka
  • Bezpiecze

Dodaj do koszyka Ataki na AI,

Spis treści

Ataki na AI, środki neutralizujące i strategie obronne. Przewodnik dla specjalistów ds. cyberbezpieczeństwa po atakach adwersarialnych, modelowaniu zagrożeń i wprowadzaniu zabezpieczeń zgodnych ze strategią MLSecOps eBook -- spis treści

O autorze

O recenzentach

Zastrzeżenie

Wstęp

Część 1. Wprowadzenie do adwersarialnej sztucznej inteligencji

  • Rozdział 1. Wprowadzenie do sztucznej inteligencji
    • Podstawy sztucznej inteligencji i uczenia maszynowego
    • Rodzaje uczenia maszynowego i jego cykl życia
    • Kluczowe algorytmy uczenia maszynowego
    • Sieci neuronowe i uczenie głębokie
    • Narzędzia deweloperskie do programowania uczenia maszynowego
    • Podsumowanie
    • Dodatkowe publikacje
  • Rozdział 2. Przygotowanie adwersarialnego laboratorium
    • Wymagania techniczne
    • Konfiguracja środowiska programistycznego
      • Instalacja Pythona
      • Tworzenie wirtualnego środowiska
      • Instalowanie pakietów
      • Powiązanie środowiska wirtualnego z notatnikami Jupytera
      • Weryfikowanie instalacji
    • Praktyczne podstawy uczenia maszynowego
      • Proste sieci neuronowe
    • Tworzenie docelowej usługi AI z użyciem sieci CNN
      • Konfiguracja i gromadzenie danych
      • Eksploracja danych
      • Wstępne przetwarzanie danych
      • Wybór algorytmu i tworzenie modelu
      • Trenowanie modelu
      • Ewaluacja modelu
      • Wdrażanie modelu
      • Usługa wnioskowania
    • Tworzenie rozwiązań ML na dużą skalę
      • Google Colab
      • AWS SageMaker
      • Usługi Azure Machine Learning
      • Lambda Labs Cloud
    • Podsumowanie
  • Rozdział 3. Bezpieczeństwo a adwersarialna sztuczna inteligencja
    • Wymagania techniczne
    • Podstawy bezpieczeństwa
      • Modelowanie zagrożeń
      • Ryzyka i środki zaradcze
      • DevSecOps
    • Zabezpieczenie naszego adwersarialnego laboratorium
      • Bezpieczeństwo hosta
      • Ochrona sieci
      • Uwierzytelnianie
      • Ochrona danych
      • Kontrola dostępu
    • Zabezpieczanie kodu i artefaktów
      • Bezpieczeństwo kodu
      • Zabezpieczanie zależności przez wyszukiwanie podatności
      • Skanowanie sekretów
      • Zabezpieczanie notatników Jupytera
      • Zabezpieczanie modeli przed złośliwym kodem
      • Integracja z potokami DevSecOps i MLOps
    • Omijanie zabezpieczeń za pomocą adwersarialnej sztucznej inteligencji
      • Nasz pierwszy adwersarialny atak
      • Tradycyjne cyberbezpieczeństwo a adwersarialna sztuczna inteligencja
      • Adwersarialna sztuczna inteligencja
    • Podsumowanie

Część 2. Atakowanie modeli ML

  • Rozdział 4. Ataki zatruwające
    • Podstawy ataków zatruwających
      • Definicja i przykłady
      • Rodzaje ataków zatruwających
      • Przykłady ataków zatruwających
      • Dlaczego to takie ważne?
    • Przygotowanie prostego ataku zatruwającego
      • Tworzenie zatrutych próbek
    • Ataki zatruwające typu backdoor
      • Tworzenie wyzwalaczy backdoorowych za pomocą narzędzi ART
      • Zatruwanie danych z użyciem frameworku ART
    • Ataki backdoorowe z ukrytym wyzwalaczem
    • Ataki typu clean-label
    • Zaawansowane ataki zatruwające
    • Zapobieganie i obrona
      • Obrona cyfrowych twierdz przy użyciu MLOps
      • Wykrywanie anomalii
      • Testy odporności na zatruwanie
      • Zaawansowana ochrona przed zatruciem realizowana z użyciem narzędzi ART
      • Trening adwersarialny
      • Budowanie strategii obronnej
    • Podsumowanie
  • Rozdział 5. Manipulowanie modelami za pomocą koni trojańskich i przeprogramowywania
    • Wstrzykiwanie backdoorów za pomocą serializacji pickle'owej
      • Przebieg ataku
      • Obrona i środki zaradcze
    • Wstrzykiwanie koni trojańskich za pomocą kerasowych warstw lambda
      • Przebieg ataku
      • Obrona i środki zaradcze
    • Warstwy niestandardowe z końmi trojańskimi
      • Przebieg ataku
      • Obrona i środki zaradcze
    • Wstrzykiwanie ładunku neuronowego
      • Przebieg ataku
      • Obrona i środki zaradcze
    • Atakowanie brzegowej sztucznej inteligencji
      • Aplikacja mobilna ImRecS na Androida
      • Przebieg ataku
      • Obrona i środki zaradcze
    • Przejmowanie kontroli nad modelem
      • Wprowadzenie kodu konia trojańskiego
      • Przeprogramowanie modelu
    • Podsumowanie
  • Rozdział 6. Ataki na łańcuch dostaw a adwersarialna sztuczna inteligencja
    • Tradycyjne zagrożenia dla łańcucha dostaw a sztuczna inteligencja
      • Zagrożenia związane z przestarzałymi i podatnymi na atak komponentami
      • Ryzyka wynikające z zależności AI od danych pobieranych na żywo
      • Zabezpieczanie AI przed podatnymi na atak komponentami
      • Zaawansowane zabezpieczenia - akceptowanie jedynie zatwierdzonych pakietów
      • Konfiguracja klienta do obsługi prywatnych repozytoriów PyPI
      • Dodatkowe zabezpieczenia prywatnego repozytorium PyPI
      • Korzystanie ze specyfikacji SBOM
    • Ryzyka związane z łańcuchem dostaw w kontekście AI
      • Uczenie transferowe jako broń obosieczna
      • Zatruwanie modelu
      • Manipulowanie modelami
      • Sprawdzanie pochodzenia wstępnie wytrenowanych modeli i nadzorowanie ich
      • MLOps a prywatne repozytoria modeli
    • Zatruwanie danych
      • Ryzyka związane z łańcuchem dostaw
      • Zatruwanie danych, aby wpłynąć na wyniki analizy sentymentu
      • Obrona i środki zaradcze
    • Specyfikacje komponentów oprogramowania (SBOM) dla AI/ML
    • Podsumowanie

Część 3. Ataki na implementacje AI

  • Rozdział 7. Ataki unikowe na implementacje AI
    • Podstawy ataków unikowych
      • Znaczenie znajomości ataków unikowych
      • Techniki rozpoznawcze w atakach unikowych
    • Perturbacje i techniki ataków unikowych w kontekście obrazów
      • Scenariusze ataków unikowych
      • Jednoetapowa perturbacja z użyciem metody FGSM
      • Podstawowa metoda iteracyjna (BIM)
      • Atak z mapą istotności wyznaczonej metodą Jacobiego (JSMA)
      • Atak Carliniego i Wagnera (C&W)
      • Rzutowanie gradientu (PGD)
      • Łatki adwersarialne - łączenie cyfrowych i fizycznych technik unikania
    • Ataki unikowe w dziedzinie NLP - atak na model BERT z użyciem biblioteki TextAttack
      • Scenariusz ataku - analiza sentymentu
      • Przykład ataku
      • Scenariusz ataku - wnioskowanie w języku naturalnym
      • Przykład ataku
    • Uniwersalne perturbacje adwersarialne (UAP)
      • Scenariusz ataku
      • Przykład ataku
    • Ataki czarnoskrzynkowe oraz ich transferowalność
      • Scenariusz ataku
      • Przykład ataku
    • Obrona przed atakami unikowymi
      • Przegląd strategii obronnych
      • Trening adwersarialny
      • Wstępne przetwarzanie danych wejściowych
      • Techniki wzmacniania modelu
      • Zespoły modeli
      • Certyfikowane mechanizmy obronne
    • Podsumowanie
  • Rozdział 8. Ataki na prywatność - kradzież modeli
    • Charakterystyka ataków na prywatność
    • Wykradanie modeli podczas ataków ekstrakcyjnych
      • Ekstrakcja równoważna funkcjonalnie
      • Ataki ekstrakcyjne oparte na uczeniu
      • Generatywne ataki ekstrakcyjne typu uczeń-nauczyciel (ataki destylacyjne)
      • Przykładowy atak na model CIFAR-10 CNN
    • Obrona i środki zaradcze
      • Środki prewencyjne
      • Mechanizmy wykrywające
      • Ustalanie stanu własności modelu oraz jej odzyskiwanie
    • Podsumowanie
  • Rozdział 9. Ataki na prywatność - kradzież danych
    • Istota ataków polegających na inwersji modelu
    • Typy ataków inwersyjnych
      • Wykorzystanie poziomów pewności modelu
      • Inwersja modelu wspomagana sieciami GAN
    • Przykład ataku inwersyjnego
    • Istota ataków wnioskowania
    • Ataki wnioskowania o atrybutach
      • Metaklasyfikatory
      • Wnioskowanie wspomagane zatruciem
    • Przykład ataku wnioskowania o atrybutach
    • Ataki wnioskowania o przynależności
      • Statystyczne wartości progowe wycieku danych z modeli ML
      • Atak transferu wiedzy z wykorzystaniem samych etykiet
      • Ślepe ataki wnioskowania o przynależności
      • Ataki białoskrzynkowe
      • Przykładowy atak wnioskowania o przynależności z użyciem narzędzi ART
    • Podsumowanie
  • Rozdział 10. Zachowanie prywatności w rozwiązaniach AI
    • Zachowanie prywatności w rozwiązaniach ML i AI
    • Prosta anonimizacja danych
    • Zaawansowana anonimizacja
      • K-anonimowość
      • Anonimizacja a dane geolokalizacyjne
      • Anonimizacja formatów multimedialnych
    • Prywatność różnicowa
    • Uczenie federacyjne
    • Uczenie dzielone
    • Zaawansowane opcje szyfrowania wspomagające ochronę prywatności w uczeniu maszynowym
      • Bezpieczne obliczenia wielostronne
      • Szyfrowanie homomorficzne
    • Praktyczne zastosowanie zaawansowanych technik szyfrowania w rozwiązaniach ML
    • Stosowanie technik zapewniania prywatności w uczeniu maszynowym
    • Podsumowanie
  • Rozdział 11. Generatywna sztuczna inteligencja - nowy front walki
    • Krótkie wprowadzenie do generatywnej sztucznej inteligencji
      • Krótka historia rozwoju generatywnej sztucznej inteligencji
      • Technologie generatywnej sztucznej inteligencji
    • Stosowanie generatywnych sieci adwersarialnych
      • Tworzenie sieci GAN od podstaw
      • Sieci WGAN i niestandardowe funkcje strat
    • Korzystanie ze wstępnie wytrenowanych modeli GAN
      • Pix2Pix
      • CycleGAN
      • Pix2PixHD
      • PGGAN
      • BigGAN
      • StarGAN v2
      • Seria StyleGAN
    • Podsumowanie
  • Rozdział 12. Wykorzystywanie sieci GAN do deepfake'ów i ataków adwersarialnych
    • Wykorzystanie GAN-ów do tworzenia deepfake'ów oraz ich wykrywania
      • Generowanie przekonujących fałszywych zdjęć za pomocą modeli StyleGAN
      • Wykorzystanie sieci GAN do tworzenia prostych deepfake'ów na podstawie istniejących zdjęć
      • Wprowadzanie ukierunkowanych zmian w istniejącym obrazie
      • Syntezowanie obrazów za pomocą modelu Pix2PixHD
      • Sfałszowane filmy i animacje
      • Inne techniki tworzenia deepfake'ów
      • Deepfaki dźwiękowe
      • Wykrywanie deepfake'ów
    • Zastosowanie GAN-ów w cyberatakach i bezpieczeństwie ofensywnym
      • Omijanie systemów weryfikacji twarzy
      • Oszukiwanie biometrycznych mechanizmów uwierzytelniających
      • Łamanie haseł z użyciem GAN-ów
      • Omijanie mechanizmów detekcji złośliwego oprogramowania
      • GAN-y w kryptografii i steganografii
      • Generowanie ładunków dla ataków sieciowych z użyciem GAN-ów
      • Generowanie ładunków dla ataków adwersarialnych
    • Mechanizmy obronne i środki zaradcze
      • Zabezpieczanie sieci GAN
      • Ataki adwersarialne wspomagane sieciami GAN
      • Deepfaki, złośliwe treści i szerzenie dezinformacji
    • Podsumowanie
  • Rozdział 13. Podstawy LLM w kontekście adwersarialnej sztucznej inteligencji
    • Krótkie wprowadzenie do dużych modeli językowych
    • Tworzenie aplikacji AI z użyciem dużych modeli językowych
    • "Hello LLM" w Pythonie
    • "Hello LLM" w LangChainie
    • Wprowadzanie własnych danych
    • Wpływ dużych modeli językowych na adwersarialną sztuczną inteligencję
    • Podsumowanie
  • Rozdział 14. Ataki adwersarialne z użyciem promptów
    • Adwersarialne dane wejściowe i wstrzykiwanie promptów
    • Bezpośrednie wstrzykiwanie promptów
      • Zastępowanie promptów
      • Wstrzykiwanie stylu
      • Odgrywanie ról
      • Podszywanie się
      • Inne techniki jailbreakingowe
    • Zautomatyzowane wstrzykiwanie promptów z użyciem technik gradientowych
    • Ryzyko związane z wprowadzaniem własnych danych
    • Pośrednie wstrzykiwanie promptów
    • Wydobywanie danych za pomocą wstrzykiwania promptów
    • Eskalacja uprawnień za pomocą wstrzykiwania promptów
    • Zdalne wykonywanie kodu przez wstrzykiwanie promptów
    • Mechanizmy obronne i środki zaradcze
      • Mechanizmy obronne platformy LLM
      • Mechanizmy obronne na poziomie aplikacji
    • Podsumowanie
  • Rozdział 15. Ataki zatruwające a modele LLM
    • Zatruwanie osadzeń w mechanizmie RAG
      • Scenariusze ataku
      • Zatruwanie podczas generowania osadzeń
      • Bezpośrednie zatruwanie osadzeń
      • Zaawansowane zatruwanie osadzeń
      • Manipulowanie osadzeniami zapytań
      • Mechanizmy obronne i środki zaradcze
    • Ataki zatruwające proces dostrajania modeli LLM
      • Wprowadzenie do dostrajania modeli LLM
      • Scenariusze ataków zatruwających podczas dostrajania
      • Wektory ataku na proces dostrajania
      • Zatrucie bota ChatGPT-3.5 przez dostrajanie
      • Mechanizmy obronne i środki zaradcze chroniące przed zatruwaniem procesu dostrajania
    • Podsumowanie
  • Rozdział 16. Zaawansowane scenariusze z wykorzystaniem generatywnej sztucznej inteligencji
    • Ataki na łańcuch dostaw w kontekście LLM-ów
      • Publikowanie zatrutego LLM-u w serwisie Hugging Face
      • Publikowanie zmanipulowanego modelu LLM w serwisie Hugging Face
      • Inne zagrożenia związane z łańcuchem dostaw w kontekście modeli LLM
      • Mechanizmy obronne i środki zaradcze w kontekście łańcucha dostaw
    • Ataki na prywatność w kontekście modeli LLM
    • Ataki polegające na inwersji modelu i ekstrakcji danych treningowych w kontekście modeli LLM
    • Ataki wnioskowania na modele LLM
    • Klonowanie jednego modelu LLM przy użyciu drugiego
    • Mechanizmy obronne i środki zaradcze w kontekście ataków na prywatność
    • Podsumowanie
  • Rozdział 17. Koncepcje Secure by Design i Trustworthy AI
    • Secure by Design - zabezpieczanie AI już na etapie projektowania
    • Budowanie biblioteki zagrożeń
      • Tradycyjne cyberzagrożenia
      • Ataki adwersarialne
      • Ataki adwersarialne specyficzne dla generatywnej AI
      • Ataki na łańcuch dostaw
    • Branżowe klasyfikacje zagrożeń dla AI
    • Porównania klasyfikacji zagrożeń dla AI
      • Porównanie z klasyfikacją NIST AI
      • Porównanie z klasyfikacją AI Exchange
      • Porównanie z klasyfikacją MITRE ATLAS
    • Modelowanie zagrożeń dla AI
    • Modelowanie zagrożeń w praktyce
      • Przykładowe rozwiązanie AI
    • Model zagrożeń dla systemu Enhanced FoodieAI
    • Ocena zagrożeń i ich priorytetyzacja
      • Ocena ryzyka dla aplikacji Enhanced FoodieAI
    • Projektowanie i implementowanie zabezpieczeń
    • Testowanie i weryfikacja
    • Przesuwanie w lewo i osadzanie zabezpieczeń w cyklu życia AI
    • Eksploatacja systemu
    • Więcej niż bezpieczeństwo - Trustworthy AI
    • Podsumowanie
  • Rozdział 18. Zabezpieczanie AI przy użyciu strategii MLSecOps
    • Konieczność wdrożenia praktyk MLSecOps
    • Na drodze do frameworku MLSecOps 2.0
      • Opcje orkiestracji MLSecOps
      • Wzorce MLSecOps
    • Budowanie podstawowej platformy MLSecOps
    • MLSecOps w praktyce
      • Pozyskiwanie i walidacja modelu
    • Integracja MLSecOps z LLMOps
    • Zaawansowane praktyki MLSecOps z użyciem SBOM-ów
    • Podsumowanie
  • Rozdział 19. Wzmacnianie bezpieczeństwa AI
    • Wyzwania związane z bezpieczeństwem AI w przedsiębiorstwie
    • Podstawy bezpieczeństwa sztucznej inteligencji w przedsiębiorstwie
    • Ochrona sztucznej inteligencji przy użyciu zabezpieczeń korporacyjnych
    • Bezpieczeństwo operacyjne AI
    • Iteracyjne wzmacnianie bezpieczeństwa w przedsiębiorstwie
    • Podsumowanie

Skorowidz

Dodaj do koszyka Ataki na AI,

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2025 CATALIST agencja interaktywna, znaki firmowe należą do wydawnictwa Helion S.A.