Ataki na AI, - Helion

ebook
Autor: John SotiropoulosTytuł oryginału: Adversarial AI Attacks, Mitigations, and Defense Strategies: A cybersecurity professional's guide to AI attacks, threat modeling, and securing AI with MLSecOps
Tłumaczenie: Zbigniew Wa
ISBN: 978-83-289-2236-5
stron: 600, Format: ebook
Data wydania: 2025-07-01
Księgarnia: Helion
Cena książki: 64,50 zł (poprzednio: 129,00 zł)
Oszczędzasz: 50% (-64,50 zł)
Tagi: Bezpiecze
Osoby które kupowały "Ataki na AI, ", wybierały także:
- Hakowanie internetu rzeczy w praktyce. Przewodnik po skutecznych metodach atakowania IoT 98,89 zł, (44,50 zł -55%)
- OSINT w praktyce. Jak gromadzi 67,00 zł, (33,50 zł -50%)
- Efektywne zarz 58,98 zł, (29,49 zł -50%)
- Zabbix 7.0. Efektywny monitoring infrastruktury IT dla ka 69,00 zł, (34,50 zł -50%)
- Bezpiecze 149,00 zł, (74,50 zł -50%)
Spis treści
Ataki na AI, środki neutralizujące i strategie obronne. Przewodnik dla specjalistów ds. cyberbezpieczeństwa po atakach adwersarialnych, modelowaniu zagrożeń i wprowadzaniu zabezpieczeń zgodnych ze strategią MLSecOps eBook -- spis treści
O autorze
O recenzentach
Zastrzeżenie
Wstęp
Część 1. Wprowadzenie do adwersarialnej sztucznej inteligencji
- Rozdział 1. Wprowadzenie do sztucznej inteligencji
- Podstawy sztucznej inteligencji i uczenia maszynowego
- Rodzaje uczenia maszynowego i jego cykl życia
- Kluczowe algorytmy uczenia maszynowego
- Sieci neuronowe i uczenie głębokie
- Narzędzia deweloperskie do programowania uczenia maszynowego
- Podsumowanie
- Dodatkowe publikacje
- Rozdział 2. Przygotowanie adwersarialnego laboratorium
- Wymagania techniczne
- Konfiguracja środowiska programistycznego
- Instalacja Pythona
- Tworzenie wirtualnego środowiska
- Instalowanie pakietów
- Powiązanie środowiska wirtualnego z notatnikami Jupytera
- Weryfikowanie instalacji
- Praktyczne podstawy uczenia maszynowego
- Proste sieci neuronowe
- Tworzenie docelowej usługi AI z użyciem sieci CNN
- Konfiguracja i gromadzenie danych
- Eksploracja danych
- Wstępne przetwarzanie danych
- Wybór algorytmu i tworzenie modelu
- Trenowanie modelu
- Ewaluacja modelu
- Wdrażanie modelu
- Usługa wnioskowania
- Tworzenie rozwiązań ML na dużą skalę
- Google Colab
- AWS SageMaker
- Usługi Azure Machine Learning
- Lambda Labs Cloud
- Podsumowanie
- Rozdział 3. Bezpieczeństwo a adwersarialna sztuczna inteligencja
- Wymagania techniczne
- Podstawy bezpieczeństwa
- Modelowanie zagrożeń
- Ryzyka i środki zaradcze
- DevSecOps
- Zabezpieczenie naszego adwersarialnego laboratorium
- Bezpieczeństwo hosta
- Ochrona sieci
- Uwierzytelnianie
- Ochrona danych
- Kontrola dostępu
- Zabezpieczanie kodu i artefaktów
- Bezpieczeństwo kodu
- Zabezpieczanie zależności przez wyszukiwanie podatności
- Skanowanie sekretów
- Zabezpieczanie notatników Jupytera
- Zabezpieczanie modeli przed złośliwym kodem
- Integracja z potokami DevSecOps i MLOps
- Omijanie zabezpieczeń za pomocą adwersarialnej sztucznej inteligencji
- Nasz pierwszy adwersarialny atak
- Tradycyjne cyberbezpieczeństwo a adwersarialna sztuczna inteligencja
- Adwersarialna sztuczna inteligencja
- Podsumowanie
Część 2. Atakowanie modeli ML
- Rozdział 4. Ataki zatruwające
- Podstawy ataków zatruwających
- Definicja i przykłady
- Rodzaje ataków zatruwających
- Przykłady ataków zatruwających
- Dlaczego to takie ważne?
- Przygotowanie prostego ataku zatruwającego
- Tworzenie zatrutych próbek
- Ataki zatruwające typu backdoor
- Tworzenie wyzwalaczy backdoorowych za pomocą narzędzi ART
- Zatruwanie danych z użyciem frameworku ART
- Ataki backdoorowe z ukrytym wyzwalaczem
- Ataki typu clean-label
- Zaawansowane ataki zatruwające
- Zapobieganie i obrona
- Obrona cyfrowych twierdz przy użyciu MLOps
- Wykrywanie anomalii
- Testy odporności na zatruwanie
- Zaawansowana ochrona przed zatruciem realizowana z użyciem narzędzi ART
- Trening adwersarialny
- Budowanie strategii obronnej
- Podsumowanie
- Podstawy ataków zatruwających
- Rozdział 5. Manipulowanie modelami za pomocą koni trojańskich i przeprogramowywania
- Wstrzykiwanie backdoorów za pomocą serializacji pickle'owej
- Przebieg ataku
- Obrona i środki zaradcze
- Wstrzykiwanie koni trojańskich za pomocą kerasowych warstw lambda
- Przebieg ataku
- Obrona i środki zaradcze
- Warstwy niestandardowe z końmi trojańskimi
- Przebieg ataku
- Obrona i środki zaradcze
- Wstrzykiwanie ładunku neuronowego
- Przebieg ataku
- Obrona i środki zaradcze
- Atakowanie brzegowej sztucznej inteligencji
- Aplikacja mobilna ImRecS na Androida
- Przebieg ataku
- Obrona i środki zaradcze
- Przejmowanie kontroli nad modelem
- Wprowadzenie kodu konia trojańskiego
- Przeprogramowanie modelu
- Podsumowanie
- Wstrzykiwanie backdoorów za pomocą serializacji pickle'owej
- Rozdział 6. Ataki na łańcuch dostaw a adwersarialna sztuczna inteligencja
- Tradycyjne zagrożenia dla łańcucha dostaw a sztuczna inteligencja
- Zagrożenia związane z przestarzałymi i podatnymi na atak komponentami
- Ryzyka wynikające z zależności AI od danych pobieranych na żywo
- Zabezpieczanie AI przed podatnymi na atak komponentami
- Zaawansowane zabezpieczenia - akceptowanie jedynie zatwierdzonych pakietów
- Konfiguracja klienta do obsługi prywatnych repozytoriów PyPI
- Dodatkowe zabezpieczenia prywatnego repozytorium PyPI
- Korzystanie ze specyfikacji SBOM
- Ryzyka związane z łańcuchem dostaw w kontekście AI
- Uczenie transferowe jako broń obosieczna
- Zatruwanie modelu
- Manipulowanie modelami
- Sprawdzanie pochodzenia wstępnie wytrenowanych modeli i nadzorowanie ich
- MLOps a prywatne repozytoria modeli
- Zatruwanie danych
- Ryzyka związane z łańcuchem dostaw
- Zatruwanie danych, aby wpłynąć na wyniki analizy sentymentu
- Obrona i środki zaradcze
- Specyfikacje komponentów oprogramowania (SBOM) dla AI/ML
- Podsumowanie
- Tradycyjne zagrożenia dla łańcucha dostaw a sztuczna inteligencja
Część 3. Ataki na implementacje AI
- Rozdział 7. Ataki unikowe na implementacje AI
- Podstawy ataków unikowych
- Znaczenie znajomości ataków unikowych
- Techniki rozpoznawcze w atakach unikowych
- Perturbacje i techniki ataków unikowych w kontekście obrazów
- Scenariusze ataków unikowych
- Jednoetapowa perturbacja z użyciem metody FGSM
- Podstawowa metoda iteracyjna (BIM)
- Atak z mapą istotności wyznaczonej metodą Jacobiego (JSMA)
- Atak Carliniego i Wagnera (C&W)
- Rzutowanie gradientu (PGD)
- Łatki adwersarialne - łączenie cyfrowych i fizycznych technik unikania
- Ataki unikowe w dziedzinie NLP - atak na model BERT z użyciem biblioteki TextAttack
- Scenariusz ataku - analiza sentymentu
- Przykład ataku
- Scenariusz ataku - wnioskowanie w języku naturalnym
- Przykład ataku
- Uniwersalne perturbacje adwersarialne (UAP)
- Scenariusz ataku
- Przykład ataku
- Ataki czarnoskrzynkowe oraz ich transferowalność
- Scenariusz ataku
- Przykład ataku
- Obrona przed atakami unikowymi
- Przegląd strategii obronnych
- Trening adwersarialny
- Wstępne przetwarzanie danych wejściowych
- Techniki wzmacniania modelu
- Zespoły modeli
- Certyfikowane mechanizmy obronne
- Podsumowanie
- Podstawy ataków unikowych
- Rozdział 8. Ataki na prywatność - kradzież modeli
- Charakterystyka ataków na prywatność
- Wykradanie modeli podczas ataków ekstrakcyjnych
- Ekstrakcja równoważna funkcjonalnie
- Ataki ekstrakcyjne oparte na uczeniu
- Generatywne ataki ekstrakcyjne typu uczeń-nauczyciel (ataki destylacyjne)
- Przykładowy atak na model CIFAR-10 CNN
- Obrona i środki zaradcze
- Środki prewencyjne
- Mechanizmy wykrywające
- Ustalanie stanu własności modelu oraz jej odzyskiwanie
- Podsumowanie
- Rozdział 9. Ataki na prywatność - kradzież danych
- Istota ataków polegających na inwersji modelu
- Typy ataków inwersyjnych
- Wykorzystanie poziomów pewności modelu
- Inwersja modelu wspomagana sieciami GAN
- Przykład ataku inwersyjnego
- Istota ataków wnioskowania
- Ataki wnioskowania o atrybutach
- Metaklasyfikatory
- Wnioskowanie wspomagane zatruciem
- Przykład ataku wnioskowania o atrybutach
- Ataki wnioskowania o przynależności
- Statystyczne wartości progowe wycieku danych z modeli ML
- Atak transferu wiedzy z wykorzystaniem samych etykiet
- Ślepe ataki wnioskowania o przynależności
- Ataki białoskrzynkowe
- Przykładowy atak wnioskowania o przynależności z użyciem narzędzi ART
- Podsumowanie
- Rozdział 10. Zachowanie prywatności w rozwiązaniach AI
- Zachowanie prywatności w rozwiązaniach ML i AI
- Prosta anonimizacja danych
- Zaawansowana anonimizacja
- K-anonimowość
- Anonimizacja a dane geolokalizacyjne
- Anonimizacja formatów multimedialnych
- Prywatność różnicowa
- Uczenie federacyjne
- Uczenie dzielone
- Zaawansowane opcje szyfrowania wspomagające ochronę prywatności w uczeniu maszynowym
- Bezpieczne obliczenia wielostronne
- Szyfrowanie homomorficzne
- Praktyczne zastosowanie zaawansowanych technik szyfrowania w rozwiązaniach ML
- Stosowanie technik zapewniania prywatności w uczeniu maszynowym
- Podsumowanie
- Rozdział 11. Generatywna sztuczna inteligencja - nowy front walki
- Krótkie wprowadzenie do generatywnej sztucznej inteligencji
- Krótka historia rozwoju generatywnej sztucznej inteligencji
- Technologie generatywnej sztucznej inteligencji
- Stosowanie generatywnych sieci adwersarialnych
- Tworzenie sieci GAN od podstaw
- Sieci WGAN i niestandardowe funkcje strat
- Korzystanie ze wstępnie wytrenowanych modeli GAN
- Pix2Pix
- CycleGAN
- Pix2PixHD
- PGGAN
- BigGAN
- StarGAN v2
- Seria StyleGAN
- Podsumowanie
- Krótkie wprowadzenie do generatywnej sztucznej inteligencji
- Rozdział 12. Wykorzystywanie sieci GAN do deepfake'ów i ataków adwersarialnych
- Wykorzystanie GAN-ów do tworzenia deepfake'ów oraz ich wykrywania
- Generowanie przekonujących fałszywych zdjęć za pomocą modeli StyleGAN
- Wykorzystanie sieci GAN do tworzenia prostych deepfake'ów na podstawie istniejących zdjęć
- Wprowadzanie ukierunkowanych zmian w istniejącym obrazie
- Syntezowanie obrazów za pomocą modelu Pix2PixHD
- Sfałszowane filmy i animacje
- Inne techniki tworzenia deepfake'ów
- Deepfaki dźwiękowe
- Wykrywanie deepfake'ów
- Zastosowanie GAN-ów w cyberatakach i bezpieczeństwie ofensywnym
- Omijanie systemów weryfikacji twarzy
- Oszukiwanie biometrycznych mechanizmów uwierzytelniających
- Łamanie haseł z użyciem GAN-ów
- Omijanie mechanizmów detekcji złośliwego oprogramowania
- GAN-y w kryptografii i steganografii
- Generowanie ładunków dla ataków sieciowych z użyciem GAN-ów
- Generowanie ładunków dla ataków adwersarialnych
- Mechanizmy obronne i środki zaradcze
- Zabezpieczanie sieci GAN
- Ataki adwersarialne wspomagane sieciami GAN
- Deepfaki, złośliwe treści i szerzenie dezinformacji
- Podsumowanie
- Wykorzystanie GAN-ów do tworzenia deepfake'ów oraz ich wykrywania
- Rozdział 13. Podstawy LLM w kontekście adwersarialnej sztucznej inteligencji
- Krótkie wprowadzenie do dużych modeli językowych
- Tworzenie aplikacji AI z użyciem dużych modeli językowych
- "Hello LLM" w Pythonie
- "Hello LLM" w LangChainie
- Wprowadzanie własnych danych
- Wpływ dużych modeli językowych na adwersarialną sztuczną inteligencję
- Podsumowanie
- Rozdział 14. Ataki adwersarialne z użyciem promptów
- Adwersarialne dane wejściowe i wstrzykiwanie promptów
- Bezpośrednie wstrzykiwanie promptów
- Zastępowanie promptów
- Wstrzykiwanie stylu
- Odgrywanie ról
- Podszywanie się
- Inne techniki jailbreakingowe
- Zautomatyzowane wstrzykiwanie promptów z użyciem technik gradientowych
- Ryzyko związane z wprowadzaniem własnych danych
- Pośrednie wstrzykiwanie promptów
- Wydobywanie danych za pomocą wstrzykiwania promptów
- Eskalacja uprawnień za pomocą wstrzykiwania promptów
- Zdalne wykonywanie kodu przez wstrzykiwanie promptów
- Mechanizmy obronne i środki zaradcze
- Mechanizmy obronne platformy LLM
- Mechanizmy obronne na poziomie aplikacji
- Podsumowanie
- Rozdział 15. Ataki zatruwające a modele LLM
- Zatruwanie osadzeń w mechanizmie RAG
- Scenariusze ataku
- Zatruwanie podczas generowania osadzeń
- Bezpośrednie zatruwanie osadzeń
- Zaawansowane zatruwanie osadzeń
- Manipulowanie osadzeniami zapytań
- Mechanizmy obronne i środki zaradcze
- Ataki zatruwające proces dostrajania modeli LLM
- Wprowadzenie do dostrajania modeli LLM
- Scenariusze ataków zatruwających podczas dostrajania
- Wektory ataku na proces dostrajania
- Zatrucie bota ChatGPT-3.5 przez dostrajanie
- Mechanizmy obronne i środki zaradcze chroniące przed zatruwaniem procesu dostrajania
- Podsumowanie
- Zatruwanie osadzeń w mechanizmie RAG
- Rozdział 16. Zaawansowane scenariusze z wykorzystaniem generatywnej sztucznej inteligencji
- Ataki na łańcuch dostaw w kontekście LLM-ów
- Publikowanie zatrutego LLM-u w serwisie Hugging Face
- Publikowanie zmanipulowanego modelu LLM w serwisie Hugging Face
- Inne zagrożenia związane z łańcuchem dostaw w kontekście modeli LLM
- Mechanizmy obronne i środki zaradcze w kontekście łańcucha dostaw
- Ataki na prywatność w kontekście modeli LLM
- Ataki polegające na inwersji modelu i ekstrakcji danych treningowych w kontekście modeli LLM
- Ataki wnioskowania na modele LLM
- Klonowanie jednego modelu LLM przy użyciu drugiego
- Mechanizmy obronne i środki zaradcze w kontekście ataków na prywatność
- Podsumowanie
- Ataki na łańcuch dostaw w kontekście LLM-ów
- Rozdział 17. Koncepcje Secure by Design i Trustworthy AI
- Secure by Design - zabezpieczanie AI już na etapie projektowania
- Budowanie biblioteki zagrożeń
- Tradycyjne cyberzagrożenia
- Ataki adwersarialne
- Ataki adwersarialne specyficzne dla generatywnej AI
- Ataki na łańcuch dostaw
- Branżowe klasyfikacje zagrożeń dla AI
- Porównania klasyfikacji zagrożeń dla AI
- Porównanie z klasyfikacją NIST AI
- Porównanie z klasyfikacją AI Exchange
- Porównanie z klasyfikacją MITRE ATLAS
- Modelowanie zagrożeń dla AI
- Modelowanie zagrożeń w praktyce
- Przykładowe rozwiązanie AI
- Model zagrożeń dla systemu Enhanced FoodieAI
- Ocena zagrożeń i ich priorytetyzacja
- Ocena ryzyka dla aplikacji Enhanced FoodieAI
- Projektowanie i implementowanie zabezpieczeń
- Testowanie i weryfikacja
- Przesuwanie w lewo i osadzanie zabezpieczeń w cyklu życia AI
- Eksploatacja systemu
- Więcej niż bezpieczeństwo - Trustworthy AI
- Podsumowanie
- Rozdział 18. Zabezpieczanie AI przy użyciu strategii MLSecOps
- Konieczność wdrożenia praktyk MLSecOps
- Na drodze do frameworku MLSecOps 2.0
- Opcje orkiestracji MLSecOps
- Wzorce MLSecOps
- Budowanie podstawowej platformy MLSecOps
- MLSecOps w praktyce
- Pozyskiwanie i walidacja modelu
- Integracja MLSecOps z LLMOps
- Zaawansowane praktyki MLSecOps z użyciem SBOM-ów
- Podsumowanie
- Rozdział 19. Wzmacnianie bezpieczeństwa AI
- Wyzwania związane z bezpieczeństwem AI w przedsiębiorstwie
- Podstawy bezpieczeństwa sztucznej inteligencji w przedsiębiorstwie
- Ochrona sztucznej inteligencji przy użyciu zabezpieczeń korporacyjnych
- Bezpieczeństwo operacyjne AI
- Iteracyjne wzmacnianie bezpieczeństwa w przedsiębiorstwie
- Podsumowanie
Skorowidz