reklama - zainteresowany?

Hakowanie sztucznej inteligencji - Helion

Hakowanie sztucznej inteligencji
ebook
Autor: Jerzy Surma
ISBN: 9788301215361
stron: 220, Format: ebook
Data wydania: 2020-11-13
Ksi臋garnia: Helion

Cena ksi膮偶ki: 47,20 z艂 (poprzednio: 58,27 z艂)
Oszcz臋dzasz: 19% (-11,07 z艂)

Dodaj do koszyka Hakowanie sztucznej inteligencji

Tagi: Bezpiecze

Wraz z rozwojem cyfryzacji, w tym m.in. intensywnego rozwoju Internetu Rzeczy, ro

Dodaj do koszyka Hakowanie sztucznej inteligencji

 

Osoby kt贸re kupowa艂y "Hakowanie sztucznej inteligencji", wybiera艂y tak偶e:

  • Certified Information Security Manager Exam Prep Guide
  • Nmap Network Exploration and Security Auditing Cookbook
  • Malware Analysis Techniques
  • Cybersecurity Career Master Plan
  • API Testing and Development with Postman

Dodaj do koszyka Hakowanie sztucznej inteligencji

Spis tre艣ci

Hakowanie sztucznej inteligencji eBook -- spis tre艣ci

  • Ok艂adka
  • Strona tytu艂owa
  • Strona redakcyjna
  • Spis tre艣ci
  • Wst臋p
    • Bibliografia
  • 1. Wst臋p do hakowania system贸w ucz膮cych si臋
    • 1.1. Wprowadzenie
    • 1.2. Systemy ucz膮ce si臋
      • 1.2.1. Definicja i聽rodzaje system贸w ucz膮cych si臋
      • 1.2.2. Zadanie klasyfikacji i聽uczenie nadzorowane
      • 1.2.3. Ocena jako艣ci klasyfikatora
      • 1.2.4. Problemy budowania system贸w ucz膮cych si臋
      • 1.2.5. Potencjalne cele atakuj膮cego
    • 1.3. Taksonomia atak贸w na systemy ucz膮ce si臋
      • 1.3.1. Kryteria jako艣ci ochrony informacji
      • 1.3.2. Atak na integralno艣膰 system贸w nadzorowanych
        • 1.3.2.1. Formalizacja ataku na integralno艣膰
        • 1.3.2.2. Atak na proces budowania systemu
        • 1.3.2.3. Atak na funkcjonuj膮cy system
      • 1.3.3. Atak na integralno艣膰 innych rodzaj贸w system贸w ucz膮cych si臋
    • Bibliografia
  • 2. Przegl膮d reprezentatywnych atak贸w
    • 2.1. Wprowadzenie
    • 2.2. Zagro偶enia dla system贸w uwierzytelniania
    • 2.3. Zagro偶enia w聽systemach autonomicznych
    • 2.4. Zagro偶enia w聽systemach medycznych
    • 2.5. Wnioski ko艅cowe
    • Bibliografia
  • 3. Wymiar biznesowy atak贸w na systemy ucz膮ce si臋
    • 3.1. Wprowadzenie
    • 3.2. Robotyzacja i聽automatyzacja proces贸w biznesowych
      • 3.2.1. Robotyzacja proces贸w
      • 3.2.2. Sztuczna inteligencja w聽robotyzacji proces贸w
    • 3.3. Ryzyko operacyjne w聽procesach biznesowych
      • 3.3.1. Problematyka ryzyka
      • 3.3.2. Zarz膮dzanie ryzykiem
      • 3.3.3. Ryzyko w聽RPA dzia艂aj膮cych z聽wykorzystaniem system贸w ucz膮cych si臋
    • 3.4. Zagro偶enia zwi膮zane z聽wykorzystaniem system贸w ucz膮cych si臋 w聽RPA
      • 3.4.1. Wprowadzenie
      • 3.4.2. Geneza atak贸w na systemy ucz膮ce si臋
      • 3.4.3. Przyk艂ady realnych zagro偶e艅
        • 3.4.3.1. Uwagi wst臋pne
        • 3.4.3.2. Przyk艂ad ataku infekcyjnego
        • 3.4.3.3. Atak na automatyczny systemy w聽transakcji finansowych
        • 3.4.3.4. Ataki na systemy rekomendacyjne
        • 3.4.3.5. Inne zagro偶enia
    • 3.5. Zako艅czenie
    • Bibliografia
  • 4. Studia przypadk贸w
    • 4.1. Atakowanie filtru antyspamowego wykorzystuj膮cego system ucz膮cy si臋
      • 4.1.1. Charakterystyka problemu
        • 4.1.1.1. Wprowadzenie
        • 4.1.1.2. Definicja filtra antyspamowego
        • 4.1.1.3. Problem filtrowania poczty elektronicznej w聽dzia艂alno艣ci biznesowej
        • 4.1.1.4. Przegl膮d bada艅 naukowych
      • 4.1.2. Opis eksperymentu
        • 4.1.2.1. Cel badania
        • 4.1.2.2. Dost臋pne dane empiryczne
        • 4.1.2.3. Problem hakowania system贸w ucz膮cych si臋
      • 4.1.3. Wnioski i聽rekomendacje
    • Bibliografia
    • 4.2. Atak na system detekcji nadu偶y膰 w聽bankowo艣ci elektronicznej
      • 4.2.1. Problem nadu偶y膰 w聽bankowo艣ci elektronicznej
        • 4.2.1.1. Wprowadzenie
        • 4.2.1.2. Definicja nadu偶ycia w聽transakcjach bankowych
        • 4.2.1.3. Wykrywanie nadu偶y膰 i聽przeciwdzia艂anie im
        • 4.2.1.4. Standardowy system wykrywania i聽przeciwdzia艂ania nadu偶yciom
      • 4.2.2. Opis eksperymentu
        • 4.2.2.1. Cel badania
        • 4.2.2.2. Dost臋pne dane empiryczne
        • 4.2.2.3. Generatywne sieci wsp贸艂zawodnicz膮ce (GANs)
        • 4.2.2.4. Scenariusze przebiegu ataku
      • 4.2.3. Modele generatora i聽dyskryminatora
        • 4.2.3.1. Budowa modeli
        • 4.2.3.2. Ewaluacja modeli
      • 4.2.4. Wnioski ko艅cowe i聽rekomendacje
    • Bibliografia
  • 5. Bezpiecze艅stwo aplikacji system贸w ucz膮cych si臋
    • 5.1. Wprowadzenie
    • 5.2. Wybrane problemy niezawodno艣ci oprogramowania
      • 5.2.1. Problem z艂o偶ono艣ci kodu
      • 5.2.2. Przepe艂nienie bufora oraz odczyt poza nim
      • 5.2.3. Dost臋p po zwolnieniu pami臋ci
      • 5.2.4. Niew艂a艣ciwa deserializacja i聽wstrzykiwanie danych
    • 5.3. Ataki na 艣rodowiska programistyczne i聽sprz臋t dla system贸w ucz膮cych si臋
      • 5.3.1. Atak na platform臋 programistyczn膮
      • 5.3.2. Atak na sprz臋t na przyk艂adzie Deep Hammer
    • 5.4. Ataki na biblioteki z聽wykorzystaniem automatycznych metod testowania oprogramowania
      • 5.4.1. Wprowadzenie
      • 5.4.2. Atak na bibliotek臋 OpenCV
      • 5.4.3. Atak na bibliotek臋 dlib
      • 5.4.4. Podsumowanie podatno艣ci znalezionych za pomoc膮 automatycznych metod testowania oprogramowania
    • 5.5. Wnioski i聽kierunki dalszego dzia艂ania
    • Bibliografia
  • Zako艅czenie
    • Bibliografia
  • O Autorach
  • Przypisy

Dodaj do koszyka Hakowanie sztucznej inteligencji

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2024 CATALIST agencja interaktywna, znaki firmowe nale偶膮 do wydawnictwa Helion S.A.