Hakowanie sztucznej inteligencji - Helion
ebook
Autor: Jerzy SurmaISBN: 9788301215361
stron: 220, Format: ebook
Data wydania: 2020-11-13
Ksi臋garnia: Helion
Cena ksi膮偶ki: 47,20 z艂 (poprzednio: 58,27 z艂)
Oszcz臋dzasz: 19% (-11,07 z艂)
Tagi: Bezpiecze
Osoby kt贸re kupowa艂y "Hakowanie sztucznej inteligencji", wybiera艂y tak偶e:
- Certified Information Security Manager Exam Prep Guide 230,00 z艂, (29,90 z艂 -87%)
- Nmap Network Exploration and Security Auditing Cookbook 157,37 z艂, (29,90 z艂 -81%)
- Malware Analysis Techniques 157,37 z艂, (29,90 z艂 -81%)
- Cybersecurity Career Master Plan 142,38 z艂, (29,90 z艂 -79%)
- API Testing and Development with Postman 142,38 z艂, (29,90 z艂 -79%)
Spis tre艣ci
Hakowanie sztucznej inteligencji eBook -- spis tre艣ci
- Ok艂adka
- Strona tytu艂owa
- Strona redakcyjna
- Spis tre艣ci
- Wst臋p
- Bibliografia
- 1. Wst臋p do hakowania system贸w ucz膮cych si臋
- 1.1. Wprowadzenie
- 1.2. Systemy ucz膮ce si臋
- 1.2.1. Definicja i聽rodzaje system贸w ucz膮cych si臋
- 1.2.2. Zadanie klasyfikacji i聽uczenie nadzorowane
- 1.2.3. Ocena jako艣ci klasyfikatora
- 1.2.4. Problemy budowania system贸w ucz膮cych si臋
- 1.2.5. Potencjalne cele atakuj膮cego
- 1.3. Taksonomia atak贸w na systemy ucz膮ce si臋
- 1.3.1. Kryteria jako艣ci ochrony informacji
- 1.3.2. Atak na integralno艣膰 system贸w nadzorowanych
- 1.3.2.1. Formalizacja ataku na integralno艣膰
- 1.3.2.2. Atak na proces budowania systemu
- 1.3.2.3. Atak na funkcjonuj膮cy system
- 1.3.3. Atak na integralno艣膰 innych rodzaj贸w system贸w ucz膮cych si臋
- Bibliografia
- 2. Przegl膮d reprezentatywnych atak贸w
- 2.1. Wprowadzenie
- 2.2. Zagro偶enia dla system贸w uwierzytelniania
- 2.3. Zagro偶enia w聽systemach autonomicznych
- 2.4. Zagro偶enia w聽systemach medycznych
- 2.5. Wnioski ko艅cowe
- Bibliografia
- 3. Wymiar biznesowy atak贸w na systemy ucz膮ce si臋
- 3.1. Wprowadzenie
- 3.2. Robotyzacja i聽automatyzacja proces贸w biznesowych
- 3.2.1. Robotyzacja proces贸w
- 3.2.2. Sztuczna inteligencja w聽robotyzacji proces贸w
- 3.3. Ryzyko operacyjne w聽procesach biznesowych
- 3.3.1. Problematyka ryzyka
- 3.3.2. Zarz膮dzanie ryzykiem
- 3.3.3. Ryzyko w聽RPA dzia艂aj膮cych z聽wykorzystaniem system贸w ucz膮cych si臋
- 3.4. Zagro偶enia zwi膮zane z聽wykorzystaniem system贸w ucz膮cych si臋 w聽RPA
- 3.4.1. Wprowadzenie
- 3.4.2. Geneza atak贸w na systemy ucz膮ce si臋
- 3.4.3. Przyk艂ady realnych zagro偶e艅
- 3.4.3.1. Uwagi wst臋pne
- 3.4.3.2. Przyk艂ad ataku infekcyjnego
- 3.4.3.3. Atak na automatyczny systemy w聽transakcji finansowych
- 3.4.3.4. Ataki na systemy rekomendacyjne
- 3.4.3.5. Inne zagro偶enia
- 3.5. Zako艅czenie
- Bibliografia
- 4. Studia przypadk贸w
- 4.1. Atakowanie filtru antyspamowego wykorzystuj膮cego system ucz膮cy si臋
- 4.1.1. Charakterystyka problemu
- 4.1.1.1. Wprowadzenie
- 4.1.1.2. Definicja filtra antyspamowego
- 4.1.1.3. Problem filtrowania poczty elektronicznej w聽dzia艂alno艣ci biznesowej
- 4.1.1.4. Przegl膮d bada艅 naukowych
- 4.1.2. Opis eksperymentu
- 4.1.2.1. Cel badania
- 4.1.2.2. Dost臋pne dane empiryczne
- 4.1.2.3. Problem hakowania system贸w ucz膮cych si臋
- 4.1.3. Wnioski i聽rekomendacje
- 4.1.1. Charakterystyka problemu
- Bibliografia
- 4.2. Atak na system detekcji nadu偶y膰 w聽bankowo艣ci elektronicznej
- 4.2.1. Problem nadu偶y膰 w聽bankowo艣ci elektronicznej
- 4.2.1.1. Wprowadzenie
- 4.2.1.2. Definicja nadu偶ycia w聽transakcjach bankowych
- 4.2.1.3. Wykrywanie nadu偶y膰 i聽przeciwdzia艂anie im
- 4.2.1.4. Standardowy system wykrywania i聽przeciwdzia艂ania nadu偶yciom
- 4.2.2. Opis eksperymentu
- 4.2.2.1. Cel badania
- 4.2.2.2. Dost臋pne dane empiryczne
- 4.2.2.3. Generatywne sieci wsp贸艂zawodnicz膮ce (GANs)
- 4.2.2.4. Scenariusze przebiegu ataku
- 4.2.3. Modele generatora i聽dyskryminatora
- 4.2.3.1. Budowa modeli
- 4.2.3.2. Ewaluacja modeli
- 4.2.4. Wnioski ko艅cowe i聽rekomendacje
- 4.2.1. Problem nadu偶y膰 w聽bankowo艣ci elektronicznej
- Bibliografia
- 4.1. Atakowanie filtru antyspamowego wykorzystuj膮cego system ucz膮cy si臋
- 5. Bezpiecze艅stwo aplikacji system贸w ucz膮cych si臋
- 5.1. Wprowadzenie
- 5.2. Wybrane problemy niezawodno艣ci oprogramowania
- 5.2.1. Problem z艂o偶ono艣ci kodu
- 5.2.2. Przepe艂nienie bufora oraz odczyt poza nim
- 5.2.3. Dost臋p po zwolnieniu pami臋ci
- 5.2.4. Niew艂a艣ciwa deserializacja i聽wstrzykiwanie danych
- 5.3. Ataki na 艣rodowiska programistyczne i聽sprz臋t dla system贸w ucz膮cych si臋
- 5.3.1. Atak na platform臋 programistyczn膮
- 5.3.2. Atak na sprz臋t na przyk艂adzie Deep Hammer
- 5.4. Ataki na biblioteki z聽wykorzystaniem automatycznych metod testowania oprogramowania
- 5.4.1. Wprowadzenie
- 5.4.2. Atak na bibliotek臋 OpenCV
- 5.4.3. Atak na bibliotek臋 dlib
- 5.4.4. Podsumowanie podatno艣ci znalezionych za pomoc膮 automatycznych metod testowania oprogramowania
- 5.5. Wnioski i聽kierunki dalszego dzia艂ania
- Bibliografia
- Zako艅czenie
- Bibliografia
- O Autorach
- Przypisy