reklama - zainteresowany?

Hakowanie sztucznej inteligencji - Helion

Hakowanie sztucznej inteligencji
ebook
Autor: Jerzy Surma
ISBN: 9788301215361
stron: 220, Format: ebook
Data wydania: 2020-11-13
Ksi臋garnia: Helion

Cena ksi膮偶ki: 47,20 z艂 (poprzednio: 58,27 z艂)
Oszcz臋dzasz: 19% (-11,07 z艂)

Dodaj do koszyka Hakowanie sztucznej inteligencji

Tagi: Bezpiecze

Wraz z rozwojem cyfryzacji, w tym m.in. intensywnego rozwoju Internetu Rzeczy, ro

Dodaj do koszyka Hakowanie sztucznej inteligencji

 

Osoby kt贸re kupowa艂y "Hakowanie sztucznej inteligencji", wybiera艂y tak偶e:

  • Wireshark. Kurs video. Zaawansowana analiza danych i ruchu sieciowego z wykrywaniem w
  • Wireshark. Kurs video. Analiza ruchu sieciowego i wykrywanie w
  • Informatyka
  • Prometheus. Kurs video. Monitorowanie system
  • Cybersecurity dla ka

Dodaj do koszyka Hakowanie sztucznej inteligencji

Spis tre艣ci

Hakowanie sztucznej inteligencji eBook -- spis tre艣ci

Wst臋p 9 Bibliografia 12 1. Wst臋p do hakowania system贸w ucz膮cych si臋 15 1.1. Wprowadzenie 16 1.2. Systemy ucz膮ce si臋 17 1.2.1. Definicja i rodzaje system贸w ucz膮cych si臋 17 1.2.2. Zadanie klasyfikacji i uczenie nadzorowane 18 1.2.3. Ocena jako艣ci klasyfikatora 19 1.2.4. Problemy budowania system贸w ucz膮cych si臋 21 1.2.5. Potencjalne cele atakuj膮cego 22 1.3. Taksonomia atak贸w na systemy ucz膮ce si臋 23 1.3.1. K ryteria jako艣ci ochrony informacji 23 1.3.2. Atak na integralno艣膰 system贸w nadzorowanych 25 1.3.2.1. Formalizacja ataku na integralno艣膰 25 1.3.2.2. Atak na proces budowania systemu 26 1.3.2.3. Atak na funkcjonuj膮cy system 27 1.3.3. Atak na integralno艣膰 innych rodzaj贸w system贸w ucz膮cych si臋 29 Bibliografia 30 2. Przegl膮d reprezentatywnych atak贸w 33 2.1. Wprowadzenie 34 2.2. Zagro偶enia dla system贸w uwierzytelniania 35 2.3. Zagro偶enia w systemach autonomicznych 40 2.4. Zagro偶enia w systemach medycznych 45 2.5. Wnioski ko艅cowe 49 Bibliografia 50 3. Wymiar biznesowy atak贸w na systemy ucz膮ce si臋 53 3.1. Wprowadzenie 54 3.2. Robotyzacja i automatyzacja proces贸w biznesowych 55 3.2.1. Robotyzacja proces贸w 55 3.2.2 Sztuczna inteligencja w robotyzacji proces贸w 57 3.3. Ryzyko operacyjne w procesach biznesowych 59 3.3.1. Problematyka ryzyka 60 3.3.2. Z arz膮dzanie ryzykiem 60 3.3.3. Ryzyko w RPA dzia艂aj膮cych z wykorzystaniem system贸w ucz膮cych si臋 62 3.4. Zagro偶enia zwi膮zane z wykorzystaniem system贸w ucz膮cych si臋 w RPA 63 3.4.1. Wprowadzenie 63 3.4.2. Geneza atak贸w na systemy ucz膮ce si臋 65 3.4.3. Przyk艂ady realnych zagro偶e艅 67 3.4.3.1. U wagi wst臋pne 67 3.4.3.2. Przyk艂ad ataku infekcyjnego 68 3.4.3.3. Atak na automatyczny systemy w transakcji finansowych 69 3.4.3.4. Ataki na systemy rekomendacyjne 71 3.4.3.5. In ne zagro偶enia 72 3.5. Zako艅czenie 74 Bibliografia 74 4. Studia przypadk贸w 79 4.1. Atakowanie filt ru antyspamowego wykorzystuj膮cego system ucz膮cy si臋 80 4.1.1. Charakterystyka problemu 80 4.1.1.1. Wprowadzenie 80 4.1.1.2. D efinicja filtra antyspamowego 81 4.1.1.3. Problem filtrowania poczty elektronicznej w dzia艂alno艣ci biznesowej 84 4.1.1.4. Przegl膮d bada艅 naukowych 85 4.1.2. Opis eksperymentu 88 4.1.2.1. Cel badania 88 4.1.2.2. D ost臋pne dane empiryczne 89 4.1.2.3. Problem hakowania system贸w ucz膮cych si臋 91 4.1.3. Wnioski i rekomendacje 105 Bibliografia 107 4.2. Atak na system detekcji nadu偶y膰 w bankowo艣ci elektronicznej 110 4.2.1. P roblem nadu偶y膰 w bankowo艣ci elektronicznej 110 4.2.1.1. Wprowadzenie 110 4.2.1.2. D efinicja nadu偶ycia w transakcjach bankowych 111 4.2.1.3. Wykrywanie nadu偶y膰 i przeciwdzia艂anie im 112 4.2.1.4. Standardowy system wykrywania i przeciwdzia艂ania nadu偶yciom 113 4.2.2. Opis eksperymentu 115 4.2.2.1. Cel badania 115 4.2.2.2. Dost臋pne dane empiryczne 117 4.2.2.3. Generatywne sieci wsp贸艂zawodnicz膮ce (GANs) 118 4.2.2.4. Scenariusze przebiegu ataku 122 4.2.3. Modele generatora i dyskryminatora 125 4.2.3.1. Budowa modeli 125 4.2.3.2. Ewaluacja modeli 129 4.2.4. Wnioski ko 艅cowe i rekomendacje 132 Bibliografia 133 5. Bezpiecze艅stwo aplikacji system贸w ucz膮cych si臋 137 5.1. Wprowadzenie 138 5.2. Wybrane problemy niezawodno艣ci oprogramowania 139 5.2.1. Problem z艂o偶ono艣ci kodu 139 5.2.2. Przepe艂nienie bufora oraz odczyt poza nim 141 5.2.3. D ost臋p po zwolnieniu pami臋ci 142 5.2.4. Niew艂a艣ciwa deserializacja i wstrzykiwanie danych 142 5.3. At aki na 艣rodowiska programistyczne i sprz臋t dla system贸w ucz膮cych si臋 143 5.3.1. Atak na platform臋 programistyczn膮 143 5.3.2. Atak na sprz臋t na przyk艂adzie Deep Hammer 145 5.4. Ataki na biblioteki z wykorzystaniem automatycznych metod testowania oprogramowania 146 5.4.1. Wprowadzenie 146 5.4.2. Atak na bibliotek臋 OpenCV 147 5.4.3. Atak na bibliotek臋 dlib 150 5.4.4. Podsumowanie podatno艣ci znalezionych za pomoc膮 automatycznych metod testowania oprogramowania 152 5.5. Wnioski i kierunki dalszego dzia艂ania 153 Bibliografia 154 Zako艅czenie 157 Bibliografia

Dodaj do koszyka Hakowanie sztucznej inteligencji

Code, Publish & WebDesing by CATALIST.com.pl



(c) 2005-2025 CATALIST agencja interaktywna, znaki firmowe nale偶膮 do wydawnictwa Helion S.A.