Dodano produkt do koszyka

Promocja

HAKOWANIE SZTUCZNEJ INTELIGENCJI

HAKOWANIE SZTUCZNEJ INTELIGENCJI

red.nauk.JERZY SURMA

Wydawnictwo: PWN

Cena: 59.90 zł 50.32 brutto

Koszty dostawy:
  • Paczkomaty InPost 14.99 zł brutto
  • Poczta Polska - odbiór w punkcie 9.99 zł brutto
  • Poczta Polska - przedpłata 15.99 zł brutto
  • Poczta Polska - pobranie 19.99 zł brutto
  • Kurier DHL - przedpłata 18.99 zł brutto
  • Kurier DHL - pobranie 21.99 zł brutto
  • Odbiór osobisty - UWAGA - uprzejmie prosimy poczekać na informację z księgarni o możliwości odbioru zamówienia - 0.00 zł brutto

Opis

Opis produktu
ISBN: 978-83-01-21428-9
 
159 stron
format: B5
oprawa: miękka
Rok wydania: 2020
 

Wraz z rozwojem cyfryzacji, w tym m.in. intensywnego rozwoju Internetu Rzeczy, rośnie znaczenie automatyzacji procesów biznesowych oraz użycia inteligentnych systemów wspomagania decyzji z wykorzystaniem metod sztucznej inteligencji i technik zaawansowanej analizy danych. Ten bezsprzecznie ważny trend rozwojowy implikuje istotne zagrożenia i ryzyka.
W książce autorzy opisują zjawiska celowej ingerencji na proces budowania i stosowania modeli sztucznej inteligencji opartych o maszynowe uczenie się, tak aby zakłócić ich działanie, czy też doprowadzić do zaprzestania ich funkcjonowania. Te realne zagrożenia mogą mieć olbrzymi wpływ na zdrowie ludzkie, funkcjonowanie przedsiębiorstw i gospodarki, a nawet bezpieczeństwo narodowe.
Publikacja jest interesująca zarówno dla studentów i pracowników naukowcy szczególnie, że dotyczy nowego obszaru badawczego Adversarial Machine Learning. Będzie to też praktyczne źródło wiedzy dla wszystkich, którzy zajmują się wdrażaniem metod sztucznej inteligencji, zarządzaniem procesami wykorzystującymi metody analizy danych, czy też odpowiedzialnych za cyberbezpieczeństwo.
Fascynacja ludzka nowymi rozwiązaniami z dziedziny sztucznej inteligencji wychodzi powoli z okresu euforycznego zachłyśnięcia się nowinkami technicznymi. Ludzie coraz częściej zastanawiają się, jakie mogą być minusy stosowania nowych rozwiązań opartych na SI. Pojawia się ryzyko związane ze świadomymi atakami na tego rodzaju systemy (...). Celem, jaki postawili przed sobą autorzy publikacji, jest holistyczne ujęcie problematyki hakowania systemów uczących się, stanowiących obecnie podstawowy rodzaj zastosowań, w jakim wykorzystuje się rozwiązania oparte na tzw. ograniczonej sztucznej inteligencji. Pojęcie hakowania autorzy rozumieją bardzo szeroko: nie tylko jako włamywanie się do gotowych, działających już systemów, ale również jako świadomą szkodliwą ingerencję w systemy podczas całego ich cyklu życia, czyli również podczas ich budowy i strojenia. Książka jest adresowana z jednej strony do środowiska naukowego zajmującego się problematyką cyberbezpieczeństwa, a z drugiej do praktyków - zarówno do osób konstruujących systemy uczące się, jak i odpowiedzialnych w firmach za ryzyko operacyjne i ciągłość działania.
dr hab. Andrzej Kobyliński, prof. SGH

SPIS TREŚCI

Wstęp
Bibliografia

1. Wstęp do hakowania systemów uczących się
1.1. Wprowadzenie
1.2. Systemy uczące się
1.2.1. Definicja i rodzaje systemów uczących się
1.2.2. Zadanie klasyfikacji i uczenie nadzorowane
1.2.3. Ocena jakości klasyfikatora
1.2.4. Problemy budowania systemów uczących się
1.2.5. Potencjalne cele atakującego
1.3. Taksonomia ataków na systemy uczące się
1.3.1. Kryteria jakości ochrony informacji
1.3.2. Atak na integralność systemów nadzorowanych
1.3.2.1. Formalizacja ataku na integralność
1.3.2.2. Atak na proces budowania systemu
1.3.2.3. Atak na funkcjonujący system
1.3.3. Atak na integralność innych rodzajów systemów uczących się
Bibliografia

2. Przegląd reprezentatywnych ataków
2.1. Wprowadzenie
2.2. Zagrożenia dla systemów uwierzytelniania
2.3. Zagrożenia w systemach autonomicznych
2.4. Zagrożenia w systemach medycznych
2.5. Wnioski końcowe
Bibliografia

3. Wymiar biznesowy ataków na systemy uczące się
3.1. Wprowadzenie
3.2. Robotyzacja i automatyzacja procesów biznesowych
3.2.1. Robotyzacja procesów
3.2.2. Sztuczna inteligencja w robotyzacji procesów
3.3. Ryzyko operacyjne w procesach biznesowych
3.3.1. Problematyka ryzyka
3.3.2. Zarządzanie ryzykiem
3.3.3. Ryzyko w RPA działających z wykorzystaniem systemów uczących się
3.4. Zagrożenia związane z wykorzystaniem systemów uczących się w RPA
3.4.1. Wprowadzenie
3.4.2. Geneza ataków na systemy uczące się
3.4.3. Przykłady realnych zagrożeń
3.4.3.1. Uwagi wstępne
3.4.3.2. Przykład ataku infekcyjnego
3.4.3.3. Atak na automatyczny systemy w transakcji finansowych
3.4.3.4. Ataki na systemy rekomendacyjne
3.4.3.5. Inne zagrożenia
3.5. Zakończenie
Bibliografia

4. Studia przypadków
4.1. Atakowanie filtru antyspamowego wykorzystującego system uczący się
4.1.1. Charakterystyka problemu
4.1.1.1. Wprowadzenie
4.1.1.2. Definicja filtra antyspamowego
4.1.1.3. Problem filtrowania poczty elektronicznej w działalności
biznesowej
4.1.1.4. Przegląd badań naukowych
4.1.2. Opis eksperymentu
4.1.2.1. Cel badania
4.1.2.2. Dostępne dane empiryczne
4.1.2.3. Problem hakowania systemów uczących się
4.1.3. Wnioski i rekomendacje
Bibliografia
4.2. Atak na system detekcji nadużyć w bankowości elektronicznej
4.2.1. Problem nadużyć w bankowości elektronicznej
4.2.1.1. Wprowadzenie
4.2.1.2. Definicja nadużycia w transakcjach bankowych
4.2.1.3. Wykrywanie nadużyć i przeciwdziałanie im
4.2.1.4. Standardowy system wykrywania i przeciwdziałania nadużyciom
4.2.2. Opis eksperymentu
4.2.2.1. Cel badania
4.2.2.2. Dostępne dane empiryczne
4.2.2.3. Generatywne sieci współzawodniczące (GANs)
4.2.2.4. Scenariusze przebiegu ataku
4.2.3. Modele generatora i dyskryminatora
4.2.3.1. Budowa modeli
4.2.3.2. Ewaluacja modeli
4.2.4. Wnioski końcowe i rekomendacje
Bibliografia

5. Bezpieczeństwo aplikacji systemów uczących się
5.1. Wprowadzenie
5.2. Wybrane problemy niezawodności oprogramowania
5.2.1. Problem złożoności kodu
5.2.2. Przepełnienie bufora oraz odczyt poza nim
5.2.3. Dostęp po zwolnieniu pamięci
5.2.4. Niewłaściwa deserializacja i wstrzykiwanie danych
5.3. Ataki na środowiska programistyczne i sprzęt dla systemów uczących się
5.3.1. Atak na platformę programistyczną
5.3.2. Atak na sprzęt na przykładzie Deep Hammer
5.4. Ataki na biblioteki z wykorzystaniem automatycznych metod testowania
oprogramowania
5.4.1. Wprowadzenie
5.4.2. Atak na bibliotekę OpenO/
5.4.3. Atak na bibliotekę dlib
5.4.4. Podsumowanie podatności znalezionych za pomocą automatycznych
metod testowania oprogramowania
5.5. Wnioski i kierunki dalszego działania
Bibliografia

Zakończenie

Bibliografia

Kod wydawnictwa: 978-83-01-21428-9

Opinie, recenzje, testy:

Ten produkt nie ma jeszcze opinii

Twoja opinia

aby wystawić opinię.

Ocena:
  • Wszystkie pola są wymagane
Zapytaj o produkt

Produkty powiązane

Kontakt

Księgarnia Ekonomiczna Kazimierz Leki Sp. z o.o.

ul. Grójecka 67

02-094 Warszawa

NIP: 7010414095

Tel. 22 822 90 41

www.24naukowa.com.pl

naukowa@ksiegarnia-ekonomiczna.com.pl