Dodano produkt do koszyka

Promocja

SIECI NEURONOWE DO PRZETWARZANIA INFORMACJI wyd.4

SIECI NEURONOWE DO PRZETWARZANIA INFORMACJI wyd.4

STANISŁAW OSOWSKI

Wydawnictwo: POLITECHNIKA WARSZAWSKA

Cena: 58.90 zł 53.01 brutto

Koszty dostawy:
  • Paczkomaty InPost 14.99 zł brutto
  • Poczta Polska - odbiór w punkcie 9.99 zł brutto
  • Poczta Polska - przedpłata 15.99 zł brutto
  • Poczta Polska - pobranie 19.99 zł brutto
  • Kurier DHL - przedpłata 18.99 zł brutto
  • Kurier DHL - pobranie 21.99 zł brutto
  • Odbiór osobisty - UWAGA - uprzejmie prosimy poczekać na informację z księgarni o możliwości odbioru zamówienia - 0.00 zł brutto

Opis

Opis produktu

ISBN: 978-83-7814-923-1

490 stron
format: B5
oprawa: miękka
Rok wydania: 2020

Podręcznik "Sieci neuronowe do przetwarzania informacji" stanowi oryginalne ujęcie najnowszych osiągnięć w dziedzinie sztucznych sieci neuronowych oraz ich zastosowań. Jest rozszerzoną i znacznie zmodyfikowaną wersją wcześniejszego wydania podręcznika pod tym samym tytułem. W stosunku do poprzedniego wydania zawiera dodatkowo omówienie sieci typu Support Vector Machine (SVM), znacznie rozbudowaną część dotyczącą sieci rozmytych oraz przedstawienie wielu nowych zastosowań. W pracy przedstawiono najważniejsze rodzaje sieci neuronowych, kładąc nacisk na algorytmy uczące oraz ich praktyczne zastosowania w przetwarzaniu danych pomiarowych. Stanowi wyselekcjonowany przegląd i omówienie najważniejszych metod uczenia sieci o różnej strukturze, zilustrowany wynikami wielu eksperymentów numerycznych i poparty zastosowaniami praktycznymi. Podręcznik jest przeznaczony dla słuchaczy wyższych lat studiów oraz doktorantów zainteresowanych tematyką sztucznej inteligencji. Ze względu na interdyscyplinarny charakter tematyki może być wykorzystany zarówno w naukach technicznych, informatyce, fizyce, jak i naukach biomedycznych. Wprowadzając zarówno podstawowe, jak i zaawansowane pojęcia sieci neuronowych książka może być użyteczna zarówno dla początkujących, jak i zaawansowanych w uprawianiu tej dyscypliny.

SPIS TREŚCI

Przedmowa 1. Wstęp1.1. Podstawy biologiczne działania neuronu 1.2. Pierwsze modele sieci neuronowej 1.3. Przegląd zastosowań sieci neuronowych 2. Modele neuronów i metody ich uczenia 2.1. Perceptron 2.2. Neuron sigmoidalny 2.3. Neuron radialny 2.4. Neuron typu adaline 2.5. Instar i outstar Grossberga 2.6. Neurony typu WTA 2.7. Model neuronu Hebba 2.8. Model stochastyczny neuronu 2.9. Zadania i problemy 3. Sieci jednokierunkowe wielowarstwowe typu sigmoidalnego3.1. Sieć jednowarstwowa 3.2. Sieć wielowarstwowa perceptronowa 3.2.1. Struktura sieci perceptronowej 3.2.2. Algorytm propagacji wstecznej 3.3. Grafy przepływowe w zastosowaniu do generacji gradientu 3.4. Algorytmy gradientowe uczenia sieci 3.4.1. Zależności podstawowe 3.4.2. Algorytm największego spadku 3.4.3. Algorytm zmiennej metryki 3.4.4. Algorytm Levenberga-Marquardta 3.4.5. Algorytm gradientów sprzężonych 3.5. Dobór współczynnika uczenia 3.6. Metody heurystyczne uczenia sieci 3.6.1. Algorytm Quickprop 3.6.2. Algorytm RPROP 3.7. Program komputerowy MLP do uczenia sieci perceptronowej 3.8. Porównanie efektywności algorytmów uczących 3.9. Elementy optymalizacji globalnej 3.9.1. Algorytm symulowanego wyżarzania 3.9.2. Elementy algorytmów genetycznych 3.10. Metody inicjalizacji wag 3.11. Zadania i problemy 4. Problemy praktycznego wykorzystania sieci neuronowych 4.1. Zdolności generalizacyjne sieci neuronowych 4.1.1. Zależności podstawowe 4.1.2. Miara VCdim 4.1.3. Zależności między błędem generalizacji i miarą VCdim4.1.4. Przegląd metod zwiększania zdolności generalizacyjnych sieci neuronowej 4.2. Wstępny dobór architektury sieci 4.3. Dobór optymalnej architektury sieci pod względem generalizacji4.3.1. Metody wrażliwościowe redukcji sieci 4.3.2. Metody redukcji sieci z zastosowaniem funkcji kary 4.4. Wtrącanie szumu do próbek uczących 4.5. Zwiększanie zdolności generalizacyjnych przez użycie wielu sieci 4.6. Przykłady zastosowań sieci perceptronowej 4.6.1. Rozpoznawanie i klasyfikacja wzorców binarnych 4.6.2. Rozpoznawanie wzorców na podstawie obrysu zewnętrznego 4.6.3. Sieć neuronowa do kompresji danych 4.6.4. Identyfikacja obiektów dynamicznych 4.6.5. Predykcja obciążeń systemu elektroenergetycznego 4.7. Zadania i problemy 5. Sieci neuronowe radialne 5.1. Podstawy matematyczne 5.2. Sieć neuronowa radialna 5.3. Metody uczenia sieci neuronowych radialnych 5.3.1. Proces samoorganizacji w zastosowaniu do adaptacji parametrów funkcjiradialnych 5.3.2. Algorytm probabilistyczny doboru parametrów funkcji radialnych 5.3.3. Algorytm hybrydowy uczenia sieci radialnych5.3.4. Algorytmy uczące oparte na propagacji wstecznej 5.4. Metody doboru liczby funkcji bazowych5.4.1. Metody heurystyczne 5.4.2. Metoda ortogonalizacji Grama-Schmidta 5.5. Program komputerowy uczenia sieci radialnych5.6. Przykład zastosowania sieci radialnej w aproksymacji 5.7. Porównanie sieci radialnych z sieciami sigmoidalnymi 5.8. Zadania i problemy 6. Sieci SVM 6.1. Sieć liniowa SVM w zadaniu klasyfikacji6.2. Sieć nieliniowa SVM w zadaniu klasyfikacji 6.3. Interpretacja mnożników Lagrange‘-a w rozwiązaniu sieci6.4. Problem klasyfikacji przy wielu klasach 6.5. Sieci SVM do zadań regresji 6.6. Przegląd algorytmów rozwiązania zadania dualnego6.7. Program komputerowy uczenia sieci SVM6.8. Przykłady zastosowania sieci SVM 6.8.1. Problem klasyfikacyjny dwu spiral6.8.2. Rozpoznawanie tekstur 6.8.3. Wykrywanie uszkodzeń elementów w obwodzie filtru elektrycznego 6.9. Porównanie sieci SVM z innymi rozwiązaniami neuronowymi 6.10. Zadania i problemy 7. Specjalizowane struktury sieci neuronowych 7.1. Sieć kaskadowej korelacji Fahlmana 7.2. Sieć Volterry 7.2.1. Struktura i zależności uczące sieci 7.2.2. Przykłady zastosowań sieci Volterry 7.3. Zadania i problemy 8. Sieci rekurencyjne jako pamięci asocjacyjne 8.1. Wprowadzenie 8.2. Sieć autoasocjacyjna Hopfielda 8.2.1. Zależności podstawowe 8.2.2. Tryb uczenia sieci Hopfielda 8.2.3. Tryb odtworzeniowy sieci Hopfielda 8.2.4. Program Hop win 8.3. Sieć Hamminga 8.3.1. Struktura sieci i algorytm doboru wag 8.3.2. Działanie sieci Hamminga 8.3.3. Program Shamming uczenia sieci 8.4. Sieć typu BAM 8.4.1. Opis działania sieci 8.4.2. Zmodyfikowany algorytm uczący sieci BAM 8.4.3. Zmodyfikowana struktura sieci BAM 8.5. Zadania i problemy 9. Sieci rekurencyjne tworzone na bazie perceptronu 9.1. Wprowadzenie 9.2. Sieć perceptronowa ze sprzężeniem zwrotnym 9.2.1. Struktura sieci RMLP9.2.2. Algorytm uczenia sieci RMLP 9.2.3. Dobór współczynnika uczenia 9.2.4. Współczynnik wzmocnienia sygnału 9.2.5. Wyniki symulacji komputerowych 9.3. Sieć rekurencyjna Elmana 9.3.1. Struktura sieci 9.3.2. Algorytm uczenia sieci Elmana 9.3.3. Uczenie z wykorzystaniem momentu 9.3.4. Przykładowe wyniki symulacji komputerowych sieci Elmana 9.4. Sieć RTRN 9.4.1. Struktura sieci i algorytm uczący 9.4.2. Wyniki eksperymentów numerycznych 9.5. Zadania i problemy 10. Sieci samoorganizujące się na zasadzie współzawodnictwa10.1. Zależności podstawowe sieci samoorganizujących się przez współzawodnictwo10.1.1. Miary odległości między wektorami 10.1.2. Normalizacja wektorów 10.1.3. Problem neuronów martwych10.2. Algorytmy uczące sieci samoorganizujących10.2.1. Algorytm Kohonena 10.2.2. Algorytm gazu neuronowego10.2.3. Program Kohon 10.2.4. Porównanie algorytmów samoorganizacji 10.3. Sieć odwzorowań jedno- i dwuwymiarowych 10.4. Odwzorowanie Sammona10.5. Zastosowania sieci samoorganizujących 10.5.1. Kompresja danych 10.5.2. Wykrywanie uszkodzeń w urządzeniach 10.5.3. Krótkoterminowe prognozowanie obciążeń systemu elektroenergetycznego10.6. Sieć hybrydowa 10.7. Zadania i problemy 11. Sieci samoorganizujące typu korelacyjnego 11.1. Funkcja energetyczna sieci korelacyjnych 11.2. Sieci neuronowe PCA 11.2.1. Wprowadzenie matematyczne 11.2.2. Relacja między przekształceniami PCA i SVD 11.2.3. Estymacja pierwszego składnika głównego 11.2.4. Algorytmy estymacji wielu składników głównych 11.3. Sieci neuronowe do ślepej separacji sygnałów 11.3.1. Zależności wstępne 11.3.2. Niezależność statystyczna sygnałów 11.3.3. Struktura rekurencyjna sieci separującej 11.3.4. Algorytm Heraulta-Juttena dla sieci rekurencyjnej 11.3.5. Algorytm Cichockiego uczenia sieci rekurencyjnej11.3.6. Program ślepej separacji BS 11.3.7. Sieć jednokierunkowa do separacji sygnałów 11.3.8. Toolbox ICALAB 11.4. Zadania i problemy 12. Podstawy matematyczne systemów rozmytych 12.1. Operacje na zbiorach rozmytych12.2. Miary rozmytości zbiorów rozmytych 12.3. Rozmytość a prawdopodobieństwo 12.4. Reguły rozmyte wnioskowania 12.5. Systemy wnioskowania rozmytego Mamdaniego-Zadeha 12.5.1. Fuzyfikator 12.5.2. Defuzyfikator12.5.3. Model Mamdaniego-Zadeha jako układ uniwersalnego aproksymatora12.6. Model wnioskowania Takagi-Sugeno-Kanga 12.7. Zadania i problemy 13. Sieci neuronowe rozmyte 13.1. Struktura sieci rozmytej TSK 13.2. Struktura sieci Wanga-Mendela 13.3. Algorytmy samoorganizacji w zastosowaniu do uczenia sieci rozmytej 13.3.1. Algorytm grupowania górskiego 13.3.2. Algorytm C-means 13.3.3. Algorytm Gustafsona-Kessela samoorganizacji rozmytej 13.4. Generacja reguł wnioskowania sieci rozmytej13.5. Algorytm hybrydowy uczenia sieci rozmytej TSK 13.6. Modyfikacje sieci TSK 13.6.1. Algorytm wyznaczania liczby reguł wnioskowania 13.6.2. Przykład numeryczny 13.6.3. Uproszczona sieć TSK 13.7. Sieć hybrydowa rozmyta 13.8. Przykłady zastosowań sieci rozmytych 13.8.1. Estymacja stężenia składników mieszaniny gazowej 13.8.2. Rozpoznawanie składników mieszanin gazowych 13.8.3. Rozpoznawanie gatunków piwa na podstawie zapachu 13.9. Adaptacyjny algorytm samoorganizacji dla sieci rozmytej 13.10. Zadania i problemy 14. Głębokie sieci neuronowe14.1. Autoenkoder 14.2. Sieć o ekstremalnym uczeniu 14.3. Sieci konwolucyjne (CNN)14.3.1. Opis struktury sieci CNN 14.3.2. Dobór struktury CNN 14.3.3. Uczenie sieci CNN14.3.4. Przykłady zastosowania sieci CNN w Matlabie 14.4. Ograniczona maszyna Boltzmanna 14.4.1. Pojęcia wstępne 14.4.2. Algorytm uczenia sieci RBM 14.5. Sieć DBN 14.5.1. Struktura sieci DBN14.5.2. Algorytm uczenia sieci DBN 14.6. Głębokie sieci rekurencyjne LSTM 14.6.1. Wprowadzenie 14.6.2. Zasada działania sieci LSTM 14.7. Przykłady praktycznych zastosowań sieci głębokich 14.8. Podsumowanie Bibliografia Skorowidz

Kod wydawnictwa: 978-83-7814-923-1

Opinie, recenzje, testy:

Ten produkt nie ma jeszcze opinii

Twoja opinia

aby wystawić opinię.

Ocena:
  • Wszystkie pola są wymagane
Zapytaj o produkt

Produkty powiązane

Kontakt

Księgarnia Ekonomiczna Kazimierz Leki Sp. z o.o.

ul. Grójecka 67

02-094 Warszawa

NIP: 7010414095

Tel. 22 822 90 41

www.24naukowa.com.pl

naukowa@ksiegarnia-ekonomiczna.com.pl