ksiegarnia-fachowa.pl
wprowadź własne kryteria wyszukiwania książek: (jak szukać?)
Twój koszyk:   0 zł   zamówienie wysyłkowe >>>
Strona główna > opis książki

DEEP LEARNING WSPÓŁCZESNE SYSTEMY UCZĄCE SIĘ


BENGIO Y. COURVILLE A. GOODFELLOW I.

wydawnictwo: PWN , rok wydania 2018, wydanie I

cena netto: 163.15 Twoja cena  154,99 zł + 5% vat - dodaj do koszyka

Deep Learning

Współczesne systemy uczące się


Deep learning to rodzaj systemu uczącego się, który pozwala komputerom na naukę na podstawie doświadczeń i zrozumienie świata w sennie hierarchii pojęć. Ponieważ komputer gromadzi wiedzę na podstawie doświadczeń, nie potrzebny jest nadzór człowieka w celu określenia całej wiedzy potrzebnej komputerowi. Hierarchia pojęć pozwala komputerowi uczyć się skomplikowanych pojęć rozbudowując je na podstawie prostszych elementów. Graf takich hierarchii będzie miał głębokość wielu warstw.

Książka wprowadza szeroki zakres tematów z zakresu deep learning.

W tekscie mozna znalezc podstawy matematyczne i pojeciowe obejmujace odnosne pojecia z zakresu algebry liniowej, teorii prawdopodobienstwa, teorii informacji, obliczen numerycznych oraz systemów uczacych sie.

Książka opisuje techniki deep learning używane przez praktyków w przemyśle, w tym głębokie sieci sprzężone do przodu, regularyzację, algorytmy optymalizacyjne, sieci splotowe, modelowanie ciągów oraz metodologie praktyczne. Przywoływane są takie zastosowania jak rozpoznawanie mowy, obrazy komputerowe, systemy rekomendacji w trybie online, bioinformatyk oraz gry wideo. Wreszcie książka przedstawia perspektywy badań naukowych obejmując takie zagadnienia teoretyczne jak modele o współczynnikach liniowych, autokodowania, uczenie się reprezentacji, strukturalne modele probabilistyczne, metody Monte Carlo, funkcja podziału, przybliżone wnioskowanie oraz głębokie modele generatywne.

Książka Deep Learning może być używana przez studentów studiów podstawowych i podyplomowych planujących swoją karierę w przemyśle lub w badaniach naukowych, oraz przez inżynierów oprogramowania, którzy chcą zacząć wykorzystywać techniki deep learning w swoich produktach lub platformach działania.


Ian Goodfellow jest naukowcem w OpenAI. 
Yoshua Bengio, pracuje na stanowisku profesora informatyki na uniwersytecie w Monteralu.
Aaron Courville adiunktem informatyki na tej samej uczelni.


1. Wprowadzenie
1.1. Kto powinien przeczytać tę książkę?
1.2. Historyczne trendy deep learningu

I. Podstawy matematyki stosowanej i systemów uczących się

2. Algebra liniowa
2.1. Skalary, wektory, macierze i tensory
2.2. Mnożenie macierzy i wektorów
2.3. Macierze jednostkowe i odwrotne
2.4. Zależność liniowa i zakres
2.5. Normy
2.6. Macierze i wektory specjalne
2.7. Rozkład na wartości własne
2.8. Dekompozycja wartości osobliwej
2.9. Uogólniona macierz odwrotna (Moore‘a-Penrose‘a)
2.10. Operator śladowy
2.11. Wyznacznik
2.12. Przykład: analiza głównych składowych

3. Prawdopodobieństwo i teoria informacji
3.1. Dlaczego prawdopodobieństwo?
3.2. Zmienne losowe
3.3. Rozkłady prawdopodobieństwa
3.4. Prawdopodobieństwo brzegowe
3.5. Prawdopodobieństwo warunkowe
3.6. Reguła łańcuchowa w prawdopodobieństwie warunkowym
3.7. Niezależność oraz niezależność warunkowa
3.8. Wartość oczekiwana, wariancja i kowariancja
3.9. Znane rozkłady prawdopodobieństwa
3.10. Użyteczne cechy elementarnych funkcji
3.11. Prawo Bayesa
3.12. Techniczne szczegóły zmiennych ciągłych
3.13. Teoria informacji
3.14. Strukturalne modele probabilistyczne

4. Obliczenia numeryczne
4.1. Nadmiar i niedomiar
4.2. Złe uwarunkowania
4.3. Optymalizacja gradientowa
4.4. Optymalizacja z ograniczeniami
4.5. Przykład: liniowa metoda najmniejszych kwadratów

5. Podstawy systemów uczących się
5.1. Algorytmy uczenia się
5.2. Pojemność, nadmierne dopasowanie i niedopasowanie
5.3. Hiperparametry i zbiory walidacyjne
5.4. Estymatory, obciążenie i wariancja
5.5. Metoda maksymalnej wiarygodności
5.6. Statystyki Bayesa
5.7. Algorytmy nadzorowanego uczenia się
5.8. Algorytmy nienadzorowanego uczenia się
5.9. Metoda gradientu stochastycznego
5.10. Tworzenie algorytmu dla systemu uczącego się
5.11. Wyzwania motywujące deep learning

II. Głębokie sieci: nowoczesne praktyki

6. Głębokie sieci jednokierunkowe
6.1. Przykład: uczenie się funkcji XOR
6.2. Uczenie się oparte na gradiencie
6.3. Jednostki ukryte
6.4. Projekt architektury
6.5. Propagacja wsteczna i inne algorytmy różniczkowania
6.6. Uwagi historyczne

7. Regularyzacja w deep learningu
7.1. Standardowe kary dla parametrów
7.2. Standardowe kary jako optymalizacja z ograniczeniami
7.3. Regularyzacja i problemy niedoograniczone
7.4. Powiększanie zbioru danych
7.5. Odporność na szum
7.5. Uczenie się częściowo nadzorowane
7.7. Uczenie się wielozadaniowe
7.8. Wczesne zatrzymanie
7.9. Wiązanie i współdzielenie parametrów
7.10. Rzadko wypełnione reprezentacje
7.11. Bagging i inne metody zespołowe
7.12. Odrzucanie
7.13. Szkolenie antagonistyczne
7.14. Odległość styczna, propagacja stycznej oraz klasyfikator stycznej do rozmaitości

8. Optymalizacja w celu szkolenia głębokich modeli
8.1. Czym uczenie się różni się od czystej optymalizacji
8.2. Wyzwania związane z optymalizacją sieci neuronowej
8.3. Podstawowe algorytmy
8.4. Strategie nadawania parametrom wartości początkowych
8.5. Algorytmy z adaptacyjną szybkością uczenia się
8.6. Aproksymacyjne metody drugiego rzędu
8.7. Strategie optymalizacji i meta-algorytmy

9. Sieci splotowe
9.1. Splot jako działanie
9.2. Uzasadnienie
9.3. Redukcja
9.4. Splot i redukcja jako nieskończenie silny rozkład aprioryczny
9.5. Warianty podstawowej funkcji splotowej
9.6. Strukturalne wyjścia
9.7. Typy danych
9.8. Efektywne algorytmy splotu
9.9. Cechy losowe lub nienadzorowane
9.10. Neuronaukowe podstawy sieci splotowych
9.11. Sieci splotowe a historia deep learningu

10. Modelowanie sekwencyjne: sieci rekurencyjne i rekursywne
10.1. Rozwijanie grafów obliczeniowych
10.2. Rekurencyjne sieci neuronowe
10.3. Dwukierunkowe rekurencyjne sieci neuronowe
10.4. Architektury koder-dekoder i sekwencja do sekwencji
10.5. Głębokie sieci rekurencyjne
10.6. Rekursywne sieci neuronowe
10.7. Problem z zależnościami długoterminowymi
10.8. Sieci stanu echa
10.9. Nieszczelne jednostki i inne strategie dla wielu skali czasowych
10.10. Długa pamięć krótkoterminowa i inne bramkowane sieci RNN
10.11. Optymalizacja zależności długoterminowych
10.12. Pamięć jawna

11. Metodologia praktyczna
11.1. Metryki wydajności
11.2. Modele domyślnej linii bazowej
11.3. Decyzja, czy zbierać więcej danych
11.4. Wybór hiperparametrów
11.5. Strategie debugowania
11.6. Przykład: rozpoznawanie liczb wielocyfrowych

12. Zastosowania
12.1. Deep learning wielkoskalowy
12.2. Rozpoznawanie obrazów
12.3. Rozpoznawanie mowy
12.4. Przetwarzanie języka naturalnego
12.5. Inne zastosowania

III. Badania na polu deep learningu

13. Liniowe modele czynnikowe
13.1. Probabilistyczna analiza PCA i analiza czynnikowa
13.2. Analiza składowych niezależnych (ICA)
13.3. Powolna analiza cech
13.4. Rzadkie kodowanie
13.5. Poznawanie rozmaitości w analizie PCA

14. Autokodery
14.1. Autokodery niekompletne
14.2. Autokodery z regularyzacją
14.3. Reprezentacyjna potęga, rozmiar warstwy i głębokość
14.4. Stochastyczne kodery i dekodery
14 5. Autokodery z odszumianiem
14.6. Poznawanie rozmaitości z użyciem autokoderów
14.7. Autokodery kurczliwe
14.8. Predykcyjna rzadka dekompozycja
14.9. Zastosowania autokoderów

15. Poznawanie reprezentacji
15.1. Zachłanne nienadzorowane szkolenie wstępne warstwa po warstwie
15.2. Transfer poznawania i adaptacja dziedziny
15.3. Częściowo nadzorowane oswabadzanie czynników przyczynowych
15.4. Reprezentacja rozproszona
15.5. Wykładnicze zyski z głębokości
15.6. Wskazówki do wykrywania przyczyn podstawowych

16. Strukturalne modele probabilistyczne deep learningu
16.1. Trudności w modelowaniu niestrukturalnym
16.2. Używanie grafów do opisu struktury modelu
16.3. Próbkowanie z modeli graficznych
16.4. Zalety modelowania strukturalnego
16.5. Poznawanie zależności
16.6. Wnioskowanie i wnioskowanie przybliżone
16.7. Strukturalne modele probabilistyczne w ujęciu deep learningu

17. Metody Monte Carlo
17.1. Próbkowanie i metody Monte Carlo
17.2. Próbkowanie istotnościowe
17.3. Metody Monte Carlo z łańcuchem Markowa
17.4. Próbkowanie Gibbsa
17.5. Problem mieszania między odseparowanymi trybami

18. Zmagania z funkcją podziału
18.1. Gradient wiarygodności logarytmicznej
18.2. Stochastyczna maksymalna wiarygodność i kontrastywna dywergencja
18.3. Pseudowiarygodność
18.4. Dopasowywanie oceny i stosunku
18.5. Dopasowywanie ocen z odszumianiem
18.6. Estymacja kontrastywna szumu
18.7. Szacowanie funkcji podziału

19. Wnioskowanie przybliżone
19.1. Wnioskowanie jako optymalizacja
19.2. Maksymalizacja oczekiwania
19.3. Wnioskowanie MAP i rzadkie kodowanie
19.4. Wariacyjne wnioskowanie i uczenie się
19.5. Poznawanie wnioskowania przybliżonego

20. Głębokie modele generatywne
20.1. Maszyny Boltzmanna
20.2. Ograniczone maszyny Boltzmanna
20.3. Głębokie sieci przekonań
20.4. Głębokie maszyny Boltzmanna
20.5. Maszyny Boltzmanna dla danych rzeczywistych
20.6. Splotowe maszyny Boltzmanna
20.7. Maszyny Boltzmanna dla strukturalnych lub sekwencyjnych wartości wynikowych
20.8. Inne maszyny Boltzmanna
20.9. Propagacja wsteczna przez losowe działania
20.10. Skierowane sieci generatywne
20.11. Pobieranie próbek z autokoderów
20.12. Generatywne sieci stochastyczne
20.13. Inne schematy generowania
20.14. Szacowanie modeli generatywnych
20.15. Konkluzja

Bibliografia
Skorowidz


900 stron, Format: 16.5x23.5, oprawa twarda

Po otrzymaniu zamówienia poinformujemy,
czy wybrany tytuł polskojęzyczny lub anglojęzyczny jest aktualnie na półce księgarni.

 
Wszelkie prawa zastrzeżone PROPRESS sp. z o.o. 2012-2018