- promocja
Deep learning z TensorFlow 2 i Keras dla zaawansowanych. Sieci GAN i VAE, deep RL, uczenie nienadzorowane, wykrywanie i segmentacja obiektów i nie tylko - ebook
Deep learning z TensorFlow 2 i Keras dla zaawansowanych. Sieci GAN i VAE, deep RL, uczenie nienadzorowane, wykrywanie i segmentacja obiektów i nie tylko - ebook
Oto propozycja dla specjalistów zajmujących się programowaniem sztucznej inteligencji i studentów kształcących się w tej dziedzinie. Autor przybliża tajniki tworzenia sieci neuronowych stosowanych w uczeniu głębokim i pokazuje, w jaki sposób używać w tym celu bibliotek Keras i TensorFlow. Objaśnia zagadnienia dotyczące programowania AI zarówno w teorii, jak i praktyce. Liczne przykłady, czytelna oprawa graficzna i logiczne wywody sprawiają, że to skuteczne narzędzie dla każdego, kto chce się nauczyć budowania sieci neuronowych typu MLP, CNN i RNN.
Książka wprowadza w teoretyczne fundamenty uczenia głębokiego - znalazły się w niej wyjaśnienia podstawowych pojęć związanych z tą dziedziną i różnice pomiędzy poszczególnymi typami sieci neuronowych. Opisano tutaj również metody programowania algorytmów używanych w uczeniu głębokim i sposoby ich wdrażania. Dzięki lekturze lepiej zrozumiesz sieci neuronowe, nauczysz się ich tworzenia i zastosowania w różnych projektach z zakresu AI.
Polecamy tę książkę każdemu, kto:
- chce zrozumieć, jak działają sieci neuronowe i w jaki sposób się je tworzy
- specjalizuje się w uczeniu głębokim lub zamierza lepiej poznać tę dziedzinę
- posługuje się sieciami neuronowymi w programowaniu
- chce się nauczyć stosować biblioteki Keras i TensorFlow w uczeniu głębokim
Spis treści
O autorze
O recenzencie
Przedmowa
Rozdział 1. Wprowadzenie do uczenia głębokiego z Keras
- 1.1. Dlaczego Keras jest idealną biblioteką do uczenia głębokiego?
- Instalowanie biblioteki Keras i TensorFlow
- 1.2. Sieci MLP, CNN i RNN
- Różnice między MLP, CNN i RNN
- 1.3. Perceptron wielowarstwowy (MLP)
- Zbiór danych MNIST
- Model klasyfikatora cyfr MNIST
- Budowanie modelu przy użyciu MLP i Keras
- Regularyzacja
- Funkcja aktywacji i funkcja straty
- Optymalizacja
- Ocena wydajności
- Podsumowanie modelu MLP
- 1.4. Splotowa (konwolucyjna) sieć neuronowa
- Splot
- Operacje łączenia
- Ocena wydajności i podsumowanie modelu
- 1.5. Rekurencyjna sieć neuronowa
- 1.6. Wnioski
- 1.7. Odwołania
Rozdział 2. Głębokie sieci neuronowe
- 2.1. Funkcyjne API Keras
- Tworzenie modelu o dwóch wejściach i jednym wyjściu
- 2.2. Głęboka sieć resztkowa (ResNet)
- 2.3. ResNet v2
- 2.4. Gęsto połączona sieć splotowa (DenseNet)
- Budowa stuwarstwowej sieci DenseNet-BC dla CIFAR10
- 2.5. Podsumowanie
- 2.6. Bibliografia
Rozdział 3. Sieci autokodujące
- 3.1. Zasada działania sieci autokodującej
- 3.2. Budowanie sieci autokodującej za pomocą Keras
- 3.3. Autokodujące sieci odszumiające (DAE)
- 3.4. Automatyczne kolorowanie z użyciem autokodera
- 3.5. Podsumowanie
- 3.6. Bibliografia
Rozdział 4. Generujące sieci współzawodniczące
- 4.1. GAN - informacje wprowadzające
- Podstawy GAN
- 4.2. Implementacja DCGAN w Keras
- 4.3. Warunkowe sieci GAN
- 4.4. Podsumowanie
- 4.5. Bibliografia
Rozdział 5. Ulepszone sieci GAN
- 5.1. Sieć GAN Wassersteina
- Funkcje odległości
- Funkcja odległości w GAN
- Wykorzystanie funkcji straty Wassersteina
- Implementacja WGAN przy użyciu Keras
- 5.2. GAN z metodą najmniejszych kwadratów (LSGAN)
- 5.3. Pomocniczy klasyfikator GAN (ACGAN)
- 5.4. Podsumowanie
- 5.5. Bibliografia
Rozdział 6. Rozplątane reprezentacje w GAN
- 6.1. Rozplątane reprezentacje
- 6.2. Sieć InfoGAN
- Implementacja InfoGAN w Keras
- Ocena rezultatów działania generatora sieci InfoGAN
- 6.3. Sieci StackedGAN
- Implementacja sieci StackedGAN w Keras
- Ocena rezultatów działania generatora StackedGAN
- 6.4. Podsumowanie
- 6.5. Bibliografia
Rozdział 7. Międzydomenowe GAN
- 7.1. Podstawy sieci CycleGAN
- Model sieci CycleGAN
- Implementacja CycleGAN przy użyciu Keras
- Wyjścia generatora CycleGAN
- CycleGAN na zbiorach danych MNIST i SVHN
- 7.2. Podsumowanie
- 7.3. Bibliografia
Rozdział 8. Wariacyjne sieci autokodujące (VAE)
- 8.1. Podstawy sieci VAE
- Wnioskowanie wariacyjne
- Podstawowe równanie
- Optymalizacja
- Sztuczka z reparametryzacją
- Testowanie dekodera
- VAE w Keras
- Korzystanie z CNN w sieciach autokodujących
- 8.2. Warunkowe VAE (CVAE)
- 8.3. B-VAE - VAE z rozplątanymi niejawnymi reprezentacjami
- 8.4. Podsumowanie
- 8.5. Bibliografia
Rozdział 9. Uczenie głębokie ze wzmocnieniem
- 9.1. Podstawy uczenia ze wzmocnieniem (RL)
- 9.2. Wartość Q
- 9.3. Przykład Q-uczenia
- Q-uczenie w języku Python
- 9.4. Otoczenie niedeterministyczne
- 9.5. Uczenie z wykorzystaniem różnic czasowych
- Q-uczenie w Open AI Gym
- 9.6. Głęboka sieć Q (DQN)
- Implementacja DQN w Keras
- Q-uczenie podwójnej sieci DQN (DDQN)
- 9.7. Podsumowanie
- 9.8. Bibliografia
Rozdział 10. Strategie w metodach gradientowych
- 10.1. Twierdzenie o gradiencie strategii
- 10.2. Metoda strategii gradientowych Monte Carlo (WZMOCNIENIE)
- 10.3. Metoda WZMOCNIENIE z wartością bazową
- 10.4. Metoda Aktor-Krytyk
- 10.5. Metoda Aktor-Krytyk z przewagą (A2C)
- 10.6. Metody strategii gradientowych przy użyciu Keras
- 10.7. Ocena wydajności metod strategii gradientowej
- 10.8. Podsumowanie
- 10.9. Bibliografia
Rozdział 11. Wykrywanie obiektów
- 11.1. Wykrywanie obiektów
- 11.2. Pole zakotwiczenia
- 11.3. Referencyjne pola zakotwiczenia
- 11.4. Funkcje strat
- 11.5. Architektura modelu SSD
- 11.6. Architektura modelu SSD w Keras
- 11.7. Obiekty SSD w Keras
- 11.8. Model SSD w Keras
- 11.9. Model generatora danych w Keras
- 11.10. Przykładowy zbiór danych
- 11.11. Szkolenie modelu SSD
- 11.12. Algorytm niemaksymalnego tłumienia (NMS)
- 11.13. Walidacja modelu SSD
- 11.14. Podsumowanie
- 11.15. Bibliografia
Rozdział 12. Segmentacja semantyczna
- 12.1. Segmentacja
- 12.2. Sieć do segmentacji semantycznej
- 12.3. Sieć do segmentacji semantycznej w Keras
- 12.4. Przykładowy zbiór danych
- 12.5. Walidacja segmentacji semantycznej
- 12.6. Podsumowanie
- 12.7. Bibliografia
Rozdział 13. Uczenie nienadzorowane z wykorzystaniem informacji wzajemnej
- 13.1. Informacja wzajemna
- 13.2. Informacja wzajemna i entropia
- 13.3. Uczenie nienadzorowane przez maksymalizację informacji wzajemnej o dyskretnych zmiennych losowych
- 13.4. Sieć koderów do grupowania nienadzorowanego
- 13.5. Implementacja nienadzorowanego grupowania w Keras
- 13.6. Walidacja na zbiorze cyfr MNIST
- 13.7. Uczenie nienadzorowane poprzez maksymalizację informacji wzajemnej ciągłych zmiennych losowych
- 13.8. Szacowanie informacji wzajemnej dwuwymiarowego rozkładu Gaussa
- 13.9. Grupowanie nienadzorowane z wykorzystaniem ciągłych zmiennych losowych w Keras
- 13.10. Podsumowanie
- 13.11. Bibliografia
Kategoria: | Programowanie |
Zabezpieczenie: |
Watermark
|
ISBN: | 978-83-283-8884-0 |
Rozmiar pliku: | 30 MB |