Facebook - konwersja
  • promocja

Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow - ebook

Wydawnictwo:
Tłumacz:
Data wydania:
17 sierpnia 2018
Format ebooka:
MOBI
Format MOBI
czytaj
na czytniku
czytaj
na tablecie
czytaj
na smartfonie
Jeden z najczęściej wybieranych formatów wśród czytelników e-booków. Możesz go odczytać na czytniku Kindle oraz na smartfonach i tabletach po zainstalowaniu specjalnej aplikacji. Więcej informacji znajdziesz w dziale Pomoc.
Multiformat
E-booki w Virtualo.pl dostępne są w opcji multiformatu. Oznacza to, że po dokonaniu zakupu, e-book pojawi się na Twoim koncie we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu.
, PDF
Format PDF
czytaj
na laptopie
czytaj
na tablecie
Format e-booków, który możesz odczytywać na tablecie oraz laptopie. Pliki PDF są odczytywane również przez czytniki i smartfony, jednakze względu na komfort czytania i brak możliwości skalowania czcionki, czytanie plików PDF na tych urządzeniach może być męczące dla oczu. Więcej informacji znajdziesz w dziale Pomoc.
Multiformat
E-booki w Virtualo.pl dostępne są w opcji multiformatu. Oznacza to, że po dokonaniu zakupu, e-book pojawi się na Twoim koncie we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu.
, EPUB
Format EPUB
czytaj
na czytniku
czytaj
na tablecie
czytaj
na smartfonie
Jeden z najpopularniejszych formatów e-booków na świecie. Niezwykle wygodny i przyjazny czytelnikom - w przeciwieństwie do formatu PDF umożliwia skalowanie czcionki, dzięki czemu możliwe jest dopasowanie jej wielkości do kroju i rozmiarów ekranu. Więcej informacji znajdziesz w dziale Pomoc.
Multiformat
E-booki w Virtualo.pl dostępne są w opcji multiformatu. Oznacza to, że po dokonaniu zakupu, e-book pojawi się na Twoim koncie we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu.
(3w1)
Multiformat
E-booki sprzedawane w księgarni Virtualo.pl dostępne są w opcji multiformatu - kupujesz treść, nie format. Po dodaniu e-booka do koszyka i dokonaniu płatności, e-book pojawi się na Twoim koncie w Mojej Bibliotece we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu przy okładce. Uwaga: audiobooki nie są objęte opcją multiformatu.
czytaj
na laptopie
Pliki PDF zabezpieczone watermarkiem możesz odczytać na dowolnym laptopie po zainstalowaniu czytnika dokumentów PDF. Najpowszechniejszym programem, który umożliwi odczytanie pliku PDF na laptopie, jest Adobe Reader. W zależności od potrzeb, możesz zainstalować również inny program - e-booki PDF pod względem sposobu odczytywania nie różnią niczym od powszechnie stosowanych dokumentów PDF, które odczytujemy każdego dnia.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na tablecie
Aby odczytywać e-booki na swoim tablecie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. Bluefire dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na czytniku
Czytanie na e-czytniku z ekranem e-ink jest bardzo wygodne i nie męczy wzroku. Pliki przystosowane do odczytywania na czytnikach to przede wszystkim EPUB (ten format możesz odczytać m.in. na czytnikach PocketBook) i MOBI (ten fromat możesz odczytać m.in. na czytnikach Kindle).
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na smartfonie
Aby odczytywać e-booki na swoim smartfonie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. iBooks dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.

Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow - ebook

Pojęcia, techniki i narzędzia służące do tworzenia systemów inteligentnych

W ciągu ostatnich lat uczenie maszynowe stało się sercem wielu nowoczesnych produktów, takich jak zaawansowane techniki wyszukiwania w przeglądarkach, rozpoznawanie mowy w smartfonach czy proponowanie treści w zależności od indywidualnych preferencji użytkownika. Być może niedługo taki system inteligentny zastąpi Cię za kierownicą samochodu. Uczenie głębokie wprowadziło nową jakość do uczenia maszynowego. Daje niesamowite możliwości, jednak wymaga olbrzymiej mocy obliczeniowej i potężnych ilości danych. Programiści implementujący takie rozwiązania są poszukiwanymi specjalistami i mogą liczyć na ekscytujące oferty!

Ta książka jest praktycznym podręcznikiem tworzenia systemów inteligentnych. Przedstawiono tu najważniejsze zagadnienia teoretyczne dotyczące uczenia maszynowego i sieci neuronowych. W zrozumiały sposób zaprezentowano koncepcje i narzędzia służące do tworzenia systemów inteligentnych. Opisano Scikit-Learn i TensorFlow - środowiska produkcyjne języka Python - i pokazano krok po kroku, w jaki sposób wykorzystuje się je do implementacji sieci neuronowych. Liczne praktyczne przykłady i ćwiczenia pozwolą na pogłębienie i utrwalenie zdobytej wiedzy. Jeśli tylko potrafisz posługiwać się Pythonem, dzięki tej przystępnie napisanej książce szybko zaczniesz implementować systemy inteligentne.

W tej książce między innymi:

  • podstawowe koncepcje uczenia maszynowego, uczenia głębokiego i sieci neuronowych
  • przygotowywanie zbiorów danych i zarządzanie nimi
  • algorytmy uczenia maszynowego
  • rodzaje architektury sieci neuronowych
  • uczenie głębokich sieci neuronowych
  • olbrzymie zbiory danych i uczenie poprzez wzmacnianie

Już dziś zacznij tworzyć systemy inteligentne!

Spis treści

  • Przedmowa
    • Fenomen uczenia maszynowego
    • Uczenie maszynowe w Twoich projektach
    • Cel i sposób jego osiągnięcia
    • Wymogi wstępne
    • Zawartość książki
    • Dodatkowe zasoby
    • Konwencje stosowane w książce
    • Korzystanie z kodu źródłowego
    • Podziękowania
  • Część I Podstawy uczenia maszynowego
  • Rozdział 1. Krajobraz uczenia maszynowego
    • Czym jest uczenie maszynowe?
    • Dlaczego warto korzystać z uczenia maszynowego?
    • Rodzaje systemów uczenia maszynowego
      • Uczenie nadzorowane/nienadzorowane
        • Uczenie nadzorowane
        • Uczenie nienadzorowane
        • Uczenie półnadzorowane
        • Uczenie przez wzmacnianie
      • Uczenie wsadowe/przyrostowe
        • Uczenie wsadowe
        • Uczenie przyrostowe
      • Uczenie z przykładów/z modelu
        • Uczenie z przykładów
        • Uczenie z modelu
    • Główne problemy uczenia maszynowego
      • Niedobór danych uczących
      • Niereprezentatywne dane uczące
      • Dane kiepskiej jakości
      • Nieistotne cechy
      • Przetrenowanie danych uczących
      • Niedotrenowanie danych uczących
      • Podsumowanie
    • Testowanie i ocenianie
    • Ćwiczenia
  • Rozdział 2. Nasz pierwszy projekt uczenia maszynowego
    • Praca z rzeczywistymi danymi
    • Przeanalizuj całokształt projektu
      • Określ zakres problemu
      • Wybierz metrykę wydajności
      • Sprawdź założenia
    • Zdobądź dane
      • Stwórz przestrzeń roboczą
      • Pobierz dane
      • Rzut oka na strukturę danych
      • Stwórz zbiór testowy
    • Odkrywaj i wizualizuj dane, aby zdobywać nowe informacje
      • Wizualizowanie danych geograficznych
      • Poszukiwanie korelacji
      • Eksperymentowanie z kombinacjami atrybutów
    • Przygotuj dane pod algorytmy uczenia maszynowego
      • Oczyszczanie danych
      • Obsługa tekstu i atrybutów kategorialnych
      • Niestandardowe transformatory
      • Skalowanie cech
      • Potoki transformujące
    • Wybór i uczenie modelu
      • Trenowanie i ocena modelu za pomocą zbioru uczącego
      • Dokładniejsze ocenianie za pomocą sprawdzianu krzyżowego
    • Wyreguluj swój model
      • Metoda przeszukiwania siatki
      • Metoda losowego przeszukiwania
      • Metody zespołowe
      • Analizuj najlepsze modele i ich błędy
      • Oceń system za pomocą zbioru testowego
    • Uruchom, monitoruj i utrzymuj swój system
    • Teraz Twoja kolej!
    • Ćwiczenia
  • Rozdział 3. Klasyfikacja
    • Zbiór danych MNIST
    • Uczenie klasyfikatora binarnego
    • Miary wydajności
      • Pomiar dokładności za pomocą sprawdzianu krzyżowego
      • Macierz pomyłek
      • Precyzja i pełność
      • Kompromis pomiędzy precyzją a pełnością
      • Wykres krzywej ROC
    • Klasyfikacja wieloklasowa
    • Analiza błędów
    • Klasyfikacja wieloetykietowa
    • Klasyfikacja wielowyjściowa
    • Ćwiczenia
  • Rozdział 4. Uczenie modeli
    • Regresja liniowa
      • Równanie normalne
      • Złożoność obliczeniowa
    • Gradient prosty
      • Wsadowy gradient prosty
      • Stochastyczny spadek wzdłuż gradientu
      • Schodzenie po gradiencie z minigrupami
    • Regresja wielomianowa
    • Krzywe uczenia
    • Regularyzowane modele liniowe
      • Regresja grzbietowa
      • Regresja metodą LASSO
      • Metoda elastycznej siatki
      • Wczesne zatrzymywanie
    • Regresja logistyczna
      • Szacowanie prawdopodobieństwa
      • Funkcje ucząca i kosztu
      • Granice decyzyjne
      • Regresja softmax
    • Ćwiczenia
  • Rozdział 5. Maszyny wektorów nośnych
    • Liniowa klasyfikacja SVM
      • Klasyfikacja miękkiego marginesu
    • Nieliniowa klasyfikacja SVM
      • Jądro wielomianowe
      • Dodawanie cech podobieństwa
      • Gaussowskie jądro RBF
      • Złożoność obliczeniowa
    • Regresja SVM
    • Mechanizm działania
      • Funkcja decyzyjna i prognozy
      • Cel uczenia
      • Programowanie kwadratowe
      • Problem dualny
      • Kernelizowane maszyny SVM
      • Przyrostowe maszyny SVM
    • Ćwiczenia
  • Rozdział 6. Drzewa decyzyjne
    • Uczenie i wizualizowanie drzewa decyzyjnego
    • Wyliczanie prognoz
    • Szacowanie prawdopodobieństw przynależności do klas
    • Algorytm uczący CART
    • Złożoność obliczeniowa
    • Wskaźnik Giniego czy entropia?
    • Hiperparametry regularyzacyjne
    • Regresja
    • Niestabilność
    • Ćwiczenia
  • Rozdział 7. Uczenie zespołowe i losowe lasy
    • Klasyfikatory głosujące
    • Agregacja i wklejanie
      • Agregacja i wklejanie w module Scikit-Learn
      • Ocena OOB
    • Rejony losowe i podprzestrzenie losowe
    • Losowe lasy
      • Zespół Extra-Trees
      • Istotność cech
    • Wzmacnianie
      • AdaBoost
      • Wzmacnianie gradientowe
    • Kontaminacja
    • Ćwiczenia
  • Rozdział 8. Redukcja wymiarowości
    • Klątwa wymiarowości
    • Główne strategie redukcji wymiarowości
      • Rzutowanie
      • Uczenie rozmaitościowe
    • Analiza PCA
      • Zachowanie wariancji
      • Główne składowe
      • Rzutowanie na d wymiarów
      • Implementacja w module Scikit-Learn
      • Współczynnik wariancji wyjaśnionej
      • Wybór właściwej liczby wymiarów
      • Algorytm PCA w zastosowaniach kompresji
      • Przyrostowa analiza PCA
      • Losowa analiza PCA
    • Jądrowa analiza PCA
      • Wybór jądra i strojenie hiperparametrów
    • Algorytm LLE
    • Inne techniki redukowania wymiarowości
    • Ćwiczenia
  • Część II Sieci neuronowe i uczenie głębokie
  • Rozdział 9. Instalacja i używanie modułu TensorFlow
    • Instalacja
    • Tworzenie pierwszego grafu i uruchamianie go w sesji
    • Zarządzanie grafami
    • Cykl życia wartości w węźle
    • Regresja liniowa przy użyciu modułu TensorFlow
    • Implementacja metody gradientu prostego
      • Ręczne obliczanie gradientów
      • Automatyczne różniczkowanie
      • Korzystanie z optymalizatora
    • Dostarczanie danych algorytmowi uczącemu
    • Zapisywanie i wczytywanie modeli
    • Wizualizowanie grafu i krzywych uczenia za pomocą modułu TensorBoard
    • Zakresy nazw
    • Modułowość
    • Udostępnianie zmiennych
    • Ćwiczenia
  • Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych
    • Od biologicznych do sztucznych neuronów
      • Neurony biologiczne
      • Operacje logiczne przy użyciu neuronów
      • Perceptron
      • Perceptron wielowarstwowy i propagacja wsteczna
    • Uczenie sieci MLP za pomocą zaawansowanego interfejsu API modułu TensorFlow
    • Uczenie głębokiej sieci neuronowej za pomocą standardowego interfejsu TensorFlow
      • Faza konstrukcyjna
      • Faza wykonawcza
      • Korzystanie z sieci neuronowej
    • Strojenie hiperparametrów sieci neuronowej
      • Liczba ukrytych warstw
      • Liczba neuronów tworzących warstwę ukrytą
      • Funkcje aktywacji
    • Ćwiczenia
  • Rozdział 11. Uczenie głębokich sieci neuronowych
    • Problemy zanikających/eksplodujących gradientów
      • Inicjacje wag Xaviera i He
      • Nienasycające funkcje aktywacji
      • Normalizacja wsadowa
        • Implementacja normalizacji wsadowej za pomocą modułu TensorFlow
      • Obcinanie gradientu
    • Wielokrotne stosowanie gotowych warstw
      • Wielokrotne stosowanie modelu TensorFlow
      • Wykorzystywanie modeli utworzonych w innych środowiskach
      • Zamrażanie niższych warstw
      • Zapamiętywanie warstw ukrytych
      • Modyfikowanie, usuwanie lub zastępowanie górnych warstw
      • Repozytoria modeli
      • Nienadzorowane uczenie wstępne
      • Uczenie wstępne za pomocą dodatkowego zadania
    • Szybsze optymalizatory
      • Optymalizacja momentum
      • Przyśpieszony spadek wzdłuż gradientu (algorytm Nesterova)
      • AdaGrad
      • RMSProp
      • Optymalizacja Adam
      • Harmonogramowanie współczynnika uczenia
    • Regularyzacja jako sposób unikania przetrenowania
      • Wczesne zatrzymywanie
      • Regularyzacja 1 i 2
      • Porzucanie
      • Regularyzacja typu max-norm
      • Dogenerowanie danych
    • Praktyczne wskazówki
    • Ćwiczenia
  • Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery
    • Wiele urządzeń na jednym komputerze
      • Instalacja
      • Zarządzanie pamięcią operacyjną karty graficznej
      • Umieszczanie operacji na urządzeniach
        • Proste rozmieszczanie
        • Zapisywanie zdarzeń rozmieszczania
        • Funkcja dynamicznego rozmieszczania
        • Operacje i jądra
        • Miękkie rozmieszczanie
      • Przetwarzanie równoległe
      • Zależności sterujące
    • Wiele urządzeń na wielu serwerach
      • Otwieranie sesji
      • Usługi nadrzędna i robocza
      • Przypinanie operacji w wielu zadaniach
      • Rozdzielanie zmiennych pomiędzy wiele serwerów parametrów
      • Udostępnianie stanu rozproszonych sesji za pomocą kontenerów zasobów
      • Komunikacja asynchroniczna za pomocą kolejek
        • Umieszczanie danych w kolejce
        • Usuwanie danych z kolejki
        • Kolejki krotek
        • Zamykanie kolejki
        • RandomShuffleQueue
        • PaddingFIFOQueue
      • Wczytywanie danych bezpośrednio z grafu
        • Wstępne wczytanie danych do zmiennej
        • Wczytywanie danych uczących bezpośrednio z grafu
        • Czytniki wieloklasowe wykorzystujące klasy Coordinator i QueueRunner
        • Inne funkcje pomocnicze
    • Przetwarzanie równoległe sieci neuronowych w klastrze TensorFlow
      • Jedna sieć neuronowa na każde urządzenie
      • Replikacja wewnątrzgrafowa i międzygrafowa
      • Zrównoleglanie modelu
      • Zrównoleglanie danych
        • Aktualizacje synchroniczne
        • Aktualizacje asynchroniczne
        • Nasycenie przepustowości
        • Implementacja w module TensorFlow
    • Ćwiczenia
  • Rozdział 13. Splotowe sieci neuronowe
    • Architektura kory wzrokowej
    • Warstwa splotowa
      • Filtry
      • Stosy map cech
      • Implementacja w module TensorFlow
      • Zużycie pamięci operacyjnej
    • Warstwa łącząca
    • Architektury splotowych sieci neuronowych
      • LeNet-5
      • AlexNet
      • GoogLeNet
      • ResNet
    • Ćwiczenia
  • Rozdział 14. Rekurencyjne sieci neuronowe
    • Neurony rekurencyjne
      • Komórki pamięci
      • Sekwencje wejść i wyjść
    • Podstawowe sieci RSN w module TensorFlow
      • Statyczne rozwijanie w czasie
      • Dynamiczne rozwijanie w czasie
      • Obsługa sekwencji wejściowych o zmiennej długości
      • Obsługa sekwencji wyjściowych o zmiennej długości
    • Uczenie rekurencyjnych sieci neuronowych
      • Uczenie klasyfikatora sekwencji
      • Uczenie w celu przewidywania szeregów czasowych
      • Twórcza sieć rekurencyjna
    • Głębokie sieci rekurencyjne
      • Rozmieszczanie głębokiej sieci rekurencyjnej pomiędzy wiele kart graficznych
      • Wprowadzanie metody porzucania
      • Problem uczenia w sieciach wielotaktowych
    • Komórka LSTM
      • Połączenia przezierne
    • Komórka GRU
    • Przetwarzanie języka naturalnego
      • Reprezentacje wektorowe słów
      • Sieć typu koder-dekoder służąca do tłumaczenia maszynowego
    • Ćwiczenia
  • Rozdział 15. Autokodery
    • Efektywne reprezentacje danych
    • Analiza PCA za pomocą niedopełnionego autokodera liniowego
    • Autokodery stosowe
      • Implementacja w module TensorFlow
      • Wiązanie wag
      • Uczenie autokoderów pojedynczo
      • Wizualizacja rekonstrukcji
      • Wizualizowanie cech
    • Nienadzorowane uczenie wstępne za pomocą autokoderów stosowych
    • Autokodery odszumiające
      • Implementacja w module TensorFlow
    • Autokodery rzadkie
      • Implementacja w module TensorFlow
    • Autokodery wariacyjne
      • Generowanie cyfr
    • Inne autokodery
    • Ćwiczenia
  • Rozdział 16. Uczenie przez wzmacnianie
    • Uczenie się optymalizowania nagród
    • Wyszukiwanie polityki
    • Wprowadzenie do narzędzia OpenAI gym
    • Sieci neuronowe jako polityki
    • Ocenianie czynności problem przypisania zasługi
    • Gradienty polityk
    • Procesy decyzyjne Markowa
    • Uczenie metodą różnic czasowych i algorytm Q-uczenia
      • Polityki poszukiwania
      • Przybliżający algorytm Q-uczenia
    • Nauka gry w Ms. Pac-Man za pomocą głębokiego Q-uczenia
    • Ćwiczenia
    • Dziękuję!
  • Dodatki
  • Dodatek A Rozwiązania ćwiczeń
    • Rozdział 1. Krajobraz uczenia maszynowego
    • Rozdział 2. Nasz pierwszy projekt uczenia maszynowego
    • Rozdział 3. Klasyfikacja
    • Rozdział 4. Uczenie modeli
    • Rozdział 5. Maszyny wektorów nośnych
    • Rozdział 6. Drzewa decyzyjne
    • Rozdział 7. Uczenie zespołowe i losowe lasy
    • Rozdział 8. Redukcja wymiarowości
    • Rozdział 9. Instalacja i używanie modułu TensorFlow
    • Rozdział 10. Wprowadzenie do sztucznych sieci neuronowych
    • Rozdział 11. Uczenie głębokich sieci neuronowych
    • Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery
    • Rozdział 13. Splotowe sieci neuronowe
    • Rozdział 14. Rekurencyjne sieci neuronowe
    • Rozdział 15. Autokodery
    • Rozdział 16. Uczenie przez wzmacnianie
  • Dodatek B Lista kontrolna projektu uczenia maszynowego
    • Określenie problemu i przeanalizowanie go w szerszej perspektywie
    • Pozyskanie danych
    • Analiza danych
    • Przygotowanie danych
    • Stworzenie krótkiej listy obiecujących modeli
    • Dostrojenie modelu
    • Zaprezentowanie rozwiązania
    • Do dzieła!
  • Dodatek C Problem dualny w maszynach wektorów nośnych
  • Dodatek D Różniczkowanie automatyczne
    • Różniczkowanie ręczne
    • Różniczkowanie symboliczne
    • Różniczkowanie numeryczne
    • Różniczkowanie automatyczne
    • Odwrotne różniczkowanie automatyczne
  • Dodatek E Inne popularne architektury sieci neuronowych
    • Sieci Hopfielda
    • Maszyny Boltzmanna
    • Ograniczone maszyny Boltzmanna
    • Głębokie sieci przekonań
    • Mapy samoorganizujące
    • Informacje o autorze
    • Kolofon
Kategoria: Programowanie
Zabezpieczenie: Watermark
Watermark
Watermarkowanie polega na znakowaniu plików wewnątrz treści, dzięki czemu możliwe jest rozpoznanie unikatowej licencji transakcyjnej Użytkownika. E-książki zabezpieczone watermarkiem można odczytywać na wszystkich urządzeniach odtwarzających wybrany format (czytniki, tablety, smartfony). Nie ma również ograniczeń liczby licencji oraz istnieje możliwość swobodnego przenoszenia plików między urządzeniami. Pliki z watermarkiem są kompatybilne z popularnymi programami do odczytywania ebooków, jak np. Calibre oraz aplikacjami na urządzenia mobilne na takie platformy jak iOS oraz Android.
ISBN: 978-83-283-4374-0
Rozmiar pliku: 27 MB

BESTSELLERY

Kategorie: