Facebook - konwersja
  • promocja

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - ebook

Wydawnictwo:
Data wydania:
23 kwietnia 2024
Format ebooka:
EPUB
Format EPUB
czytaj
na czytniku
czytaj
na tablecie
czytaj
na smartfonie
Jeden z najpopularniejszych formatów e-booków na świecie. Niezwykle wygodny i przyjazny czytelnikom - w przeciwieństwie do formatu PDF umożliwia skalowanie czcionki, dzięki czemu możliwe jest dopasowanie jej wielkości do kroju i rozmiarów ekranu. Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na tablecie
Aby odczytywać e-booki na swoim tablecie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. Bluefire dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na czytniku
Czytanie na e-czytniku z ekranem e-ink jest bardzo wygodne i nie męczy wzroku. Pliki przystosowane do odczytywania na czytnikach to przede wszystkim EPUB (ten format możesz odczytać m.in. na czytnikach PocketBook) i MOBI (ten fromat możesz odczytać m.in. na czytnikach Kindle).
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na smartfonie
Aby odczytywać e-booki na swoim smartfonie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. iBooks dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - ebook

W ciągu ostatnich lat techniki uczenia maszynowego rozwijały się z niezwykłą dynamiką, rewolucjonizując pracę w różnych branżach. Obecnie do uczenia maszynowego najczęściej używa się Pythona i jego bibliotek. Znajomość najnowszych wydań tych narzędzi umożliwia efektywne tworzenie wyrafinowanych systemów uczących się.

Oto zaktualizowane wydanie popularnego przewodnika, dzięki któremu skorzystasz z ponad dwustu sprawdzonych receptur bazujących na najnowszych wydaniach bibliotek Pythona. Wystarczy, że skopiujesz i dostosujesz kod do swoich potrzeb. Możesz też go uruchamiać i testować za pomocą przykładowego zbioru danych. W książce znajdziesz receptury przydatne do rozwiązywania szerokiego spektrum problemów, od przygotowania i wczytania danych aż po trenowanie modeli i korzystanie z sieci neuronowych. W ten sposób wyjdziesz poza rozważania teoretyczne czy też matematyczne koncepcje i zaczniesz tworzyć aplikacje korzystające z uczenia maszynowego.

Poznaj receptury dotyczące:

  • pracy z danymi w wielu formatach, z bazami i magazynami danych
  • redukcji wymiarowości, jak również oceny i wyboru modelu
  • regresji liniowej i logistycznej, drzew i lasów, a także k-najbliższych sąsiadów
  • maszyn wektorów nośnych (SVM), naiwnej klasyfikacji bayesowskiej i klasteryzacji
  • udostępniania wytrenowanych modeli za pomocą wielu frameworków

Długo szukałam książki, która spójnie przedstawiałaby algorytm ANN, hiperpłaszczyzny i wybór cech za pomocą losowego lasu. I wtedy pojawiła się ta pozycja!

Vicki Boykis, inżynier uczenia maszynowego w Duo

Spis treści

Wprowadzenie

1. Wektor, macierz i tablica

  • 1.0. Wprowadzenie
  • 1.1. Tworzenie wektora
  • 1.2. Tworzenie macierzy
  • 1.3. Tworzenie macierzy rzadkiej
  • 1.4. Wstępna alokacja tablicy NumPy
  • 1.5. Pobieranie elementów
  • 1.6. Opisywanie macierzy
  • 1.7. Przeprowadzanie operacji na wszystkich elementach
  • 1.8. Znajdowanie wartości maksymalnej i minimalnej
  • 1.9. Obliczanie średniej, wariancji i odchylenia standardowego
  • 1.10. Zmiana kształtu tablicy
  • 1.11. Transponowanie wektora lub macierzy
  • 1.12. Spłaszczanie macierzy
  • 1.13. Znajdowanie rzędu macierzy
  • 1.14. Pobieranie przekątnej macierzy
  • 1.15. Obliczanie śladu macierzy
  • 1.16. Obliczanie iloczynu skalarnego
  • 1.17. Dodawanie i odejmowanie macierzy
  • 1.18. Mnożenie macierzy
  • 1.19. Odwracanie macierzy
  • 1.20. Generowanie liczb losowych

2. Wczytywanie danych

  • 2.0. Wprowadzenie
  • 2.1. Wczytywanie przykładowego zbioru danych
  • 2.2. Tworzenie symulowanego zbioru danych
  • 2.3. Wczytywanie pliku CSV
  • 2.4. Wczytywanie pliku Excela
  • 2.5. Wczytywanie pliku JSON
  • 2.6. Wczytywanie pliku Parquet
  • 2.7. Wczytywanie pliku Avro
  • 2.8. Wykonywanie zapytań do bazy danych SQLite
  • 2.9. Wykonywanie zapytań do zdalnej bazy danych SQL
  • 2.10. Wczytywanie danych z Google Sheets
  • 2.11. Wczytywanie danych z kubełka S3
  • 2.12. Wczytywanie danych nieposiadających struktury

3. Przygotowywanie danych

  • 3.0. Wprowadzenie
  • 3.1. Tworzenie ramki danych
  • 3.2. Opisywanie danych
  • 3.3. Poruszanie się po ramce danych
  • 3.4. Pobieranie wierszy na podstawie pewnych warunków
  • 3.5. Sortowanie wartości
  • 3.6. Zastępowanie wartości
  • 3.7. Zmiana nazwy kolumny
  • 3.8. Znajdowanie wartości minimalnej, maksymalnej, sumy, średniej i liczby elementów w kolumnie
  • 3.9. Znajdowanie unikatowych wartości
  • 3.10. Obsługa brakujących wartości
  • 3.11. Usuwanie kolumn
  • 3.12. Usuwanie wiersza
  • 3.13. Usuwanie powielonych wierszy
  • 3.14. Grupowanie wierszy według wartości
  • 3.15. Grupowanie wierszy według czasu
  • 3.16. Agregowanie operacji i danych statystycznych
  • 3.17. Iterowanie przez kolumnę
  • 3.18. Wywoływanie funkcji dla wszystkich elementów kolumny
  • 3.19. Wywoływanie funkcji dla grupy
  • 3.20. Konkatenacja obiektów typu DataFrame
  • 3.21. Złączanie obiektów typu DataFrame

4. Obsługa danych liczbowych

  • 4.0. Wprowadzenie
  • 4.1. Przeskalowywanie cechy
  • 4.2. Standaryzowanie cechy
  • 4.3. Normalizowanie obserwacji
  • 4.4. Generowanie cech wielomianowych i interakcji
  • 4.5. Transformacja cech
  • 4.6. Wykrywanie elementów odstających
  • 4.7. Obsługa elementów odstających
  • 4.8. Dyskretyzacja cech
  • 4.9. Grupowanie obserwacji przy użyciu klastra
  • 4.10. Usuwanie obserwacji, w których brakuje wartości
  • 4.11. Uzupełnianie brakujących wartości

5. Obsługa danych kategoryzujących

  • 5.0. Wprowadzenie
  • 5.1. Kodowanie nominalnych cech kategoryzujących
  • 5.2. Kodowanie porządkowych cech kategoryzujących
  • 5.3. Kodowanie słowników cech
  • 5.4. Wstawianie brakujących wartości klas
  • 5.5. Obsługa niezrównoważonych klas

6. Obsługa tekstu

  • 6.0. Wprowadzenie
  • 6.1. Oczyszczanie tekstu
  • 6.2. Przetwarzanie i oczyszczanie danych HTML
  • 6.3. Usuwanie znaku przestankowego
  • 6.4. Tokenizacja tekstu
  • 6.5. Usuwanie słów o małym znaczeniu
  • 6.6. Stemming słów
  • 6.7. Oznaczanie części mowy
  • 6.8. Rozpoznawanie nazwanych jednostek
  • 6.9. Kodowanie tekstu za pomocą modelu worka słów
  • 6.10. Określanie wagi słów
  • 6.11. Używanie wektorów tekstu do obliczania podobieństwa tekstu w zapytaniu wyszukiwania
  • 6.12. Używanie klasyfikatora analizy sentymentu

7. Obsługa daty i godziny

  • 7.0. Wprowadzenie
  • 7.1. Konwertowanie ciągu tekstowego na datę
  • 7.2. Obsługa stref czasowych
  • 7.3. Pobieranie daty i godziny
  • 7.4. Podział danych daty na wiele cech
  • 7.5. Obliczanie różnicy między datami
  • 7.6. Kodowanie dni tygodnia
  • 7.7. Tworzenie cechy opóźnionej w czasie
  • 7.8. Użycie okien upływającego czasu
  • 7.9. Obsługa brakujących danych w serii danych zawierających wartości daty i godziny

8. Obsługa obrazów

  • 8.0. Wprowadzenie
  • 8.1. Wczytywanie obrazu
  • 8.2. Zapisywanie obrazu
  • 8.3. Zmiana wielkości obrazu
  • 8.4. Kadrowanie obrazu
  • 8.5. Rozmywanie obrazu
  • 8.6. Wyostrzanie obrazu
  • 8.7. Zwiększanie kontrastu
  • 8.8. Izolowanie kolorów
  • 8.9. Progowanie obrazu
  • 8.10. Usuwanie tła obrazu
  • 8.11. Wykrywanie krawędzi
  • 8.12. Wykrywanie narożników w obrazie
  • 8.13. Tworzenie cech w uczeniu maszynowym
  • 8.14. Użycie histogramu koloru jako cechy
  • 8.15. Użycie wytrenowanych embeddingów jako cech
  • 8.16. Wykrywanie obiektów za pomocą OpenCV
  • 8.17. Klasyfikowanie obrazów za pomocą PyTorch

9. Redukcja wymiarowości za pomocą wyodrębniania cech

  • 9.0. Wprowadzenie
  • 9.1. Redukowanie cech za pomocą głównych składowych
  • 9.2. Redukowanie cech, gdy dane są liniowo nierozłączne
  • 9.3. Redukowanie cech przez maksymalizację rozłączności klas
  • 9.4. Redukowanie cech za pomocą rozkładu macierzy
  • 9.5. Redukowanie cech w rzadkich danych

10. Redukcja wymiarowości za pomocą wyboru cech

  • 10.0. Wprowadzenie
  • 10.1. Progowanie wariancji cechy liczbowej
  • 10.2. Progowanie wariancji cechy binarnej
  • 10.3. Obsługa wysoce skorelowanych cech
  • 10.4. Usuwanie nieistotnych dla klasyfikacji cech
  • 10.5. Rekurencyjne eliminowanie cech

11. Ocena modelu

  • 11.0. Wprowadzenie
  • 11.1. Modele sprawdzianu krzyżowego
  • 11.2. Tworzenie modelu regresji bazowej
  • 11.3. Tworzenie modelu klasyfikacji bazowej
  • 11.4. Ocena prognoz klasyfikatora binarnego
  • 11.5. Ocena progowania klasyfikatora binarnego
  • 11.6. Ocena prognoz klasyfikatora wieloklasowego
  • 11.7. Wizualizacja wydajności klasyfikatora
  • 11.8. Ocena modelu regresji
  • 11.9. Ocena modelu klasteryzacji
  • 11.10. Definiowanie niestandardowych współczynników oceny modelu
  • 11.11. Wizualizacja efektu wywieranego przez wielkość zbioru uczącego
  • 11.12. Tworzenie raportu tekstowego dotyczącego współczynnika oceny
  • 11.13. Wizualizacja efektu wywieranego przez zmianę wartości hiperparametrów

12. Wybór modelu

  • 12.0. Wprowadzenie
  • 12.1. Wybór najlepszych modeli przy użyciu wyczerpującego wyszukiwania
  • 12.2. Wybór najlepszych modeli za pomocą przeszukiwania losowego
  • 12.3. Wybór najlepszych modeli z wielu algorytmów uczenia maszynowego
  • 12.4. Wybór najlepszych modeli na etapie przygotowywania danych
  • 12.5. Przyspieszanie wyboru modelu za pomocą równoległości
  • 12.6. Przyspieszanie wyboru modelu przy użyciu metod charakterystycznych dla algorytmu
  • 12.7. Ocena wydajności po wyborze modelu

13. Regresja liniowa

  • 13.0. Wprowadzenie
  • 13.1. Wyznaczanie linii
  • 13.2. Obsługa wpływu interakcji
  • 13.3. Wyznaczanie zależności nieliniowej
  • 13.4. Redukowanie wariancji za pomocą regularyzacji
  • 13.5. Redukowanie cech za pomocą regresji metodą LASSO

14. Drzewa i lasy

  • 14.0. Wprowadzenie
  • 14.1. Trenowanie klasyfikatora drzewa decyzyjnego
  • 14.2. Trenowanie regresora drzewa decyzyjnego
  • 14.3. Wizualizacja modelu drzewa decyzyjnego
  • 14.4. Trenowanie klasyfikatora losowego lasu
  • 14.5. Trenowanie regresora losowego lasu
  • 14.6. Ocena losowego lasu za pomocą estymatora błędu out-of-bag
  • 14.7. Identyfikacja ważnych cech w losowych lasach
  • 14.8. Wybór ważnych cech w losowym lesie
  • 14.9. Obsługa niezrównoważonych klas
  • 14.10. Kontrolowanie wielkości drzewa
  • 14.11. Poprawa wydajności za pomocą wzmocnienia
  • 14.12. Wytrenowanie modelu XGBoost
  • 14.13. Poprawianie wydajności w czasie rzeczywistym za pomocą LightGBM

15. Algorytm k najbliższych sąsiadów

  • 15.0. Wprowadzenie
  • 15.1. Wyszukiwanie najbliższych sąsiadów obserwacji
  • 15.2. Tworzenie klasyfikatora k najbliższych sąsiadów
  • 15.3. Ustalanie najlepszej wielkości sąsiedztwa
  • 15.4. Tworzenie klasyfikatora najbliższych sąsiadów opartego na promieniu
  • 15.5. Wyszukiwanie przybliżonych najbliższych sąsiadów
  • 15.6. Ocena przybliżonych najbliższych sąsiadów

16. Regresja logistyczna

  • 16.0. Wprowadzenie
  • 16.1. Trenowanie klasyfikatora binarnego
  • 16.2. Trenowanie klasyfikatora wieloklasowego
  • 16.3. Redukcja wariancji poprzez regularyzację
  • 16.4. Trenowanie klasyfikatora na bardzo dużych danych
  • 16.5. Obsługa niezrównoważonych klas

17. Maszyna wektora nośnego

  • 17.0. Wprowadzenie
  • 17.1. Trenowanie klasyfikatora liniowego
  • 17.2. Obsługa liniowo nierozdzielnych klas przy użyciu funkcji jądra
  • 17.3. Określanie prognozowanego prawdopodobieństwa
  • 17.4. Identyfikacja wektorów nośnych
  • 17.5. Obsługa niezrównoważonych klas

18. Naiwny klasyfikator bayesowski

  • 18.0. Wprowadzenie
  • 18.1. Trenowanie klasyfikatora dla cech ciągłych
  • 18.2. Trenowanie klasyfikatora dla cech dyskretnych lub liczebnych
  • 18.3. Trenowanie naiwnego klasyfikatora bayesowskiego dla cech binarnych
  • 18.4. Kalibrowanie prognozowanego prawdopodobieństwa

19. Klasteryzacja

  • 19.0. Wprowadzenie
  • 19.1. Klasteryzacja za pomocą k średnich
  • 19.2. Przyspieszanie klasteryzacji za pomocą k średnich
  • 19.3. Klasteryzacja za pomocą algorytmu meanshift
  • 19.4. Klasteryzacja za pomocą algorytmu DBSCAN
  • 19.5. Klasteryzacja za pomocą łączenia hierarchicznego

20. Tensory w PyTorch

  • 20.0. Wprowadzenie
  • 20.1. Utworzenie tensora
  • 20.2. Utworzenie tensora z poziomu NumPy
  • 20.3. Utworzenie tensora rzadkiego
  • 20.4. Wybór elementów tensora
  • 20.5. Opisanie tensora
  • 20.6. Przeprowadzanie operacji na elementach tensora
  • 20.7. Wyszukiwanie wartości minimalnej i maksymalnej
  • 20.8. Zmiana kształtu tensora
  • 20.9. Transponowanie tensora
  • 20.10. Spłaszczanie tensora
  • 20.11. Obliczanie iloczynu skalarnego
  • 20.12. Mnożenie tensorów

21. Sieci neuronowe

  • 21.0. Wprowadzenie
  • 21.1. Używanie silnika Autograd frameworka PyTorch
  • 21.2. Przygotowywanie danych dla sieci neuronowej
  • 21.3. Projektowanie sieci neuronowej
  • 21.4. Trenowanie klasyfikatora binarnego
  • 21.5. Trenowanie klasyfikatora wieloklasowego
  • 21.6. Trenowanie regresora
  • 21.7. Generowanie prognoz
  • 21.8. Wizualizacja historii trenowania
  • 21.9. Redukcja nadmiernego dopasowania za pomocą regularyzacji wagi
  • 21.10. Redukcja nadmiernego dopasowania za pomocą techniki wcześniejszego zakończenia procesu uczenia
  • 21.11. Redukcja nadmiernego dopasowania za pomocą techniki porzucenia
  • 21.12. Zapisywanie postępu modelu uczącego
  • 21.13. Dostrajanie sieci neuronowej
  • 21.14. Wizualizacja sieci neuronowej

22. Sieci neuronowe dla danych pozbawionych struktury

  • 22.0. Wprowadzenie
  • 22.1. Wytrenowanie sieci neuronowej na potrzeby klasyfikacji obrazów
  • 22.2. Wytrenowanie sieci neuronowej na potrzeby klasyfikacji tekstu
  • 22.3. Dostrajanie wytrenowanego modelu na potrzeby klasyfikacji obrazu
  • 22.4. Dostrajanie wytrenowanego modelu na potrzeby klasyfikacji tekstu

23. Zapisywanie, wczytywanie i udostępnianie wytrenowanych modeli

  • 23.0. Wprowadzenie
  • 23.1. Zapisywanie i wczytywanie modelu biblioteki scikit-learn
  • 23.2. Zapisywanie i wczytywanie modelu biblioteki TensorFlow
  • 23.3. Zapisywanie i wczytywanie modelu PyTorch
  • 23.4. Udostępnianie modeli scikit-learn
  • 23.5. Udostępnianie modeli TensorFlow
  • 23.6. Udostępnianie modeli PyTorch za pomocą Seldon
Kategoria: Programowanie
Zabezpieczenie: Watermark
Watermark
Watermarkowanie polega na znakowaniu plików wewnątrz treści, dzięki czemu możliwe jest rozpoznanie unikatowej licencji transakcyjnej Użytkownika. E-książki zabezpieczone watermarkiem można odczytywać na wszystkich urządzeniach odtwarzających wybrany format (czytniki, tablety, smartfony). Nie ma również ograniczeń liczby licencji oraz istnieje możliwość swobodnego przenoszenia plików między urządzeniami. Pliki z watermarkiem są kompatybilne z popularnymi programami do odczytywania ebooków, jak np. Calibre oraz aplikacjami na urządzenia mobilne na takie platformy jak iOS oraz Android.
ISBN: 978-83-289-0812-3
Rozmiar pliku: 5,1 MB

BESTSELLERY

Kategorie: