Facebook - konwersja

Wnioskowanie i związki przyczynowe w Pythonie. Nowoczesne uczenie maszynowe z wykorzystaniem bibliotek DoWhy, EconML, PyTorch i nie tylko - ebook

Wydawnictwo:
Tłumacz:
Data wydania:
28 maja 2024
Format ebooka:
EPUB
Format EPUB
czytaj
na czytniku
czytaj
na tablecie
czytaj
na smartfonie
Jeden z najpopularniejszych formatów e-booków na świecie. Niezwykle wygodny i przyjazny czytelnikom - w przeciwieństwie do formatu PDF umożliwia skalowanie czcionki, dzięki czemu możliwe jest dopasowanie jej wielkości do kroju i rozmiarów ekranu. Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na tablecie
Aby odczytywać e-booki na swoim tablecie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. Bluefire dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na czytniku
Czytanie na e-czytniku z ekranem e-ink jest bardzo wygodne i nie męczy wzroku. Pliki przystosowane do odczytywania na czytnikach to przede wszystkim EPUB (ten format możesz odczytać m.in. na czytnikach PocketBook) i MOBI (ten fromat możesz odczytać m.in. na czytnikach Kindle).
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na smartfonie
Aby odczytywać e-booki na swoim smartfonie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. iBooks dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
Produkt chwilowo niedostępny

Wnioskowanie i związki przyczynowe w Pythonie. Nowoczesne uczenie maszynowe z wykorzystaniem bibliotek DoWhy, EconML, PyTorch i nie tylko - ebook

W uczeniu maszynowym odkrywanie związków przyczynowych daje możliwości, jakich nie można uzyskać tradycyjnymi technikami statystycznymi. Najnowsze trendy w programowaniu pokazują, że przyczynowość staje się kluczowym zagadnieniem dla generatywnej sztucznej inteligencji. Niezbędna okazuje się więc znajomość grafów przyczynowych i zapytań konfrontacyjnych.

Dzięki tej książce łatwo przyswoisz teoretyczne podstawy i zaczniesz je płynnie wdrażać w rzeczywistych scenariuszach. Dowiesz się, w jaki sposób myślenie przyczynowe ułatwia rozwiązywanie problemów, i poznasz pojęcia Pearla, takie jak strukturalny model przyczynowy, interwencje, kontrfakty itp. Każde zagadnienie zostało dokładnie wyjaśnione i opatrzone zbiorem praktycznych ćwiczeń z kodem w Pythonie. Nauczysz się także implementować poszczególne modele i zrozumiesz, czym się kierować przy wyborze technik i algorytmów do rozwiązywania konkretnych scenariuszy przyczynowych. To przewodnik, który docenią szczególnie inżynierowie uczenia maszynowego i analitycy danych.

W książce:

  • wnioskowanie związków przyczynowych
  • budowa i działanie strukturalnych modeli przyczynowych
  • czteroetapowy proces wnioskowania związków przyczynowych w Pythonie
  • techniki modelowania efektu interwencji
  • nowoczesne metody odkrywania związków przyczynowych za pomocą Pythona
  • korzystanie z wnioskowania związków przyczynowych

Przyczyna i skutek, nic więcej. Pomyłki jako takie nie istnieją...

Jose Antonio Cotrina, hiszpański pisarz science fiction

Spis treści

O autorze

O recenzentach

Podziękowania

Słowo wstępne

Przedmowa

CZĘŚĆ 1. Przyczynowość - wprowadzenie

Rozdział 1. Związki przyczynowe? Przecież jest uczenie maszynowe, więc po co zawracać sobie tym głowę?

  • Krótka historia przyczynowości
  • Dlaczego przyczynowość? Zapytaj dzieci!
    • Interakcje ze światem
    • Zakłócenia - związki, które nie są prawdziwe
  • Jak nie stracić pieniędzy. i ludzkich istnień
    • Dylemat marketera
    • Pobawmy się w doktora!
    • Asocjacje w realnym świecie
  • Podsumowanie
  • Bibliografia

Rozdział 2. Judea Pearl i drabina przyczynowości

  • Od asocjacji do logiki i wyobraźni. Drabina przyczynowości
  • Asocjacje
    • Ćwiczenie
  • Czym są interwencje?
    • Zmienianie świata
    • Korelacja i przyczynowość
  • Czym są kontrfakty?
    • Zanurzmy się w dziwactwa (zapis formalny)
    • Podstawowy problem wnioskowania przyczynowego
    • Obliczanie kontrfaktów
    • Czas na kodowanie!
  • Dodatek. Czym jest uczenie maszynowe z perspektywy przyczynowości?
    • Przyczynowość a uczenie ze wzmocnieniem
    • Przyczynowość a uczenie półnadzorowane i nienadzorowane
  • Podsumowanie
  • Bibliografia

Rozdział 3. Regresja, obserwacje i interwencje

  • Wprowadzenie. Dane obserwacyjne a regresja liniowa
    • Regresja liniowa
    • Wartości p i istotność statystyczna
    • Interpretacja geometryczna regresji liniowej
    • Odwrócenie kolejności
  • Czy zawsze należy kontrolować wszystkie dostępne współzmienne?
    • Poruszanie się po labiryncie
    • Jeśli nie wiesz, dokąd zmierzasz, możesz trafić gdzie indziej
    • Pójdźmy dalej!
    • Kontrolować czy nie kontrolować?
  • Modele regresyjne a modele strukturalne
    • Modele SCM
    • Regresja liniowa a modele SCM
    • Szukanie powiązania
    • Regresja a skutki przyczynowe
  • Podsumowanie
  • Bibliografia

Rozdział 4. Modele grafów

  • Grafy, grafy, grafy
    • Rodzaje grafów
    • Reprezentacje grafów
    • Grafy w Pythonie
  • Czym jest model grafów?
  • Skierowane grafy acykliczne w świecie związków przyczynowych
    • Definicje przyczynowości
    • Grafy DAG a przyczynowość
    • Formalna definicja grafów DAG
    • Ograniczenia grafów DAG
  • Źródła grafów przyczynowych w świecie rzeczywistym
    • Odkrywanie związków przyczynowych
    • Wiedza ekspercka
    • Połączenie technik odkrywania związków przyczynowych i wiedzy eksperckiej
  • Dodatek. Czy można opisywać związki przyczynowe bez grafów DAG?
    • Układy dynamiczne
    • Cykliczne modele SCM
  • Podsumowanie
  • Bibliografia

Rozdział 5. Rozwidlenia, łańcuchy i kolidery

  • Grafy i rozkłady oraz sposoby mapowania między nimi
    • Jak opisywać niezależność?
    • Wybór właściwego kierunku
    • Warunki i założenia
  • Łańcuchy, rozwidlenia i kolidery
    • Łańcuch zdarzeń
    • Łańcuchy
    • Rozwidlenia
    • Kolidery lub struktury v
    • Przypadki niejednoznaczne
  • Rozwidlenia, łańcuchy, kolidery i regresja
    • Tworzenie zbioru danych dla łańcucha
    • Tworzenie zestawu danych dla rozwidlenia
    • Tworzenie zbioru danych dla kolidera
    • Dopasowanie modeli regresji
  • Podsumowanie
  • Bibliografia

CZĘŚĆ 2. Wnioskowanie związków przyczynowych

Rozdział 6. Węzły, krawędzie i statystyczna (nie)zależność

  • Zadbaj o separację d!
    • Trening czyni mistrza - separacja d
  • Najpierw estymandy!
    • Żyjemy w świecie estymatorów
    • Czym są estymandy?
  • Kryterium back-door
    • Czym jest kryterium back-door?
    • Kryterium back-door a estymandy równoważne
  • Kryterium front-door
    • Czy GPS może nas wyprowadzić na manowce?
    • Londyńskie taksówki i magiczny kamień
    • Otwarcie frontowych drzwi
    • Trzy proste kroki w kierunku kryterium front-door
    • Kryterium front-door w praktyce
  • Czy są jakieś inne kryteria? Zastosujmy rachunek do!
    • Trzy zasady rachunku do
    • Zmienne instrumentalne
  • Podsumowanie
  • Odpowiedź
  • Bibliografia

Rozdział 7. Czteroetapowy proces wnioskowania przyczynowego

  • Wprowadzenie do bibliotek DoWhy i EconML
    • Ekosystem analizy przyczynowej Pythona
    • Dlaczego DoWhy?
    • Czym jest pakiet DoWhy?
    • A co z biblioteką EconML?
  • Krok 1. Modelowanie problemu
    • Utworzenie grafu
    • Tworzenie obiektu CausalModel
  • Krok 2. Identyfikacja estymand
  • Krok 3. Wyznaczanie oszacowań
  • Krok 4. Zestaw walidacyjny. Testy obalające
    • Jak walidować modele przyczynowe?
    • Wprowadzenie do testów obalających
  • Pełny przykład
    • Krok 1. Zakodowanie założeń
    • Krok 2. Wyznaczenie estymandy
    • Krok 3. Wyznaczenie oszacowania
    • Krok 4. Obalenie oszacowania
  • Podsumowanie
  • Bibliografia

Rozdział 8. Modele przyczynowe. Założenia i wyzwania

  • Jestem królem świata! Czy rzeczywiście tak jest?
    • Gdzieś pośrodku
    • Identyfikowalność
    • Brak grafów przyczynowych
    • Za mało danych
    • Nieweryfikowalne założenia
    • Słoń w pokoju - nadzieja czy beznadzieja?
    • Zjedzmy słonia
  • Dodatniość
  • Wymienność
    • Podmioty wymienne
    • Wymienność a zakłócenia
  • .i inne
    • Modułowość
    • SUTVA
    • Spójność
  • Nazywaj mnie po imieniu - relacje pozorne
    • Nazwy, nazwy, nazwy
    • Czy powinienem zapytać Ciebie, czy kogoś, kogo tu nie ma?
    • Stwórzcie graf DAG!
    • Dodatkowe informacje o stronniczości wyboru
  • Podsumowanie
  • Bibliografia

Rozdział 9. Wnioskowanie związków przyczynowych i uczenie maszynowe - od dopasowywania do metalearnerów

  • Podstawy I. Dopasowywanie
    • Rodzaje dopasowywania
    • Efekty interwencji - ATE w porównaniu z ATT i ATC
    • Estymatory dopasowywania
    • Implementacja dopasowywania
  • Podstawy II. Współczynniki skłonności
    • Dopasowywanie w praktyce
    • Zmniejszenie wymiarowości za pomocą współczynników skłonności
    • Dopasowywanie współczynników skłonności (PSM)
  • Odwrotne ważenie prawdopodobieństwa (IPW)
    • Wiele twarzy współczynników skłonności
    • Formalizacja techniki IPW
    • Implementacja IPW
    • IPW - względy praktyczne
  • S-Learner - samotny stróż
    • Diabeł tkwi w szczegółach
    • Mamo, tato, poznajcie CATE
    • Żarty na bok. Pozdrowienia dla heterogenicznego tłumu
    • Machanie flagą założeń
    • Jesteś jedyny. Modelowanie z wykorzystaniem techniki S-Learner
    • Dane o niewielkiej objętości
    • Słabe punkty modelu S-Learner
  • T-Learner. Razem możemy więcej
    • Wymuszenie właściwego podziału zmiennych
    • T-Learner w czterech krokach i wzory
    • Implementacja modelu T-Learner
  • X-Learner. Krok dalej
    • Wyciskanie cytryny
    • Rekonstrukcja modelu X-Learner
    • X-Learner. Formuła alternatywna
    • Implementacja X-Learner
  • Podsumowanie
  • Bibliografia

Rozdział 10. Wnioskowanie związków przyczynowych iuczenie maszynowe - zaawansowane estymatory, eksperymenty, oceny i nietylko

  • Metody DR. Spróbujmy uzyskać więcej!
    • Czy potrzebujemy czegoś więcej?
    • Podwójnie wzmocniony nie oznacza niezniszczalny...
    • ...ale pozwala wiele zyskać
    • Sekretny, podwójnie mocny sos
    • Estymator DR a założenia
    • DR-Learner. Przechodzenie nad przepaścią
    • Modele DR-Learner - opcje dodatkowe
    • Ukierunkowany estymator maksymalnego prawdopodobieństwa
  • Jeśli uczenie maszynowe jest fajne, to co powiesz na podwójne uczenie maszynowe?
    • Dlaczego DML i co jest w nim podwójnego?
    • Implementacja DML za pomocą bibliotek DoWhy i EconML
    • Dostrajanie hiperparametrów za pomocą bibliotek DoWhy i EconML
    • Czy DML jest srebrną kulą?
    • Techniki DR a DML
    • Co z tego będę miał?
  • Lasy przyczynowe i nie tylko
    • Drzewa przyczynowe
    • Przepełnienia lasów
    • Zalety lasów przyczynowych
    • Lasy przyczynowe z wykorzystaniem bibliotek
    • DoWhy i EconML
  • Niejednorodne efekty interwencji z danymi eksperymentalnymi - odyseja upliftingu
    • Dane
    • Wybór frameworka
    • Nie znamy połowy tej historii
    • Wyzwanie Kevina
    • Otwarcie skrzynki z narzędziami
    • Modele uplift a wydajność
    • Inne wskaźniki dla wyników ciągłych z wieloma interwencjami
    • Przedziały ufności
    • Zwycięski wynik w wyzwaniu Kevina
    • Kiedy należy stosować estymatory CATE dla danych eksperymentalnych?
    • Wybór modelu. Uproszczony przewodnik
  • Dodatek. Objaśnienia kontrfaktyczne
    • Zła wola czy nieodpowiednia technologia?
  • Podsumowanie
  • Bibliografia

Rozdział 11. Wnioskowanie związków przyczynowych iuczenie maszynowe - uczenie głębokie, przetwarzanie języka naturalnegoi inne techniki

  • Wykorzystanie technik uczenia głębokiego do wyznaczania heterogenicznych efektów interwencji
    • Wskaźniki CATE sięgają głębiej
    • SNet
  • Transformatory i wnioskowanie związków przyczynowych
    • Teoria znaczenia w pięciu akapitach
    • Co zrobić, by komputery rozumiały język naturalny?
    • Od filozofii do kodu Pythona
    • Modele LLM a przyczynowość
    • Trzy scenariusze
    • CausalBert
  • Przyczynowość i szeregi czasowe, czyli kiedy ekonometryk przechodzi na Bayesa
    • Metody quasi-eksperymentalne
    • Przejęcie Twittera i wzorce googlowania
    • Logika syntetycznych kontroli
    • Wizualne wprowadzenie do logiki kontroli syntetycznej
    • Na początek dane
    • Kontrola syntetyczna w kodzie
    • Wyzwania
  • Podsumowanie
  • Bibliografia

CZĘŚĆ 3. Odkrywanie związków przyczynowych

Rozdział 12. Czy można prosić o graf przyczynowy?

  • Źródła wiedzy przyczynowej
    • Zalew informacji
    • Siła zaskoczenia
  • Spostrzeżenia naukowe
    • Logika nauki
    • Hipotezy są gatunkiem
    • Jedna logika, wiele dróg
    • Eksperymenty kontrolowane
    • Randomizowane badania kontrolowane
    • Od eksperymentów do grafów
    • Symulacje
  • Osobiste doświadczenia i wiedza dziedzinowa
    • Osobiste doświadczenia
    • Wiedza dziedzinowa
  • Uczenie się struktury przyczynowej
  • Podsumowanie
  • Bibliografia

Rozdział 13. Odkrywanie związków przyczynowych i uczenie maszynowe - od założeń do zastosowań

  • Odkrywanie związków przyczynowych - przypomnienie informacji o założeniach
    • Przygotowania
    • Należy zawsze dążyć do zapewnienia wierności...
    • ...ale czasami to jest trudne
    • Minimalizm jest cnotą
  • Cztery (i pół) rodziny
    • Cztery strumienie
  • Wprowadzenie do pakietu gCastle
    • Witaj, gCastle!
    • Dane syntetyczne w gCastle
    • Dopasowywanie pierwszego modelu odkrywania związków przyczynowych
    • Wizualizacja modelu
    • Wskaźniki oceny modelu
  • Odkrywanie związków przyczynowych oparte na ograniczeniach
    • Ograniczenia i niezależność
    • Wykorzystanie struktury niezależności w celu odtworzenia grafu
    • Algorytm PC - ukryte wyzwania
    • Algorytm PC dla danych kategorialnych
  • Odkrywanie związków przyczynowych na podstawie punktacji
    • Tabula rasa - zaczynamy od nowa
    • GES - punktacja
    • Algorytm GES w bibliotece gCastle
  • Funkcyjne odkrywanie związków przyczynowych
    • Błogosławieństwa asymetrii
    • Model ANM
    • Ocena niezależności
    • Czas na LiNGAM
  • Odkrywanie związków przyczynowych oparte na gradientach
    • Czym jest ten gradient?
    • Proszę nie ronić łez!
    • Nie płacz, GOLEM!
    • Porównanie
  • Kodowanie wiedzy eksperckiej
    • Czym jest wiedza ekspercka?
    • Wiedza ekspercka w bibliotece gCastle
  • Podsumowanie
  • Bibliografia

Rozdział 14. Odkrywanie związków przyczynowych i uczenie maszynowe - zaawansowane uczenie głębokie i nie tylko

  • Zaawansowane odkrywanie związków przyczynowych za pomocą uczenia głębokiego
    • Od modeli generatywnych do przyczynowości
    • Spójrz wstecz, aby dowiedzieć się, kim jesteś
    • Elementy składowe frameworka DECI
    • Implementacja DECI
    • DECI to rozwiązanie kompleksowe
  • Odkrywanie związków przyczynowych w wypadku występowania ukrytych zakłóceń
    • Algorytm FCI
    • Inne podejścia do danych z zakłóceniami
  • Dodatek. Nie tylko obserwacje
    • ENCO
    • ABCI
  • Odkrywanie związków przyczynowych - praktyczne zastosowania, wyzwania i otwarte problemy
  • Podsumowanie
  • Bibliografia

Rozdział 15. Epilog

  • Czego nauczyłeś się z tej książki?
  • Pięć kroków do jak najlepszego wykorzystania projektów przyczynowych
    • Zadaj pytanie
    • Zdobądź wiedzę ekspercką
    • Wygeneruj hipotetyczny graf (grafy)
    • Sprawdź identyfikowalność
    • Dokonaj falsyfikacji hipotez
  • Przyczynowość w biznesie
    • Jak eksperci analizy przyczynowej przechodzą od wizji do implementacji?
  • Przyszłość przyczynowego uczenia maszynowego
    • Gdzie jesteśmy dziś i dokąd zmierzamy?
    • Wskaźniki przyczynowe
    • Fuzja danych przyczynowych
    • Agenty interwencji
    • Uczenie się struktury przyczynowej
    • Uczenie się przez naśladowanie
  • Studiowanie przyczynowości
  • Pozostańmy w kontakcie
  • Podsumowanie
  • Bibliografia

Skorowidz

Kategoria: Programowanie
Zabezpieczenie: Watermark
Watermark
Watermarkowanie polega na znakowaniu plików wewnątrz treści, dzięki czemu możliwe jest rozpoznanie unikatowej licencji transakcyjnej Użytkownika. E-książki zabezpieczone watermarkiem można odczytywać na wszystkich urządzeniach odtwarzających wybrany format (czytniki, tablety, smartfony). Nie ma również ograniczeń liczby licencji oraz istnieje możliwość swobodnego przenoszenia plików między urządzeniami. Pliki z watermarkiem są kompatybilne z popularnymi programami do odczytywania ebooków, jak np. Calibre oraz aplikacjami na urządzenia mobilne na takie platformy jak iOS oraz Android.
ISBN: 978-83-289-0833-8
Rozmiar pliku: 13 MB

BESTSELLERY

Kategorie: