Facebook - konwersja
Czytaj fragment
Pobierz fragment

Ekonometria i badania operacyjne - ebook

Data wydania:
1 stycznia 2021
Format ebooka:
EPUB
Format EPUB
czytaj
na czytniku
czytaj
na tablecie
czytaj
na smartfonie
Jeden z najpopularniejszych formatów e-booków na świecie. Niezwykle wygodny i przyjazny czytelnikom - w przeciwieństwie do formatu PDF umożliwia skalowanie czcionki, dzięki czemu możliwe jest dopasowanie jej wielkości do kroju i rozmiarów ekranu. Więcej informacji znajdziesz w dziale Pomoc.
Multiformat
E-booki w Virtualo.pl dostępne są w opcji multiformatu. Oznacza to, że po dokonaniu zakupu, e-book pojawi się na Twoim koncie we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu.
, MOBI
Format MOBI
czytaj
na czytniku
czytaj
na tablecie
czytaj
na smartfonie
Jeden z najczęściej wybieranych formatów wśród czytelników e-booków. Możesz go odczytać na czytniku Kindle oraz na smartfonach i tabletach po zainstalowaniu specjalnej aplikacji. Więcej informacji znajdziesz w dziale Pomoc.
Multiformat
E-booki w Virtualo.pl dostępne są w opcji multiformatu. Oznacza to, że po dokonaniu zakupu, e-book pojawi się na Twoim koncie we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu.
(2w1)
Multiformat
E-booki sprzedawane w księgarni Virtualo.pl dostępne są w opcji multiformatu - kupujesz treść, nie format. Po dodaniu e-booka do koszyka i dokonaniu płatności, e-book pojawi się na Twoim koncie w Mojej Bibliotece we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu przy okładce. Uwaga: audiobooki nie są objęte opcją multiformatu.
czytaj
na tablecie
Aby odczytywać e-booki na swoim tablecie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. Bluefire dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na czytniku
Czytanie na e-czytniku z ekranem e-ink jest bardzo wygodne i nie męczy wzroku. Pliki przystosowane do odczytywania na czytnikach to przede wszystkim EPUB (ten format możesz odczytać m.in. na czytnikach PocketBook) i MOBI (ten fromat możesz odczytać m.in. na czytnikach Kindle).
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na smartfonie
Aby odczytywać e-booki na swoim smartfonie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. iBooks dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
Czytaj fragment
Pobierz fragment
64,00

Ekonometria i badania operacyjne - ebook

Nowy zbiór zadań z ekonometrii i badań operacyjnych w zakresie obowiązującym na studiach licencjackich uczelni ekonomicznych i humanistycznych.

Podręcznik łączy cechy takie jak:
• realizm i aktualność wykorzystanych danych w przypadku ekonometrii oraz różnorodność przykładów sytuacji decyzyjnych w przypadku badań operacyjnych
• koncentracja na podstawowym programie metod ilościowych, pozwalająca na wykorzystanie książki na wstępnych etapach edukacji ekonomicznej,
• ilustracja omawianych zagadnień przy użyciu pakietów komputerowych powszechnie dostępnych dla studentów.

Publikacja została napisana dla studentów, którzy poza teoretycznym podręcznikiem potrzebują rozwiązanych i przystępnie wyjaśnionych przykładów oraz zadań do samodzielnej pracy. Zawiera kilkadziesiąt starannie przemyślanych zadań, wprowadzających w arkana modelowania ekonometrycznego oraz praktykę badań operacyjnych.
Dodatkowym atutem książki jest dołączenie opisu pakietów komputerowych i języków programowania pozwalających na analizę bardziej zaawansowanych zagadnień z dziedziny ekonometrii i badań operacyjnych.

Kategoria: Ekonomia
Zabezpieczenie: Watermark
Watermark
Watermarkowanie polega na znakowaniu plików wewnątrz treści, dzięki czemu możliwe jest rozpoznanie unikatowej licencji transakcyjnej Użytkownika. E-książki zabezpieczone watermarkiem można odczytywać na wszystkich urządzeniach odtwarzających wybrany format (czytniki, tablety, smartfony). Nie ma również ograniczeń liczby licencji oraz istnieje możliwość swobodnego przenoszenia plików między urządzeniami. Pliki z watermarkiem są kompatybilne z popularnymi programami do odczytywania ebooków, jak np. Calibre oraz aplikacjami na urządzenia mobilne na takie platformy jak iOS oraz Android.
ISBN: 978-83-01-21852-2
Rozmiar pliku: 2,8 MB

FRAGMENT KSIĄŻKI

SŁOWO WSTĘPNE

Oddajemy w ręce Czytelnika zbiór zadań z ekonometrii i badań operacyjnych w zakresie obowiązującym na studiach licencjackich uczelni ekonomicznych i humanistycznych studentów, którzy nie planują specjalizacji w dziedzinie metod ilościowych. Na rynku wydawniczym brakuje nowoczesnej pozycji zawierającej zadania oparte na aktualnych danych ekonomicznych i realistycznych problemach decyzyjnych, zilustrowane za pomocą programów komputerowych dostępnych na polskich uczelniach. Wiele z zadań zawartych w książce to poprawione i rozbudowane wersje pytań z egzaminów w Szkole Głównej Handlowej w Warszawie w latach 2014–2019, a więc odzwierciedlają aktualne wymagania wiodących uczelni ekonomicznych z podstaw ekonometrii i badań operacyjnych. Dołożyliśmy starań, aby treść zadań opierała się na rzeczywistych danych lub, jeśli było to niemożliwe, ekonomicznie uzasadnionych założeniach i warunkach początkowych. Dodatkowym atutem książki jest dołączenie opisu programów komputerowych i języków programowania pozwalających na analizę bardziej zaawansowanych zagadnień z dziedziny ekonometrii i badań operacyjnych. Dodaliśmy też polsko-angielskie słowniczki – oddzielnie w zakresie ekonometrii i optymalizacji liniowej – w celu ułatwienia korzystania z anglojęzycznego oprogramowania i literatury.

Książka, którą Czytelnik ma przed sobą, to zbiór zadań – a zatem nie podajemy definicji, twierdzeń, wzorów, hipotez zerowych testów statystycznych itd. Prezentację fundamentów teoretycznych można znaleźć w każdym podstawowym podręczniku z zakresu ekonometrii i badań operacyjnych. Zalecane źródła wiedzy teoretycznej wymieniamy w bibliografii na końcu książki.

Serdecznie dziękujemy członkom zespołu prowadzącego wykłady i ćwiczenia z ekonometrii w Instytucie Ekonometrii Szkoły Głównej Handlowej w Warszawie w latach 2014–2019, czyli naszym współpracownikom i autorom większości zadań. Do napisania kilku z nich zainspirowali nas nasi studenci. Przypisanie autorstwa poszczególnych zadań konkretnym osobom nie było możliwe, więc pragniemy podziękować całej ekipie za wspólny wysiłek tworzenia w każdym semestrze akademickim kolejnych zestawów oryginalnych zadań. Mamy nadzieję, że wysiłek ten doceniali nasi studenci.1
Jednorównaniowy liniowy model ekonometryczny

Zaczniemy od estymacji parametrów, interpretacji i weryfikacji jednorównaniowego liniowego modelu ekonometrycznego. Jest to podstawowe narzędzie badania ilościowych zależności między zjawiskami zachodzącymi w gospodarce. Nieco bardziej zaawansowane metody analizy tych zjawisk (modele dynamiczne, nieliniowe, z jakościową zmienną objaśnianą) pojawią się w kolejnych rozdziałach.

Oszacowania (estymacji) parametrów modelu dokonamy za pomocą klasycznej metody najmniejszych kwadratów (KMNK). Następnie zinterpretujemy otrzymane oszacowania parametrów i dokonamy wszechstronnej oceny merytorycznej i statystycznej jakości modelu, w tym jego jakości predykcyjnej. W przykładzie 1.1 procedura ta jest przeprowadzona na podstawie długiego szeregu czasowego, a w przykładzie 1.2 – krótkiej próby w celu wskazania specyficznych wyzwań związanych z weryfikacją „małych” modeli. Przykłady zilustrowane są za pomocą programu gretl w wersji 2020b, ale Czytelnik może też korzystać z wcześniejszych wersji lub innych programów ekonometrycznych. Do dyspozycji mamy oprogramowanie komercyjne, jak Stata, SAS czy SPSS, ale też opcje nieodpłatne, wśród których dużą popularnością cieszą się języki programowania R oraz Python. O wybranych programach szerzej piszemy w części C.

Przykład 1.1

Oczekiwania podmiotów gospodarczych są kluczowym czynnikiem kształtującym ich zachowania i mającym znaczący wpływ na podejmowane decyzje; analizy oczekiwań tworzą jeden z najszybciej rozwijających się nurtów współczesnych nauk ekonomicznych. Gospodarstwa domowe na podstawie oczekiwań co do przyszłości podejmują decyzje na temat oszczędności i wydatków, a przedsiębiorcy – m.in. na temat inwestycji, polityki cenowej i wielkości zapasów. Eksperci z dziedziny makroekonomii na ich podstawie formułują prognozy, które następnie stają się elementem polityki gospodarczej państwa. Słowem, warto byłoby ustalić, od czego zależą oczekiwania podmiotów gospodarczych, bo wiedza ta pozwoli formułować kolejne wnioski na temat inwestycji, oszczędności, wydatków konsumpcyjnych itd.

Przypuśćmy, że jesteśmy zainteresowani wyjaśnieniem czynników kształtujących oczekiwania polskich przedsiębiorstw przemysłowych na temat koniunktury gospodarczej. Aby skonstruować model ekonometryczny i oszacować jego parametry, w pierwszej kolejności należy ustalić zmienną objaśnianą, zmienne objaśniające oraz postać funkcyjną modelu. Decyzja o postaci funkcyjnej jest na razie łatwa: niech to będzie najprostszy model liniowy (modele nieliniowe pojawią się w rozdziałach 3 i 4). Natomiast dobór zbioru zmiennych objaśniających to jedno z najtrudniejszych zadań w modelowaniu ekonometrycznym. Jakie czynniki ekonomiczne wpływają na oczekiwania przedsiębiorców na temat koniunktury? Na pewno bieżąca koniunktura, być może również ceny produkcji sprzedanej przemysłu (bo badamy oczekiwania przedsiębiorstw przemysłowych). Poza tym oczywiście wiele innych zmiennych, które na razie pominiemy, uznając, że mają one mniejsze znaczenie. Oprócz czynników ekonomicznych na oczekiwania z pewnością wpływają czynniki związane z otoczeniem politycznym i społecznym przedsiębiorców. Bardzo przydałaby się zmienna opisująca stopień „przyjazności” polityki państwa w stosunku do przedsiębiorców, ale ponieważ nie mamy dostępu do takich danych, jako zmienną zastępczą posłużymy się informacją o tym, która z partii politycznych sprawowała rządy w danym okresie. Dowiemy się dzięki temu, za rządów której partii przedsiębiorcy oceniali przyszłą koniunkturę jako najbardziej sprzyjającą, a której – najmniej. A może w ogóle nie ma to znaczenia?

W pliku Dane_koniunktura.gdt znajdują się następujące miesięczne dane z okresu styczeń 1997–grudzień 2019 (276 obserwacji):

KP prognoza ogólnej sytuacji gospodarczej w sektorze przetwórstwa przemysłowego (horyzont czasowy: trzy miesiące),

KB wskaźnik ogólnej sytuacji gospodarczej (diagnoza) w sektorze przetwórstwa przemysłowego,

CP wskaźnik cen produkcji sprzedanej przemysłu, analogiczny okres roku ubiegłego = 100,

poliPiS zmienna zero-jedynkowa przyjmująca wartość 1 w miesiącach, w których rządziło Prawo i Sprawiedliwość, i 0 w przeciwnym przypadku,

poliPO zmienna zero-jedynkowa przyjmująca wartość 1 w miesiącach, w których rządziła Platforma Obywatelska lub Akcja Wyborcza Solidarność, i 0 w przeciwnym przypadku,

poliSLD zmienna zero-jedynkowa przyjmująca wartość 1 w miesiącach, w których rządził Sojusz Lewicy Demokratycznej, i 0 w przeciwnym przypadku.

Zmienne opisujące koniunkturę (KP i KB) mają ciekawą konstrukcję: GUS wyznacza je jako salda odpowiedzi respondentów ankiety, czyli od odsetka przedsiębiorców deklarujących (lub oczekujących) poprawy koniunktury odejmuje odsetek przedsiębiorców deklarujących (lub oczekujących) pogorszenia koniunktury, pomijając respondentów, którzy w ankiecie zaznaczyli opcję „brak zmiany”. Wartości zmiennych KP i KB to przewaga (w punktach procentowych) optymistów nad pesymistami: im większa wartość, tym większą przewagę mają optymiści albo w ocenie sytuacji bieżącej (zmienna KB), albo w oczekiwaniach na przyszłość (zmienna KP). Zauważmy, że zmienne te mogą też przyjmować wartości ujemne, jeśli pesymistów jest więcej niż optymistów.

Zauważmy też, że nie możemy wprowadzić do modelu wszystkich trzech zmiennych „politycznych” jednocześnie, pozostawiając w nim wyraz wolny. (Czytelnikowi zaskoczonemu tym wnioskiem polecamy staranną lekturę założeń KMNK, w szczególności założenia dotyczącego pełnego rzędu kolumnowego macierzy zmiennych objaśniających). Musimy wybrać kategorię bazową, czyli tę spośród zmiennych zero-jedynkowych poliPiS, poliPO i poliSLD, która stanie się punktem odniesienia dla późniejszych interpretacji. Niech kategorią bazową będzie ta opcja polityczna, która w badanym okresie rządziła najdłużej (czyli była w pewnym sensie „typowa”). W tym celu wystarczy wyznaczyć średnie wartości zmiennych poliPiS, poliPO i poliSLD, ponieważ dla zmiennych zero-jedynkowych średnia arytmetyczna odpowiada odsetkowi „jedynek” w próbie. W głównym menu gretla należy wybrać opcję Widok → Statystyki opisowe i przenieść te trzy zmienne do prawego okienka. Wyniki przedstawione są na wydruku 1.1.

Wydruk 1.1. Statystyki opisowe zmiennych poliPiS, poliPO i poliSLD

Statystyki opisowe, dla obserwacji z próby 1997:01 - 2019:12

Zmienna Średnia Mediana S.D. Minimalna Maksymalna

poliSLD 0,210 0,000 0,408 0,000 1,00

poliPO 0,525 1,000 0,500 0,000 1,00

poliPiS 0,264 0,000 0,442 0,000 1,00

Najdłużej, bo przez ponad połowę długości próby, rządziła PO; ona zatem stanie się kategorią bazową dla zbioru zmiennych opisujących otoczenie polityczne przedsiębiorców.

Model przyjmuje zatem następującą postać:

(1.1)

(Uważny Czytelnik zaniepokoi się zapewne, że do wyjaśnienia oczekiwań w miesiącu t używamy danych o koniunkturze i cenach z tego samego okresu, podczas gdy nie są one jeszcze wtedy dostępne w sprawozdawczości statystycznej – i będzie miał rację. Wrócimy do tego tematu w przykładzie 2.1).

Zanim przystąpimy do estymacji parametrów modelu, sformułujmy oczekiwania na temat znaków (i, jeśli to możliwe, przybliżonej wartości) oszacowań parametrów. Pozwoli nam to później ocenić jakość modelu z punktu widzenia przydatności do celów wnioskowania ekonomicznego.

Przy zmiennej KB można się spodziewać dodatniego i bliskiego jedynki oszacowania parametru. Według literatury ekonomicznej długość cyklu koniunkturalnego trwa od kilkunastu kwartałów (w niektórych sektorach, np. w budownictwie) do kilkudziesięciu lat (tzw. cykle Kondratiewa), ale dane GUS dotyczą prognoz stanu koniunktury na najbliższe trzy miesiące. W takim horyzoncie czasowym prognoza ogólnej sytuacji gospodarczej nie powinna dramatycznie różnić się od oceny bieżącej sytuacji. Przy zmiennej CP również spodziewamy się dodatniego oszacowania parametru, ponieważ przedsiębiorstwa przemysłowe są w większości cenobiorcami. Wzrost cen produkcji sprzedanej przemysłu powinien zatem sprzyjać optymistycznej opinii na temat przyszłej koniunktury. Pamiętajmy jednak, że część tych cen dotyczy półproduktów i surowców, więc dodatnia zależność nie jest tak zupełnie oczywista. Natomiast deklarowane przez poszczególne partie polityczne programy sprzyjające przedsiębiorczości nie zawsze przekładają się na realne działania, więc na wszelki wypadek powstrzymajmy się od formułowania oczekiwań i pozwólmy danym powiedzieć, która z rządzących w ostatnich 23 latach partii politycznych została przez przedsiębiorców oceniona jako najbardziej sprzyjająca dobrej koniunkturze w krótkim okresie.

Aby oszacować parametry modelu ekonometrycznego, należy w głównym menu gretla wybrać opcję Model → Klasyczna metoda najmniejszych kwadratów i wskazać KP jako zmienną zależną (objaśnianą), a KB, CP, poliPiS i poliSLD jako regresory (zmienne objaśniające). Podstawowe wyniki estymacji są przedstawione na wydruku 1.2; elementy omówione dokładniej w dalszej części rozdziału zaznaczono pogrubioną czcionką.

Wydruk 1.2. Wyniki estymacji parametrów modelu oczekiwań koniunkturalnych

Estymacja KMNK, wykorzystane obserwacje 1997:01-2019:12 (N = 276)

Zmienna zależna (Y): KP

--------- -------------- ------------- ------------ ----------- -----
Współczynnik Błąd stand. t-Studenta Wartość p
const −95,2199 11,5070 −8,275 <0,0001 ***
KB 0,646256 0,0494528 13,07 <0,0001 ***
CP 0,982994 0,111957 8,780 <0,0001 ***
poliPiS −0,762977 0,974345 −0,7831 0,4343
poliSLD 3,88437 0,984787 3,944 0,0001 ***
--------- -------------- ------------- ------------ ----------- -----

------------------------ ----------- ------------------------ ----------
Średn.aryt.zm.zależnej 9,669565 Odch.stand.zm.zależnej 9,439215
Suma kwadratów reszt 10410,27 Błąd standardowy reszt 6,197925
Wsp. determ. R-kwadrat 0,575129 Skorygowany R-kwadrat 0,568857
F(4, 271) 91,71000 Wartość p dla testu F 3,36e-49
Logarytm wiarygodności −892,5874 Kryt. inform. Akaike’a 1795,175
Kryt. bayes. Schwarza 1813,277 Kryt. Hannana-Quinna 1802,439
Autokorel.reszt - rho1 0,879988 Stat. Durbina-Watsona 0,246355
------------------------ ----------- ------------------------ ----------

Podstawiając uzyskane oszacowania parametrów do wzoru 1.1, otrzymujemy z dokładnością do dwóch miejsc po przecinku:

(1.2)

W kolejnych przykładach modele będą prezentowane już w wersji oszacowanej, a zatem podkreślmy różnice między wzorami 1.1 a 1.2. Mianowicie, parametry βi zostały zastąpione ich oszacowaniami KMNK, czyli konkretnymi wartościami liczbowymi. Składnik losowy εt zniknął z zapisu, ponieważ jego wartość oczekiwana, zgodnie z założeniami klasycznej metody najmniejszych kwadratów, jest równa zero. „Daszek” nad nazwą zmiennej objaśnianej oznacza, że parametry modelu zostały oszacowane KMNK.

Nasze oczekiwania co do znaków oszacowań parametrów przy zmiennych KB i CP sprawdziły się. Dokładniej, wzrost przewagi optymistów nad pesymistami (w ocenie bieżącej sytuacji) o 1 punkt procentowy przekłada się na wzrost przewagi optymistów w ocenie przyszłej koniunktury średnio o ok. 0,65 punktu procentowego, przy innych zmiennych ustalonych (inaczej: ceteris paribus, z łac. „inne takie samo”). Jest to nieco mniej niż jedynka, której się spodziewaliśmy (w zad. 1.1 sprawdzimy, czy byliśmy wystarczająco blisko), ale znak oszacowania jest sensowny, a jego wartość nie budzi zasadniczych zastrzeżeń. Wzrost cen produkcji sprzedanej przemysłu o 1 punkt procentowy w porównaniu z analogicznym okresem roku ubiegłego oznacza wzrost przewagi optymistów w ocenie przyszłej koniunktury średnio o niecały 1 punkt procentowy, przy innych zmiennych ustalonych. Dodatni znak oszacowania znów jest zgodny z naszymi wstępnymi przypuszczeniami.

A co z wpływem otoczenia politycznego? Pamiętajmy, że punktem odniesienia dla interpretacji oszacowań parametrów przy zmiennych poliPiS i poliSLD są miesiące, w których rządziła PO. Zatem w okresach rządów PiS oczekiwania przedsiębiorców były nieco mniej optymistyczne (średnio o ok. 0,76 punktu procentowego) niż za rządów PO, ceteris paribus; natomiast w okresach rządów SLD były wyraźnie bardziej optymistyczne (średnio o ok. 3,88 punktu procentowego) niż za rządów PO, ceteris paribus.

Czy jednak wybrane przez nas zmienne objaśniające mają statystycznie istotny wpływ na kształtowanie się zmiennej objaśnianej? Na to pytanie pozwalają odpowiedzieć dwie ostatnie kolumny wydruku 1.2. Niezależnie od tego, czy posłużymy się statystykami t-Studenta i odpowiednią wartością krytyczną rozkładu t-Studenta (w gretlu znajdziemy ją wybierając Narzędzia → Tablice statystyczne → t), czy empirycznymi poziomami istotności p, dojdziemy do wniosku, że zmienne KB, CP i poliSLD są istotne statystycznie, a zmienna poliPiS – nie. Wniosek ten jest niezależny od przyjętego krytycznego poziomu istotności α, ale przypomnijmy, że standardowy wynosi 0,05. (Przez „krytyczny poziom istotności” będziemy rozumieć prawdopodobieństwo popełnienia błędu I rodzaju, czyli odrzucenia prawdziwej hipotezy zerowej). Ocena bieżącego stanu koniunktury oraz indeks cen produkcji sprzedanej przemysłu mają statystycznie istotny wpływ na kształtowanie się oczekiwań koniunkturalnych; SLD, w porównaniu z PO, nastrajało przedsiębiorców przemysłowych bardziej optymistycznie co do koniunktury w najbliższych miesiącach. Różnice w poziomie optymizmu generowanego przez PO i PiS są niewielkie co do wartości bezwzględnej i nieistotne statystycznie.

Dodajmy jeszcze, że gwiazdki zamieszczone w ostatniej kolumnie wydruku 1.2 pomagają w szybkiej ocenie istotności poszczególnych zmiennych objaśniających. Zmienne oznaczone jedną gwiazdką są istotne statystycznie na poziomie istotności 0,10; oznaczone dwiema gwiazdkami – na poziomie istotności 0,05 (oraz, oczywiście, 0,10); oznaczone trzema gwiazdkami – na każdym typowym poziomie istotności, czyli 0,01, 0,05 i 0,10. Nie należy się jednak przywiązywać do graficznych oznaczeń poziomów istotności: nie istnieje jednolity standard, różne programy ekonometryczne robią to w różny sposób (por. omówienie programu R w części C).

Jeśli zmiennych objaśniających w modelu jest wiele, testowanie istotności zmiennych objaśniających warto zacząć od testu Walda. Według wydruku 1.2 wartość statystyki testowej wynosi 91,71, a empiryczny poziom istotności 3,36 ∙ 10-49, czyli jest bardzo bliski zera. Na każdym krytycznym poziomie istotności mamy podstawy do odrzucenia hipotezy zerowej o nieistotności wszystkich zmiennych objaśniających na rzecz hipotezy alternatywnej, że przynajmniej jedna ze zmiennych jest istotna statystycznie – a która (lub które), dowiadujemy się z testów istotności t-Studenta dla poszczególnych zmiennych.

Syntetyczną miarą statystycznej jakości modelu (choć niepozbawioną wad, o czym należy pamiętać!) jest współczynnik determinacji R². Z wydruku 1.2 jego wartość odczytujemy jako ok. 0,58, a zatem skonstruowany przez nas model w 58% tłumaczy kształtowanie się (zmienność) zmiennej objaśnianej. Nie jest to wynik satysfakcjonujący: w modelu opartym na makroekonomicznych szeregach czasowych możemy spodziewać się stopnia wyjaśnienia powyżej 90%. Jest to pierwszy sygnał, że nasz model nie jest idealny i będzie wymagał poprawek. Być może brakuje w nim zmiennych objaśniających opisujących np. koszt kredytu czy stan rynku finansowego – te czynniki też zapewne mają wpływ na poziom optymizmu przedsiębiorców. Pamiętajmy też, że nic nie stoi na przeszkodzie, żeby do liniowego (względem parametrów) modelu ekonometrycznego dołączyć zmienne objaśniające będące kwadratami, logarytmami lub innymi nieliniowymi przekształceniami wyjściowych zmiennych, jeśli mogą one pomóc w wyjaśnieniu wahań zmiennej objaśnianej.

Drugą miarą ogólnego dopasowania modelu do danych są kryteria informacyjne, w tym najczęściej stosowane w praktyce kryterium Akaike’a (AIC). Na wydruku 1.2 jego wartość wynosi 1795,175. Sama liczba nie ma użytecznej interpretacji, służy jedynie do porównań modeli o tej samej zmiennej objaśnianej: im niższa wartość, tym nasz model jest „bliższy” modelu idealnego. Wrócimy do AIC w przykładzie 2.1, gdy będziemy mieli inny model do skonfrontowania z modelem z wydruku 1.2.

Kolejne etapy weryfikacji modelu dotyczą jego jakości statystycznej. Jak pamiętamy, warunkiem zachowania przez estymatory KMNK pożądanych własności jest spełnienie czterech założeń twierdzenia Gaussa–Markowa, z których szczególnie kłopotliwe w praktyce jest założenie o sferyczności składnika losowego. Aby było spełnione, składnik losowy modelu nie może wykazywać ani autokorelacji, ani heteroskedastyczności.

W dużej próbie, z którą mamy do czynienia (liczba stopni swobody wynosi df = N – (k + 1) = 276 – (4 + 1) = 271; N to liczba obserwacji, a k – zmiennych objaśniających), odpowiednia jest któraś z wersji asymptotycznego testu autokorelacji mnożnika Lagrange’a. Wybieramy opcję Testy → Testy autokorelacji → Rząd opóźnienia dla testu = 12 (ponieważ dane, na podstawie których szacowane są parametry modelu, mają miesięczną częstotliwość).

Wydruk 1.3. Wynik testu autokorelacji rzędu 12

Test Breuscha-Godfreya na autokorelację do rzędu 12

Statystyka testu: LMF = 80,894127, z wartością p = P(F(12,259) > 80,8941) = 2,6e-080

Gretl podaje jeszcze wartości dwóch dodatkowych statystyk o innych rozkładach, ale zazwyczaj prowadzą one do tych samych wniosków; dla uproszczenia zawsze będziemy się posługiwać (pierwszą na tej liście) statystyką o rozkładzie F. Empiryczny poziom istotności jest bliski zera, a zatem mamy podstawy do odrzucenia hipotezy zerowej o braku autokorelacji składnika losowego od rzędu 1 do 12 na rzecz hipotezy alternatywnej, że mamy do czynienia z autokorelacją przynajmniej jednego rzędu między 1 a 12. Ze szczegółowych wyników estymacji (por. wydruk 1.4) można wywnioskować, że tylko dwie zmienne opisujące opóźnione reszty są istotne statystycznie: uhat_1, czyli pierwsze opóźnienie (z oszacowaniem równym ok. 0,95) oraz uhat_8, czyli ósme opóźnienie (z oszacowaniem równym ok. –0,23).

Wydruk 1.4. Szczegółowe wyniki testu autokorelacji mnożnika Lagrange’a rzędu 12: równanie testowe

Test Breuscha-Godfreya na autokorelację do rzędu 12

Estymacja KMNK, wykorzystane obserwacje 1997:01-2019:12 (N = 276)

Zmienna zależna (Y): uhat

Współczynnik

Błąd standardowy

t-Studenta

Wartość p

const

11,1056

6,14119

1,808

0,0717

*

KB

0,00454269

0,0234904

0,1934

0,8468

CP

−0,106904

0,0596182

−1,793

0,0741

*

poliSLD

−0,208478

0,468418

−0,4451

0,6566

poliPiS

−0,432275

0,474711

−0,9106

0,3633

uhat_1

0,948342

0,0622788

15,23

7,90e-038

***

uhat_2

−0,0689032

0,0857054

−0,8040

0,4222

uhat_3

−0,0736522

0,0858350

−0,8581

0,3916

uhat_4

0,0214658

0,0857964

0,2502

0,8026

uhat_5

−0,0180116

0,0845704

−0,2130

0,8315

uhat_6

0,0925156

0,0845637

1,094

0,2750

uhat_7

0,0196883

0,0845860

0,2328

0,8161

uhat_8

−0,234510

0,0853842

−2,747

0,0064

***

uhat_9

0,116562

0,0870086

1,340

0,1815

uhat_10

0,112569

0,0873717

1,288

0,1988

uhat_11

0,0213698

0,0875282

0,2441

0,8073

uhat_12

−0,00246732

0,0652117

−0,03784

0,9698

Oznacza to, że mamy do czynienia z silną dodatnią autokorelacją pierwszego rzędu, co jest zjawiskiem typowym dla danych makroekonomicznych, oraz umiarkowaną ujemną autokorelacją ósmego rzędu – co już trudniej zinterpretować.

Sprawdźmy, czy możemy zastosować alternatywny test autokorelacji składnika losowego: test Durbina–Watsona. Założenia o obecności wyrazu wolnego i braku opóźnionej zmiennej objaśnianej są spełnione; ale czy składnik losowy ma rozkład normalny? Wybieramy opcję Testy → Testy normalności rozkładu reszt, otrzymując wynik przedstawiony na wydruku 1.5.

Wydruk 1.5. Wynik testu normalności rozkładu składnika losowego

Test Doornika-Hansena: Chi-kwadrat(2) = 5,609 z wartością p 0,06054

Na poziomie istotności 0,05 nie ma podstaw do odrzucenia hipotezy zerowej o normalności rozkładu składnika losowego, ten warunek zastosowania testu DW jest zatem również spełniony. Z drugiej części tabeli z wynikami estymacji (wydruk 1.2, ostatni wiersz) odczytujemy, że wartość statystyki Durbina–Watsona wynosi 0,246355. Wartości krytycznych szukamy w tablicach: Narzędzia → Tablice statystyczne → DW → liczba obserwacji n = 276, liczba zmiennych objaśniających modelu (bez wyrazu wolnego) k = 4. Otrzymujemy wartości krytyczne dL = 0,17752 oraz dU = 1,8331. Ponieważ empiryczna wartość statystyki DW ≈ 0,2463 jest niższa od dolnej wartości krytycznej, mamy podstawy do odrzucenia hipotezy zerowej o braku autokorelacji składnika losowego na rzecz hipotezy alternatywnej o dodatniej autokorelacji rzędu 1. Wynik testu DW potwierdza zatem wynik testu LM; pamiętajmy jednak, że test DW pozwala sprawdzić wyłącznie występowanie autokorelacji pierwszego rzędu, co w przypadku danych o częstotliwości miesięcznej nie stanowi wyczerpującej hipotezy.

Mimo że statystyka testu Durbina–Watsona nie ma żadnego typowego rozkładu, możemy skorzystać z przybliżonej wartości empirycznego poziomu istotności. Należy w tym celu wybrać opcję Testy → Test Durbina-Watsona (wartość p). Otrzymamy komunikat, że precyzyjna wartość p nie jest dostępna, ale jest ona bardzo niska; potwierdza się zatem wniosek o odrzuceniu H₀.

Kolejnym testem sprawdzającym założenie KMNK o sferyczności składnika losowego jest test heteroskedastyczności. Wybieramy Testy → Test heteroskedastyczności → Test White’a lub Test Breuscha-Pagana (są to dwa najczęściej stosowane testy heteroskedastyczności) i otrzymujemy wyniki przedstawione na wydruku 1.6.

Wydruk 1.6. Wynik testu heteroskedastyczności składnika losowego

Test White’a na heteroskedastyczność reszt (zmienność wariancji resztowej)

Statystyka testu: TR^2 = 62,613509,

z wartością p = P(Chi-kwadrat(11) > 62,613509) = 0,000000

Test Breuscha-Pagana na heteroskedastyczność

Statystyka testu: LM = 31,729000,

z wartością p = P(Chi-kwadrat(4) > 31,729000) = 0,000002

W obu testach empiryczny poziom istotności jest bliski zera; mamy zatem podstawy do odrzucenia hipotezy zerowej o homoskedastyczności składnika losowego na rzecz hipotezy alternatywnej, że jest on heteroskedastyczny (czyli ma zmienną wariancję).

Testy własności składnika losowego dają wyniki negatywne: założenie KMNK o sferyczności składnika losowego nie jest spełnione. Co należy zrobić w tym przypadku? Negatywne wyniki tych testów mogą świadczyć o błędach konstrukcyjnych modelu (np. niewłaściwie dobranej postaci funkcyjnej lub braku ważnych zmiennych objaśniających), a zatem należałoby zacząć od poprawienia modelu – zwłaszcza że wartość współczynnika determinacji R² oraz wynik testu RESET (patrz dalej) dowodzą, że nasze równanie regresji wymaga dopracowania. Jeśli jednak mamy do czynienia z modelem może nie idealnym (takie nie istnieją!), ale ogólnie poprawnym, którego główną wadą jest niespełnione założenie o sferyczności składnika losowego, można zastosować odporne (na autokorelację i heteroskedastyczność) estymatory błędów standardowych (HAC, ang. heteroskedasticity and autocorrelation consistent). W okienku z wynikami estymacji wybieramy opcję Edycja → Modyfikacja specyfikacji modelu i zaznaczamy okienko Odporne błędy standardowe.

Wydruk 1.7. Wyniki estymacji parametrów modelu oczekiwań koniunkturalnych z odpornymi oszacowaniami błędów standardowych

Estymacja KMNK, wykorzystane obserwacje 1997:01-2019:12 (N = 276)

Zmienna zależna (Y): KP

Błąd standardowy HAC, szerokość okna 4 (jądro Bartletta)

Współczynnik

Błąd stand.

t-Studenta

wartość p

const

−95,2199

20,8008

−4,578

<0,0001

***

KB

0,646256

0,0916810

7,049

<0,0001

***

CP

0,982994

0,204826

4,799

<0,0001

***

poliPiS

−0,762977

1,51406

−0,5039

0,6147

poliSLD

3,88437

1,71982

2,259

0,0247

**

Zmianie uległy oszacowania błędów standardowych, a co za tym idzie – wartości statystyk t-Studenta i empirycznych poziomów istotności p. Wnioski na temat istotności zmiennych objaśniających pozostają jednak w mocy: jedynie zmienna poliPiS jest nieistotna statystycznie. Pamiętajmy jednak, że odporne estymatory błędów standardowych korygują jedynie oszacowania błędów standardowych w sytuacji, gdy składnik losowy cechuje się autokorelacją lub heteroskedastycznością. Nie poprawiają jednak jakości modelu jako całości: model źle skonstruowany pozostaje modelem źle skonstruowanym nawet po zastosowaniu HAC.

Ogólnym testem poprawności konstrukcji modelu jest test RESET. W celu jego przeprowadzenia wybieramy opcję Testy → Test specyfikacji Ramseya RESET → kwadrat i sześcian zmiennej (czyli standardową postać testu), otrzymując wynik przedstawiony na wydruku 1.8.

Wydruk 1.8. Wynik testu RESET

Statystyka testu: F = 7,264046,

z wartością p = P(F(2,269) > 7,26405) = 0,000846

Na podstawie wartości p niższej od krytycznego poziomu 0,05 mamy podstawy do odrzucenia hipotezy zerowej o poprawności konstrukcji modelu. Nad przyczynami tego negatywnego wyniku zastanowimy się dalej w przykładzie 2.1.

Bardziej szczegółowym testem konstrukcji modelu jest test Chowa, który pozwala sprawdzić, czy parametry modelu pozostają stabilne w podpróbach. W okresie objętym próbą nastąpiły co najmniej dwa wydarzenia, które mogły wpłynąć na parametry modelu (czyli siłę albo wręcz kierunek, z jakim zmienne objaśniające oddziałują na zmienną objaśnianą). W maju 2004 r. Polska przystąpiła do Unii Europejskiej; a w okresie listopad 2008 r.–styczeń 2010 r. w Polsce dawały się odczuć skutki międzynarodowego kryzysu gospodarczego, choć słabiej niż w innych krajach europejskich. Sprawdźmy, czy parametry modelu pozostawały stabilne mimo tych zmian zachodzących w otoczeniu przedsiębiorstw przemysłowych.

W pierwszym przypadku wybieramy opcję Testy → Test zmian strukturalnych Chowa, a jako obserwację rozdzielającą próbę wpisujemy 2004:05.

Wydruk 1.9. Wynik testu Chowa (kryterium: wejście Polski do UE)

Test Chowa na zmiany strukturalne przy podziale próby w obserwacji 2004:05:

F(4, 267) = 64,918 z wartością p 0,0000

Mamy zatem podstawy do odrzucenia hipotezy zerowej o stabilności parametrów modelu przed i po akcesji Polski do Unii; zależności między zmiennymi objaśniającymi a zmienną objaśnianą uległy wtedy zmianie, co w sumie nie powinno nas dziwić. Jednym z możliwych rozwiązań byłoby ograniczenie zbioru danych do okresu po akcesji Polski do UE jako bardziej odpowiedniego do formułowania wniosków na temat aktualnych zależności między wskaźnikami koniunktury, cenami i otoczeniem politycznym. (Ograniczenia zakresu próby w programie gretl można dokonać za pomocą polecenia w głównym menu: Próba → Zakres próby).

Druga wersja testu Chowa wymaga skonstruowania dodatkowej zmiennej zero-jedynkowej przyjmującej wartości 1 w okresie listopad 2008 r.–styczeń 2010 r. i 0 w przeciwnym przypadku. Z głównego menu wybieramy opcję Dodawanie zmiennych → Zmienna 0-1 według obserwacji, wpisujemy 2008:11 jako obserwację startową i 2010:01 jako obserwację końcową oraz nazwę nowej zmiennej (np. kryzys). Następnie w teście Chowa wybieramy kryzys jako zmienną 0–1 do utworzenia podpróby.

Wydruk 1.10. Wynik testu Chowa (kryterium: wystąpienie kryzysu finansowego)

Test Chowa na strukturalne różnice poziomów ze względu na zmienną: kryzys:

F(3, 268) = 13,0727 z wartością p 0,0000

Ponownie mamy podstawy do odrzucenia hipotezy zerowej; parametry modelu w okresie kryzysu finansowego różniły się od parametrów modelu w okresie przed i po kryzysie, mimo że w Polsce przebiegł on stosunkowo łagodnie. W tym przypadku rozwiązaniem mogłoby być uzupełnienie zbioru zmiennych objaśniających o zero-jedynkową zmienną kryzys lub – jeszcze lepiej – włączenie zmiennej opisującej siłę kryzysu, a nie tylko jego wystąpienie, za pomocą np. średniej wartości kapitalizacji Giełdy Papierów Wartościowych w Warszawie w kolejnych miesiącach.

Możemy jeszcze sprawdzić, czy w modelu występują obserwacje odstające (ang. outliers) – czyli takie miesiące, w których model jest szczególnie źle dopasowany do danych empirycznych (a dokładniej, kiedy teoretyczna wartość zmiennej objaśnianej jest bardzo odległa od jej wartości empirycznej). W tym celu wyznaczmy reszty modelu: Zapisz → Reszty (gretl zaproponuje nam nazwę uhat1, czyli „u z daszkiem nr 1”, ale możemy ją zmienić). Następnie otwieramy nowo powstałą zmienną i sortujemy za pomocą klawisza A → Z w górnej części okienka, np. rosnąco. Reszty stopniowo rosną od ok. –17 do +15, nie widać żadnych szczególnie odstających wartości. Możemy zatem przyjąć, że próba nie obejmuje nietypowych miesięcy, w których kształtowanie się oczekiwań koniunkturalnych jest szczególnie trudne do wyjaśnienia za pomocą naszego modelu.

Istnieją oczywiście algorytmiczne, a przez to bardziej obiektywne metody identyfikacji obserwacji odstających; korzystając z innych programów, np. R, warto je stosować. Jedną z często spotykanych metod graficznych jest wykres pudełkowy, w którym za obserwacje odstające uznaje się te, które są większe od wartości wyznaczonej na podstawie pierwszego i trzeciego kwartyla rozkładu reszt. Alternatywne podejścia identyfikacji obserwacji odstających, dostępne w innych programach, są opisane w części C.

Oszacowania parametrów modelu ekonometrycznego można też wykorzystać w celach predykcyjnych. Na podstawie modelu z wydruku 1.2 wyznaczmy prognozy wartości zmiennej KP na I kwartał 2020 r. Niezbędne są w tym celu wartości zmiennych objaśniających oraz, do późniejszej oceny jakości predykcyjnej modelu, wartości zmiennej objaśnianej. W Biuletynie Statystycznym z maja 2020 r. znajdziemy dane przedstawione w tabeli 1.1.

Tabela 1.1. Dane do prognozy na I kwartał 2020 r.

Okres

KP

KB

CP

styczeń 2020

–4,3

3,2

99,9

luty 2020

–1,6

1,6

99,7

marzec 2020

–7,6

–1,1

99,6

Wiemy, że rządy w tym okresie sprawował PiS, czyli poliPiS = 1 oraz poliSLD = 0. Podstawiając wartości zmiennych objaśniających ze stycznia oraz zaokrąglone do dwóch miejsc po przecinku oszacowania parametrów, otrzymujemy:

(1.3)

Analogiczne obliczenia dla kolejnych dwóch miesięcy prowadzą do wyniku 2,77 dla lutego i 0,91 dla marca. Zauważmy, że wszystkie prognozy są znacząco wyższe niż rzeczywiście zaobserwowane oczekiwania koniunkturalne; najprawdopodobniej nasz model, oszacowany na podstawie danych sprzed pandemii wirusa COVID-19, nie nadaje się bezpośrednio do prognozowania oczekiwań koniunkturalnych w okresie początków pandemii.

Do oceny jakości predykcji stosowane są miary błędów predykcji ex ante oraz ex post. Te pierwsze są wyznaczane na podstawie wariancji składnika losowego modelu oraz wartości zmiennych objaśniających „z góry”, zanim poznamy faktyczną wartość prognozowanej zmiennej objaśnianej. Miary ex post („po fakcie”) są obliczane na podstawie zrealizowanych wartości prognozowanej zmiennej i dzięki temu lepiej odzwierciedlają prognostyczną jakość modelu. Sprawdźmy wartości dwóch wybranych błędów predykcji ex post: MAE (średni błąd absolutny) i MAPE (średni procentowy błąd absolutny):

(1.4)

Trudno na pierwszy rzut oka ocenić, jak wartość 7,06 (lub jakakolwiek inna) świadczy o jakości predykcyjnej modelu. W celach interpretacyjnych warto wyznaczyć błąd procentowy:

(1.5)

Prognozując oczekiwania koniunkturalne na podstawie modelu z wydruku 1.2, popełniamy zatem katastrofalnie wielki błąd sięgający 193% wartości prognozowanej zmiennej. Biorąc dodatkowo pod uwagę fakt, że wszystkie wyznaczone przez nas prognozy są dodatnie, podczas gdy faktyczne wartości zmiennej opisującej oczekiwania koniunkturalne są ujemne, świadczące o przewadze pesymistów nad optymistami w I kwartale 2020 r. – możemy podsumować, że nasz model cechuje się bardzo niską jakością predykcyjną, a przypuszczalnym powodem tej sytuacji jest zupełnie niespodziewane (biorąc pod uwagę dane historyczne) pogorszenie się oczekiwań koniunkturalnych na początku 2020 r. w związku z pierwszymi doniesieniami o pandemii.PRZYPISY

Pliki do pobrania na stronie: https://wydawnictwo.pwn.pl/Do-pobrania

Pliki instalacyjne i podręcznik użytkownika można znaleźć na stronie: http://www.kufel.torun.pl/

Badania ankietowe to jedna z metod analizy bieżącej i prognozowanej koniunktury gospodarczej. Szczegółowy opis ankietowych badań koniunktury prowadzonych przez GUS dostępny jest pod adresem https://stat.gov.pl/cps/rde/xbcr/gus/badanie_koniunktury_gospodarczej_v3.pdf.

W modelach wielorównaniowych stosuje się podział na zmienne endogeniczne (objaśniane którymś z równań układu) i egzogeniczne. W modelach jednorównaniowych zmienna objaśniana jest zmienną endogeniczną, a na zbiór zmiennych objaśniających składają się zmienne egzogeniczne i endogeniczne opóźnione (por. przykład 2.1).

Jest to standardowe (choć niekoniecznie powszechnie stosowane) oznaczenie KMNK. Metoda największej wiarygodności – a dokładniej, zmienna objaśniana w modelu oszacowanym MNW – bywa natomiast oznaczana „falką” (por. wzór 4.2 ze wzorami 1.2 i 4.1).

Precyzyjne wyjaśnienie interpretacji kryterium Akaike’a wymagałoby wprowadzenia do metody największej wiarygodności, która pozostaje poza zakresem tej książki. Zainteresowanego Czytelnika odsyłamy do literatury ekonometrycznej, np. podręcznika G.S. Maddali (2008).

Powinno być „składnika losowego”; przedmiotem testu, przeprowadzanego na podstawie reszt, jest składnik losowy. Wydruki z programów ekonometrycznych często zawierają uproszczenia i skróty, więc przed ich skopiowaniem – np. do pracy zaliczeniowej czy projektu – warto dokładnie je przeczytać i ewentualnie skorygować, aby interpretacje i opisy wyników były sformułowane poprawnie.

Do innych często stosowanych miar jakości predykcji ex post należą pierwiastek błędu średniokwadratowego (RMSE, RMSPE) oraz współczynnik Theila. Szczegółowy opis zastosowań można znaleźć w podręcznikach ekonometrii oraz prognozowania gospodarczego.
mniej..

BESTSELLERY

Kategorie: