Saturday 15 July 2017

Arma Moving Average Beispiel


ARMA und ARIMA (Box-Jenkins) Modelle ARMA und ARIMA (Box-Jenkins) In den vorangegangenen Abschnitten haben wir gesehen, wie der Wert einer univariaten Zeitreihe zum Zeitpunkt t. X t. Kann mit einer Vielzahl von gleitenden Durchschnittsausdrücken modelliert werden. Wir haben auch gezeigt, dass Komponenten wie Trends und Periodizität in der Zeitreihe explizit modelliert und / oder getrennt werden können, wobei die Daten in Trend-, Saison - und Restkomponenten zerlegt werden. Wir haben auch gezeigt, in den früheren Diskussionen über Autokorrelation. Dass die vollständigen und partiellen Autokorrelationskoeffizienten äußerst nützlich sind, um Muster in Zeitreihen zu identifizieren und zu modellieren. Diese beiden Aspekte der Zeitreihenanalyse und Modellierung können in einem allgemeineren und oftmals sehr effektiven Gesamtmodellierungsrahmen kombiniert werden. In seiner Grundform wird dieser Ansatz als ARMA-Modellierung bezeichnet (autoregressiver gleitender Durchschnitt) oder wenn die Differenzierung in die Prozedur, die ARIMA - oder die Box-Jenkins-Modellierung, nach den beiden Autoren, die für ihre Entwicklung von zentraler Bedeutung waren, enthalten ist (siehe Box amp Jenkins, 1968) BOX1 und Box, Jenkins amp Reinsel, 1994 BOX2). Es gibt keine feste Regel bezüglich der Anzahl von Zeitperioden, die für eine erfolgreiche Modellierungsübung erforderlich sind, aber für komplexere Modelle und für ein größeres Vertrauen in Pass - und Validierungsverfahren werden häufig Reihen mit 50 Zeitschritten empfohlen. ARMA-Modelle kombinieren Autokorrelationsverfahren (AR) und gleitende Mittelwerte (MA) zu einem zusammengesetzten Modell der Zeitreihe. Bevor wir untersuchen, wie diese Modelle kombiniert werden können, untersuchen wir jeweils einzeln. Wir haben bereits gesehen, dass gleitende Durchschnittsmodelle (MA) verwendet werden können, um eine gute Anpassung an einige Datensätze bereitzustellen, und Variationen dieser Modelle, die eine doppelte oder dreifache exponentielle Glättung beinhalten, können Trend und periodische Komponenten in den Daten behandeln. Darüber hinaus können solche Modelle verwendet werden, um Prognosen zu erstellen, die das Verhalten früherer Perioden nachahmen. Eine einfache Form solcher Modelle, die auf früheren Daten basiert, kann folgendermaßen geschrieben werden: Wo die Betai-Terme die auf vorherige Werte in der Zeitreihe angewendeten Gewichte sind, ist es üblich, Betai & sub1; ohne Verlust der Allgemeinheit zu definieren. Somit gilt für ein Verfahren erster Ordnung q 1 und wir haben das Modell: d. h. der gleitende Mittelwert wird als ein gewichteter Mittelwert der aktuellen und unmittelbaren Vergangenheitswerte geschätzt. Dieses Mittelungsverfahren ist in gewissem Sinne ein pragmatischer Glättungsmechanismus ohne direkte Verbindung zu einem statistischen Modell. Jedoch können wir ein statistisches (oder stochastisches) Modell angeben, das die Prozeduren der gleitenden Mittelwerte in Verbindung mit zufälligen Prozessen umfasst. Wenn wir eine Menge von unabhängigen und identisch verteilten Zufallsvariablen (ein Zufallsprozeß) mit Nullmittelwert und bekannter fester Varianz zulassen, dann können wir den Prozeß als gleitenden Mittelwert der Ordnung q in folgender Form schreiben: Deutlich ist der Erwartungswert von xt unter Dieses Modell ist 0, also ist das Modell nur gültig, wenn das xt bereits auf einen Nullmittelwert eingestellt wurde oder wenn eine feste Konstante (der Mittelwert der xt) zur Summe addiert wird. Es ist auch offensichtlich, dass die Varianz von xt einfach ist: Die obige Analyse kann erweitert werden, um die Kovarianz cov (x t xtk) auszuwerten, die Ausbeuten ergibt: Beachten Sie, dass weder der Mittelwert noch die Kovarianz (oder Autokovarianz) Bei der Verzögerung k ist eine Funktion der Zeit t. So dass der Prozess ist zweiter Ordnung stationär. Der obige Ausdruck ermöglicht es, einen Ausdruck für die Autokorrelationsfunktion (acf) zu erhalten: Wenn k 0 rho k 1 und für k gt q rho k 0. Ferner ist die acf symmetrisch und rho k rho - k. Die ACF kann für einen MA-Prozeß erster Ordnung berechnet werden: Die autoregressive oder AR-Komponente eines ARMA-Modells kann in der Form geschrieben werden: wobei die Terme in Autokorrelationskoeffizienten bei Lags 1,2 sind. P und zt ein Restfehlerterm ist. Es sei angemerkt, dass dieser Fehlerausdruck speziell die aktuelle Zeitperiode t betrifft. Also gilt für ein Verfahren erster Ordnung p 1 und wir haben das Modell: Diese Ausdrücke geben an, dass der geschätzte Wert von x zum Zeitpunkt t durch den unmittelbar vorhergehenden Wert von x (dh zum Zeitpunkt t -1) multipliziert mit einem Maß, alpha, bestimmt wird . Des Ausmaßes, in dem die Werte für alle Wertepaare zu Zeitperioden voneinander abweichen, korreliert (d. H. Ihre Autokorrelation) plus einem Restfehlerterm, z. Zum Zeitpunkt t. Aber das ist genau die Definition eines Markov-Prozesses. So ist ein Markov-Prozess ein autoregressiver Prozess erster Ordnung. Wenn alpha & sub1; das Modell besagt, daß der nächste Wert von x einfach der vorhergehende Wert plus ein zufälliger Fehlerterm ist und daher ein einfacher 1D-Zufallsweg ist. Wenn mehr Ausdrücke enthalten sind, schätzt das Modell den Wert von x zum Zeitpunkt t durch eine gewichtete Summe dieser Ausdrücke zuzüglich einer Zufallsfehlerkomponente. Wenn wir den zweiten Ausdruck oben in den ersten Satz setzen, haben wir: und wiederholte Anwendung dieser Substitution ergibt sich: Wenn nun alpha lt1 und k groß sind, kann dieser Ausdruck in umgekehrter Reihenfolge mit abnehmenden Ausdrücken und mit Beitrag aus dem Ausdruck geschrieben werden In x auf der rechten Seite des Ausdrucks verschwindend klein, so haben wir: Da die rechte Seite dieses Ausdrucks xt als Summe eines gewichteten Satzes von vorherigen Werten, hier zufälligen Fehlertermen, klar ist, Dieses AR-Modell ist in der Tat eine Form des MA-Modells. Und wenn wir annehmen, daß die Fehlerterme null mittlere und konstante Varianz haben, so haben wir, wie im MA-Modell, den Erwartungswert des Modells auch als 0, wobei angenommen wird, daß die xt so eingestellt sind, daß sie einen Nullmittelwert mit der Varianz bereitstellen Wenn diese Summe endlich ist und einfach 1 (1 - alpha) ist, so haben wir: Wie bei dem obengenannten MA-Modell kann diese Analyse erweitert werden, um die Kovarianz cov (xt · xk) einer ersten zu bewerten (A-1), so haben wir: Dies zeigt, dass bei einem autoregressiven Modell erster Ordnung die Autokorrelationsfunktion (acf) einfach definiert ist Durch sukzessive Befugnisse der Autokorrelation erster Ordnung, mit der Bedingung alpha lt1. Für alpha gt0 ist dies einfach eine rasch abnehmende oder exponentialartige Kurve, die gegen Null strebt oder für lt0 eine dämpfende Oszillationskurve, die wiederum gegen Null geht. Wenn angenommen wird, dass die Zeitreihe stationär ist, kann die obige Analyse auf Autokorrelationen zweiter und höherer Ordnung erweitert werden. Um ein AR-Modell einem beobachteten Datensatz anzupassen, versuchen wir, die Summe der quadratischen Fehler (eine kleinste Quadrate-Anpassung) unter Verwendung der kleinsten Anzahl von Ausdrücken zu minimieren, die eine zufriedenstellende Anpassung an die Daten liefern. Modelle dieser Art werden als autoregressiv beschrieben. Und können sowohl auf Zeitreihen als auch auf räumliche Datensätze angewendet werden (siehe weiter, räumliche Autoregressionsmodelle). Obwohl in der Theorie ein autoregressives Modell eine gute Anpassung an einen beobachteten Datensatz bereitstellen könnte, würde es im allgemeinen eine vorherige Entfernung von Trend - und periodischen Komponenten erfordern und selbst dann eine große Anzahl von Ausdrücken benötigen, um eine gute Anpassung an die Daten zu gewährleisten. Durch die Kombination der AR-Modelle mit MA-Modellen können wir jedoch eine Familie von gemischten Modellen herstellen, die in einer Vielzahl von Situationen eingesetzt werden können. Diese Modelle sind als ARMA - und ARIMA-Modelle bekannt und werden in den folgenden Unterabschnitten beschrieben. In den beiden vorangegangenen Abschnitten haben wir den MA-Modus q: und das AR-Modell der Ordnung p eingeführt: Wir können diese beiden Modelle kombinieren, indem wir sie einfach als Modell der Ordnung (p. Q) zusammenfassen, wobei wir p AR-Terme haben Und q MA-Ausdrücke: Im Allgemeinen kann diese Form des kombinierten ARMA-Modells verwendet werden, um eine Zeitreihe mit weniger Ausdrücken insgesamt als ein MA - oder ein AR-Modell selbst zu modellieren. Sie drückt den Schätzwert zum Zeitpunkt t als Summe von q Gliedern aus, die die mittlere Veränderung der Zufallsvariation über q Vorperioden (die MA-Komponente) plus die Summe von p AR-Terme darstellen, die den aktuellen Wert von x als die gewichtete Summe berechnen Der p letzten Werte. Diese Form des Modells geht jedoch davon aus, dass die Zeitreihe stationär ist, was selten der Fall ist. In der Praxis gibt es Trends und Periodizität in vielen Datensätzen, so dass es notwendig ist, diese Effekte zu entfernen, bevor solche Modelle. Die Entfernung wird typischerweise durchgeführt, indem in das Modell eine anfängliche Differenzierungsstufe, typischerweise einmal, zweimal oder dreimal, aufgenommen wird, bis die Reihe zumindest annähernd stationär ist und keine offensichtlichen Trends oder Periodizitäten aufweist. Wie bei den MA - und AR-Prozessen wird der Differenzierungsprozeß durch die Reihenfolge der Differenzierung, z. B. 1, 2, 3, beschrieben. Zusammengenommen bilden diese drei Elemente ein Tripel: (S. d. Q), das die Art des angewandten Modells definiert. In dieser Form wird das Modell als ARIMA-Modell beschrieben. Der Buchstabe I in ARIMA bezieht sich auf die Tatsache, dass der Datensatz anfangs differenziert wurde (siehe Differenzierung), und wenn die Modellierung abgeschlossen ist, müssen die Ergebnisse dann summiert oder integriert werden, um die endgültigen Schätzungen und Prognosen zu erstellen. Die ARIMA-Modellierung wird nachfolgend diskutiert. Wie im vorigen Unterabschnitt erwähnt, bietet das Kombinieren der Differenzierung einer nichtstationären Zeitreihe mit dem ARMA-Modell eine starke Modellfamilie, die in einer Vielzahl von Situationen angewendet werden kann. Die Entwicklung dieser erweiterten Modellform ist vor allem auf die G E P Box und G M Jenkins zurückzuführen, so dass ARIMA-Modelle auch als Box-Jenkins-Modelle bekannt sind. Der erste Schritt des Box-Jenkins-Verfahrens besteht darin, die Zeitreihe bis zum Stillstand zu differenzieren, so dass Trend - und Saisonkomponenten entfernt werden. In vielen Fällen reicht eine ein - oder zweistufige Differenzierung aus. Die differenzierten Reihen sind kürzer als die Quellenreihe durch c Zeitschritte, wobei c der Bereich der Differenzierung ist. Anschließend wird ein ARMA-Modell an die resultierende Zeitreihe angepasst. Da ARIMA Modelle drei Parameter haben, gibt es viele Varianten zu den möglichen Modellen, die montiert werden könnten. Allerdings kann die Entscheidung darüber, was diese Parameter sein sollen, von einer Reihe von Grundprinzipien geleitet werden: (i) Das Modell sollte so einfach wie möglich sein, dh möglichst wenige Begriffe enthalten, was wiederum die Werte von p und q bedeutet Sollte klein sein (ii) die Anpassung an historische Daten sollte so gut wie möglich sein, dh die Größe der quadrierten Unterschiede zwischen dem Schätzwert in einem vergangenen Zeitraum und dem tatsächlichen Wert sollte minimiert werden (Prinzip der kleinsten Quadrate) - die Residuen Aus dem ausgewählten Modell können dann untersucht werden, um festzustellen, ob die verbleibenden Residuen signifikant von 0 verschieden sind (siehe weiter unten) (iii) die gemessene partielle Autokorrelation bei den Lags 1,2,3. Sollte eine Angabe der Reihenfolge der AR-Komponente geben, dh der für q (iv) gewählte Wert der Form der Autokorrelationsfunktion (acf) kann den Typ des erforderlichen ARIMA-Modells vorschlagen Interpretation der Form der acf in Bezug auf die Modellauswahl. ARIMA Modelltyp Auswahl mit acf Form Serie ist nicht stationär. Standard-ARIMA-Modelle werden oft durch das Dreifache beschrieben: (S. d. Q) wie oben erwähnt. Diese definieren die Struktur des Modells in der Reihenfolge der AR, Differenzierung und MA-Modelle verwendet werden. Es ist auch möglich, ähnliche Parameter für die Saisonalität in die Daten aufzunehmen, obwohl solche Modelle komplexer zu passen und zu interpretieren sind. Der Kuttel (P. D. Q) wird im allgemeinen verwendet, um solche Modellkomponenten zu identifizieren. Im unten dargestellten Screenshot von SPSS wird der Dialog zur manuellen Auswahl von nicht-saisonalen und saisonalen Strukturelementen angezeigt (ähnliche Einrichtungen sind in anderen integrierten Paketen wie SASETS verfügbar). Wie zu sehen ist, ermöglicht der Dialog auch die Umwandlung der Daten (typischerweise zur Unterstützung der Varianzstabilisierung) und die Möglichkeit, eine Konstante in das Modell einzubinden (die Voreinstellung). Dieses spezielle Software-Tool ermöglicht es, daß Ausreißer bei Bedarf detektiert werden können, gemß einer Reihe von Erfassungsverfahren, aber in vielen Fällen werden Ausreißer untersucht und eingestellt oder entfernt und ersetzte Werte, die geschätzt werden, vor einer solchen Analyse. SPSS Time Series Modellierer: ARIMA-Modellierung, Expertenmodus Eine Anzahl von ARIMA-Modellen kann manuell oder über einen automatisierten Prozess (zB ein schrittweises Verfahren) an die Daten angepasst werden Fit und sparsam. Der Modellvergleich verwendet typischerweise eine oder mehrere der oben in diesem Handbuch beschriebenen informationstheoretischen Maßnahmen - AIC, BIC andor MDL (die R-Funktion, arima (), liefert die AIC-Messung, während SPSS eine Reihe von Anpassungsmaßnahmen bereitstellt Version der BIC-Statistik andere Werkzeuge variieren in den Maßnahmen - Minitab, die eine Reihe von TSA-Methoden, nicht enthalten AICBIC-Statistiken). In der Praxis kann eine breite Palette von Maßnahmen (außer den kleinsten quadratischen Maßnahmen) zur Bewertung der Modellqualität verwendet werden. Beispielsweise können der mittlere absolute Fehler und der maximale absolute Fehler sinnvoll sein, Eine Anzahl von Softwarepaketen kann auch eine Gesamtmessung der Autokorrelation vorsehen, die in den Resten nach der Montage des Modells verbleiben kann. Eine häufig angewandte Statistik ist auf Ljung und Box (1978 LJU1) zurückzuführen Von der Form ist: wobei n die Anzahl der Abtastwerte (Datenwerte), ri die Stichprobenautokorrelation bei der Verzögerung i und k die Gesamtzahl der Verzögerungen ist, über die die Berechnung durchgeführt wird, Q k annähernd als ein Chi verteilt ist - Quadratverteilung mit k - m Freiheitsgraden, wobei m die Anzahl der Parameter ist, die beim Anpassen des Modells verwendet werden, mit Ausnahme aller konstanten Term - oder Prädiktorvariablen (dh einschließlich der pd q - Tripel) Die Residuen nach dem Anbringen des Modells noch signifikante Autokorrelation aufweisen, was darauf hindeutet, dass ein verbessertes Modell gesucht werden sollte. Beispiel: Modellierung des Wachstums von Fluggastzahlen Im Folgenden finden Sie ein Beispiel für die automatisierte Anpassung von SPSS an die in diesem Handbuch vorgestellten Box-Jenkins-Reinsel-Testdaten der Fluggastzahlen REI1. Anfangs war keine Spezifikation der Termine, die Monate innerhalb von Jahren angegeben wurden. Das Modell, das durch den automatisierten Prozess ausgewählt wurde, war ein ARIMA Modell (0,1,12), dh der Prozess identifizierte korrekt, dass die Serie eine Ebene der Differenzierung benötigte und ein gleitendes Durchschnittsmodell mit einer Periodizität von 12 und keine Autokorrelationskomponente anpaßte Daten. Das Modell passte einen R 2 - Wert von 0,966, der sehr hoch ist, und einen maximalen absoluten Fehler (MAE) von 75. Die visuelle Anpassung des Modells an die Daten sieht hervorragend aus, aber die graphische Darstellung der restlichen Autokorrelation nach dem Einbau und Ljung - Box-Test zeigt, dass signifikante Autokorrelation bleibt, was anzeigt, dass ein verbessertes Modell möglich ist. Automatisierte ARIMA - Anpassung an International Airline Passagiere: Monatliche Gesamtsumme, 1949-1960 Um dies zu untersuchen, wurde ein überarbeitetes Modell auf Basis der Diskussion dieses Datensatzes von Box und Jenkins (1968) und der aktualisierten Ausgabe von Chatfields (1975 CHA1) Die er Minitab verwendet, um seine Analyse zu illustrieren (6. Auflage, 2003). Die Zeitreihe wurde mit einer Periodizität von 12 Monaten und einem ARIMA-Modell mit Komponenten (0,1,1), (0,1,1) definiert. Graphisch sind die Ergebnisse sehr ähnlich dem obigen Diagramm, aber bei diesem Modell ist das R-Quadrat 0,991, die MAE41 und die Ljung-Box-Statistik ist nicht mehr signifikant (12,6, mit 16 Freiheitsgraden). Das Modell ist somit eine Verbesserung gegenüber der ursprünglichen (automatisch generierten) Version, die aus einer nicht saisonalen MA und einer saisonalen MA-Komponente, einer autoregressiven Komponente und einer Differenzierungsstufe für saisonale und nicht saisonale Strukturen besteht. Ob Armatur manuell oder automatisiert, ein ARIMA Modell kann ein gutes Rahmenwerk für die Modellierung einer Zeitreihe liefern, oder es kann sein, dass alternative Modelle oder Ansätze ein zufriedenstellenderes Ergebnis liefern. Oft ist es schwierig, im Voraus zu wissen, wie gut jedes gegebene Prognosemodell sein wird, da es nur im Licht seiner Fähigkeit ist, zukünftige Werte der Datenreihe vorherzusagen, dass es wirklich beurteilt werden kann. Oft wird dieser Prozeß durch Anpassen des Modells an vergangene Daten mit Ausnahme der letzten Zeitperioden (auch als Holdout-Abtastwerte bezeichnet) angenähert, und dann unter Verwendung des Modells, um diese bekannten zukünftigen Ereignisse vorherzusagen, aber auch dies bietet nur ein begrenztes Vertrauen in seine zukünftige Gültigkeit. Längerfristige Prognosen können mit solchen Methoden äußerst unzuverlässig sein. Das oben beschriebene internationale Luftverkehrsstatistikmodell ist nicht in der Lage, die Passagierzahlen bis in die Neunzigerjahre und darüber hinaus korrekt vorauszusagen, noch den 5-Jahres-Rückgang der US-amerikanischen Fluggastzahlen nach 9112001. Ebenso kann ein ARIMA-Modell an historische Werte angepasst werden Der Börsenkurse oder Indexwerte (zB die NYSE - oder FTSE-Indizes) und wird typischerweise eine hervorragende Anpassung an die Daten liefern (was einen R-Quadrat-Wert von besser als 0,99 ergibt), sind aber oft nur wenig von Nutzen für die Prognose zukünftiger Werte dieser Preise Oder Indizes. Typischerweise werden ARIMA-Modelle zur Prognose eingesetzt, insbesondere im Bereich der makro - und mikroökonomischen Modellierung. Sie können jedoch in einem breiten Spektrum von Disziplinen angewendet werden, entweder in der hier beschriebenen Form oder mit zusätzlichen Vorhersagevariablen, von denen angenommen wird, dass sie die Zuverlässigkeit der Prognosen verbessern. Letztere sind wichtig, da die gesamte Struktur der oben diskutierten ARMA-Modelle von vorherigen Werten und unabhängigen Zufallsereignissen über die Zeit abhängt, nicht von erklärenden oder ursächlichen Faktoren. Daher werden ARIMA-Modelle nur die bisherigen Muster reflektieren und erweitern, die in Prognosen durch Faktoren wie das makroökonomische Umfeld, Technologieverschiebungen oder längerfristige Ressourcen und Umweltveränderungen modifiziert werden müssen. BOX1 Kasten G E P, Jenkins G M (1968). Einige jüngste Fortschritte in der Prognose und Kontrolle. (1994) Zeitreihenanalyse, - prognose und - steuerung. Zeitschrift für anorganische und allgemeine Chemie. 3. Aufl. Prentice Hall, Englewood Cliffs, NJ CHA1 Chatfield C (1975) Die Analyse der Zeitreihen: Theorie und Praxis. Chapman und Hall, London (siehe auch, 6. Aufl. 2003) LJU1 Ljung G M, Kasten G E P (1978) Über einen Maßstab für einen Mangel an Fit in Zeitreihenmodellen. Biometrika, 65, 297303 NISTSEMATECH e-Handbuch der statistischen Methoden, itl. nist. govdiv898handbook Abschnitt 6.4: Einführung in die Zeitreihen. REI1 Reinsel GC-Datensätze für Box-Jenkins-Modelle: stat. wisc. eduDocumentation ist das unbedingte Mittel des Prozesses, und x03C8 (L) ist ein rationales, unendlich langsames LAG-Operator-Polynom , (1 x03C8 1L x03C82L2 x2026). Anmerkung: Die Constant-Eigenschaft eines arima-Modellobjekts entspricht c. Und nicht das unbedingte Mittel 956. Durch Wolds-Zerlegung 1. Gleichung 5-12 entspricht einem stationären stochastischen Prozeß, vorausgesetzt, daß die Koeffizienten x03C8i absolut summierbar sind. Dies ist der Fall, wenn das AR-Polynom, x03D5 (L). Stabil ist. Dh alle Wurzeln liegen außerhalb des Einheitskreises. Zusätzlich ist das Verfahren kausal, vorausgesetzt das MA-Polynom ist invertierbar. Dh alle Wurzeln liegen außerhalb des Einheitskreises. Econometrics Toolbox forciert Stabilität und Invertierbarkeit von ARMA Prozessen. Wenn Sie ein ARMA-Modell mit Arima angeben. Erhalten Sie einen Fehler, wenn Sie Koeffizienten eingeben, die nicht einem stabilen AR-Polynom oder einem invertierbaren MA-Polynom entsprechen. Ähnlich erfordert die Schätzung während der Schätzung Stationaritäts - und Invertibilitätsbeschränkungen. Literatur 1 Wold, H. Eine Studie in der Analyse stationärer Zeitreihen. Uppsala, Schweden: Almqvist amp Wiksell, 1938. Select Your CountryWe starten Sie unser Beispiel aus der Simulation des ARMA-Prozesses und dann schauen wir uns seine Einschätzung an. Um die Aussagen in Tabelle 3.1 zu veranschaulichen, wollen wir AR (3), MA (2) und ARMA (3 2) Prozesse simulieren und deren Autokorrelation und partielle Autokorrelationsfunktionen berechnen. Insbesondere simulieren wir zu Beginn mit einer Reihe von unkorrelierten normalverteilten Residuen (denken Sie daran, das Kommando nrnd generiert standardmäßig normal verteilte Zufallszahlen). Außerdem müssen wir Initialwerte für die Serie erzeugen. Da die höchste Ordnung der Reihe 3 ist, erzeugen wir die ersten drei Werte. Dies kann erreicht werden, indem die Probe auf nur drei Beobachtungen gesetzt und allen drei Reihen Nullwerte zugewiesen wird. Smpl first first2 Nun legen wir die Stichprobe für die restlichen Beobachtungen an und erzeugen nach den Formeln (3.3.2) smpl first3 last Jetzt sind wir bereit, ihre Korrelogramme zu bauen und zu untersuchen. Beachten Sie, dass, um ein Korrektramm zu bauen, sollte man auf das Symbol klicken, wenn die Zeitreihe untersucht wird und wählen Sie ViewCorrelogram. Option. Die Korrelogramme von drei Zeitreihen sind in den Figuren dargestellt. Aufrechtzuerhalten. Wie wir erwartet haben, dampft die Autokorrelationsfunktion für die erste Reihe (AR (3)) langsam gegen Null aus, während ihre partielle Autokorrelationsfunktion Spikes an ersten drei Lags aufweist. Die Autokorrelationsfunktion der zweiten Serie (MA (2)) hat Spikes an zwei ersten Lags und verschwindet danach (wird unwesentlich), während die partielle Autokorrelationsfunktion gegen Null oszilliert. Sowohl Autokorrelation als auch partielle Autokorrelationsfunktionen der dritten Reihe (ARMA (3, 2)) gehen ohne deutliche Spikes langsam auf Null zurück. Abbildung 3.1: Correlogram eines AR (3) - Prozesses Abbildung 3.2: Correlogram einer MA (2) - Prozeßschätzung Eine Schätzung der ARMA-Prozesse erfolgt in EViews auf die gleiche Weise wie die OLS-Schätzung einer linearen Regression. Der einzige Unterschied besteht darin, autoregressive und gleitende Durchschnittsterme im Modell anzugeben. Wenn die Reihe autoregressive Komponenten hat, müssen wir die Terme ar (1), ar (2) usw. als Regressoren bis zur erforderlichen Reihenfolge enthalten. Zum Beispiel, um die erste Serie schätzen, geben Sie in der Schätzung Gleichung Feld. EViews erzeugt eine Ausgabe, die in Fig. Alle Koeffizienten sind wie erwartet signifikant und liegen sehr nahe bei den wahren Werten. Inferenz und Tests können in der gleichen Weise durchgeführt werden, wie es für die OLS-Regression durchgeführt wurde. Wenn man das Modell, das sich bewegende Durchschnittskomponenten enthält, abschätzen muss, sollten in die Modellspezifikation ma (1), mar (2), etc. Zum Beispiel, um die zweite Zeitreihe zu schätzen, schreiben wir Autoregressive und gleitende Durchschnittsterme können kombiniert werden, um das ARMA-Modell zu schätzen. Somit sieht die Spezifikation der dritten Reihe wie folgt aus. Nachdem man ein ARMA-Modell abgeschätzt hat, kann man prüfen, ob die geschätzten Koeffizienten die Stationaritätsannahmen erfüllen. Dies kann durch ViewARMA-Struktur des Gleichungsobjekts erfolgen. Für die dritte Reihe erhalten wir Abbildung 3.5: Tabelle der Wurzeln des geschätzten ARMA-Prozesses Es heißt, dass unsere ARMA-Serie sowohl stationär als auch invertierbar ist. 3.3.6. Programmierbeispiel Wenn wir die Reihenfolge der ARMA-Reihe nicht gekannt hätten, müssten wir eines der Informationskriterien anwenden, um die geeignetste Reihenfolge der Serie auszuwählen. Das folgende Programm veranschaulicht, wie dies mit dem Akaike-Kriterium erreicht werden kann. Zuerst müssen wir die maximalen Befehle für autoregressive und gleitende mittlere Teile definieren und diese in den Variablen pmax und qmax speichern. Auch müssen wir ein Matrixobjekt deklarieren, in dem die Werte der Akaike-Statistik für jede Spezifikation des ARMA-Prozesses geschrieben werden. Als nächstes definieren wir verschachtelte Schleifen, die durch alle möglichen ARMA-Spezifikationen mit Aufträgen innerhalb der maximalen Werte laufen. Wenn die Anzahl der in dem Modell enthaltenen Verzögerungen zunimmt, fügen wir einen neuen AR-Term in das Modell ein. Dazu erstellen wir eine neue String-Variable textsforder mit der Modellspezifikation. Wir führen das gleiche Verfahren mit dem MA-Begriff Spezifikation. Sobald die Modellspezifikation in der variablen Reihenfolge bestimmt und beschrieben wird, können wir eine entsprechende Substitution verwenden, um das entsprechende Modell zu schätzen. Der letzte Befehl nullify die Variablenordnung für die Verwendung im nächsten Schritt der Schleifen. Nun können wir den Wert des Akaike-Kriteriums für den Strom in der Tabelle schreiben. Nach dem Programmablauf werden die Werte des Akaike-Kriteriums in der Tabelle aic gespeichert. Jetzt können wir die Spezifikation des ARMA-Modells wählen, die den kleinsten AIC-Wert erzeugt. Fehler gefunden Bitte markieren Sie das Wort und drücken Shift Enter

No comments:

Post a Comment