Saturday 5 August 2017

Moving Media Processo È Stazionario


Si consideri il processo MA ordine infinito definito da ytepsilonta (epsilon epsilon.), Dove a è una costante ei epsilonts sono i. i.d. N (0, v) variabile casuale. Qual è il modo migliore per dimostrare che YT è non stazionaria so che ho bisogno di guardare alle radici caratteristiche delle caratteristiche polinomiale e poi giudicare se essi sono al di fuori del cerchio unitario, ma qual è il modo migliore per affrontare questo problema dovrei provare a riscrivere il processo di ordine mA infinito come un processo d'ordine AR finita o è più facile lavorare il processo mA chiesto 19 ottobre 13 ad 21: 11What sono autoregressivo stazionario (AR), media mobile (mA), e stazionaria misto (ARMA ) processi stazionari autoregressive (AR) processo autoregressivo stazionario (AR) processi hanno funzioni di autocorrelazione teoriche (ACFS) che decadono verso lo zero, invece di tagliare a zero. I coefficienti di autocorrelazione potrebbero alterneranno in segno di frequente, o mostrare un andamento ondulatorio, ma in tutti i casi, essi coda fuori verso lo zero. Al contrario, i processi AR con ordine p hanno funzioni teoriche parziali di autocorrelazione (PACF) che tagliano a zero dopo lag p. (La lunghezza ritardo del picco finale PACF è uguale all'ordine AR del processo, p.) Media mobile (MA) elaborare il ACFS teorici di MA (media mobile) i procedimenti con ordine q tagliato a zero dopo il ritardo q, l'ordine MA del processo. Tuttavia, la loro PACFs teorica decadimento verso lo zero. (La lunghezza ritardo del picco finale ACF è uguale dell'ordine MA del processo, q.) Stazionari (ARMA) Processi stazionari mista (ARMA) processo misto mostrano una miscela di caratteristiche AR e MA. Sia l'ACF teorico e PACF coda fuori verso lo zero. Copyright 2016 Minitab Inc. Tutti i diritti Reserved. A Breve introduzione alla moderna Time Series Definizione Una serie temporale è una casuale funzione x t di t argomento in una serie T. In altre parole, una serie storica è una famiglia di variabili casuali. x t-1. x t. x t1. che corrisponde a tutti gli elementi del set T, dove T è dovrebbe essere una, insieme infinito numerabile. Definizione Un osservata tempo serie t t e T o T è considerata come una parte di una realizzazione di un funzione random x t. Un insieme infinito di possibili realizzazioni che potrebbero essere stati osservati si chiama un insieme. Per mettere le cose in modo più rigoroso, la serie storica (o funzione casuale) è una funzione reale x (w, t) delle due variabili w e t, dove wW e t T. Se fissiamo il valore di w. abbiamo una funzione reale x (t w) del tempo t, che è una realizzazione della serie temporale. Se fissiamo il valore di t, allora abbiamo una variabile casuale X (w t). Per un dato punto nel tempo vi è una distribuzione di probabilità su x. Così una funzione casuale x (w, t) può essere considerato sia per una famiglia di variabili casuali o come una famiglia di realizzazioni. Definizione Definiamo la funzione di distribuzione della variabile casuale w proposta t 0 come P o) x (x). Allo stesso modo possiamo definire la distribuzione congiunta di n variabili aleatorie I punti che contraddistinguono l'analisi di serie temporali di analisi statistiche ordinarie sono le seguenti (1) La dipendenza tra osservazioni in diversi punti cronologici in tempo gioca un ruolo essenziale. In altre parole, l'ordine delle osservazioni è importante. In un'analisi statistica ordinaria si assume che le osservazioni sono indipendenti. (2) Il dominio di t è infinito. (3) Dobbiamo fare una deduzione da una realizzazione. La realizzazione della variabile casuale può essere osservata solo una volta in ogni punto nel tempo. All'analisi multivariata abbiamo molte osservazioni su un numero finito di variabili. Questa differenza critica richiede l'assunzione di stazionarietà. Definizione La casuale funzione x t è detto di essere rigorosamente stazionari se tutte le funzioni di distribuzione di dimensione finita che definiscono x t rimangono gli stessi, anche se l'intero gruppo di punti t 1. t 2. t n viene spostato lungo l'asse del tempo. Cioè, se per qualsiasi intero t 1. t 2. t n e k. Graficamente, si potrebbe immaginare la realizzazione di una serie strettamente stazionaria come avente non solo allo stesso livello in due intervalli differenti, ma anche la stessa funzione di distribuzione, fino ai parametri che definiscono. L'assunzione di stazionarietà rende la nostra vita più semplice e meno costosa. Senza stazionarietà dovremmo provare il processo di frequente ad ogni tempo, al fine di costruire una caratterizzazione delle funzioni di distribuzione nella definizione precedente. Stazionarietà significa che possiamo limitare la nostra attenzione ad alcune delle semplici funzioni numeriche, cioè i momenti delle distribuzioni. I momenti centrali sono date da Definition (i) Il valore medio della serie temporale t è cioè il primo momento dell'ordine. (Ii) La funzione autocovarianza di t è cioè il secondo momento sul media. Se ts allora avete la varianza di x t. Useremo per indicare la autocovarianza di una serie stazionaria, dove k indica la differenza tra t e s. (Iii) La funzione di autocorrelazione (ACF) di t è Useremo per indicare l'autocorrelazione di una serie stazionaria, dove k indica la differenza tra t e s. (Iv) l'autocorrelazione parziale (PACF). f kk. è la correlazione tra z t e z tk dopo aver rimosso la loro dipendenza lineare reciproca sulla variabili intervenienti z T1. z t2. z tk-1. Un modo semplice per calcolare l'autocorrelazione parziale tra z t e z tk è quello di eseguire le due regressioni quindi calcolare la correlazione tra i due vettori residuo. Oppure, dopo aver misurato le variabili come deviazioni dalla loro mezzi, l'autocorrelazione parziale può essere trovato come il coefficiente di regressione LS su z t nel modello dove il punto sopra la variabile indica che è misurata come deviazione dalla media. (V) Le equazioni di Yule-Walker forniscono un importante rapporto tra le autocorrelazioni parziali e le autocorrelazioni. Moltiplicare entrambi i lati dell'equazione 10 per z tk-j e prendere le aspettative. Questa operazione ci dà la seguente equazione alle differenze nelle autocovarianze o, in termini di autocorrelazioni Questo apparentemente semplice rappresentazione è davvero un risultato potente. Vale a dire, per j1,2. k possiamo scrivere il pieno sistema di equazioni, noto come le equazioni di Yule-Walker, Da algebra lineare si sa che la matrice di r s è di rango pieno. Pertanto è possibile applicare Regola di Cramer successivamente per k1,2. per risolvere il sistema per le autocorrelazioni parziali. I primi tre sono Abbiamo tre importanti risultati in serie rigorosamente fermo. L'implicazione è che possiamo usare qualsiasi realizzazione finita della sequenza per stimare la media. In secondo luogo. se t è strettamente stazionaria e E t 2 lt poi L'implicazione è che l'autocovarianza dipende solo dalla differenza tra t e s, non il loro punto cronologico nel tempo. Potremmo usare qualsiasi coppia di intervalli nel calcolo del autocovarianza fintanto che il tempo tra loro era costante. E possiamo usare qualsiasi realizzazione finito di dati per stimare le autocovarianze. In terzo luogo, la funzione di autocorrelazione nel caso di stretta stazionarietà è dato da L'implicazione è che l'autocorrelazione dipende solo dalla differenza tra t e s pure, e di nuovo può essere stimato da qualsiasi realizzazione finita dei dati. Se il nostro obiettivo è quello di stimare i parametri descrittivi delle possibili realizzazioni delle serie temporali, allora forse rigorosa stazionarietà è troppo restrittiva. Ad esempio, se la media e covarianze di x t sono costanti e indipendenti dal punto cronologico nel tempo, allora forse non è importante per noi che la funzione di distribuzione sia uguale per diversi intervalli di tempo. Definizione Una funzione casuale è stazionario in senso lato (o debolmente stazionario, o stazionario in Khinchins senso, o covarianza fermo) se m 1 (t) m e m 11 (t, s). stazionarietà Strict per sé non implica stazionarietà debole. stazionarietà debole non implica rigorosa stazionarietà. stazionarietà rigoroso con E t 2 lt implica stazionarietà debole. teoremi ergodici riguardano la questione delle condizioni necessarie e sufficienti per fare inferenza da una sola realizzazione di una serie storica. In sostanza si riduce a assumendo stazionarietà debole. Teorema Se t è debolmente stazionario con media m e la funzione di covarianza, che poi è, per ogni data e gt 0 e h gt 0 esiste un certo numero di T o tale che per ogni T gt T o. se e solo se questa condizione necessaria e sufficiente è che i autocovarianze spengono, nel qual caso la media campionaria è uno stimatore consistente per la media della popolazione. Corollario Se t è debolmente stazionario con E tk xt 2 lt per ogni t, ed E tk xtx tsk x ts è indipendente t per ogni intero s, quindi se e solo se dove A conseguenza del corollario è presupposto che xtx tk è debolmente stazionario. Il Ergodic teorema non è altro che una legge di grandi numeri quando le osservazioni sono correlate. Ci si potrebbe chiedere a questo punto circa le implicazioni pratiche di stazionarietà. L'applicazione più comune di utilizzo di tecniche di serie temporali è in modellazione dei dati macroeconomici, sia teorici e atheoretic. Come esempio del primo, si potrebbe avere un modello acceleratore multiplier-. Per il modello di essere fermo, i parametri devono avere certi valori. Un test del modello è quindi quello di raccogliere i dati pertinenti e stimare i parametri. Se le stime non sono coerenti con la stazionarietà, allora si deve ripensare sia il modello teorico o il modello statisticla, o entrambi. Ora abbiamo abbastanza macchinari per cominciare a parlare della modellazione dei dati di serie temporali univariati. Ci sono quattro fasi del processo. 1. costruzione di modelli da Andor conoscenza esperienziale 2. Modelli teorici che identificano in base ai dati (serie osservato) 3. montaggio dei modelli (la stima dei parametri del modello (s)) 4. controllo del modello Se nella quarta fase non siamo soddisfatti torniamo al punto uno. Il processo è iterativo fino a nuovo controllo e respecification rendimenti nessun ulteriore miglioramento dei risultati. Schematicamente Definizione Alcune operazioni semplici sono i seguenti: L'operatore backshift Bx tx t-1 L'operatore Fx invio TX t1 L'operatore differenza 1 - B xtxt - x t-1 La differenza operatore si comporta in maniera coerente con la costante di una serie infinita . Cioè, la sua inversa è il limite di una somma infinita. Vale a dire, -1 (1-B) -1 1 (1-B) 1BB 2. Il integrare operatore S -1 Dato che è l'inverso dell'operatore differenza, l'operatore integrare serve per costruire la somma. COSTRUZIONE MODELLO In questa sezione vi proponiamo una breve rassegna del tipo più comune di modelli di serie storiche. Sulla base di quelle conoscenza del processo di generazione di dati uno raccoglie una classe di modelli per l'identificazione e la stima dalle possibilità che seguono. Definizione Supponiamo che Ex t m è indipendente da t. Un modello come le caratteristiche è chiamato modello autoregressivo di ordine p, AR (p). Definizione Se una variabile dipendente dal tempo (processo stocastico) t soddisfa quindi t si dice per soddisfare la proprietà di Markov. Sul lato sinistro l'aspettativa è condizionata sulla storia infinita di x t. Sul RHS è condizionata solo su una parte della storia. Dalle definizioni, un modello AR (p) è visto per soddisfare la proprietà di Markov. Utilizzando l'operatore backshift possiamo scrivere il nostro modello AR come Teorema Una condizione necessaria e sufficiente per il modello AR (p) sia stazionario è che tutte le radici del polinomio trovano all'esterno del cerchio unitario. Esempio 1 Si consideri il AR (1) L'unica radice di 1 - F 1 B 0 è B 1 F 1. La condizione per la stazionarietà richiede. Se poi apparirà molto frenetico della serie osservata. Per esempio. considerare in cui il termine rumore bianco ha una distribuzione normale con una media nulla e varianza di uno. Le osservazioni passare segno con quasi tutti osservazione. Se, d'altro canto, allora la serie osservata sarà molto più agevole. In questa serie un'osservazione tende ad essere superiore a 0 se il suo predecessore era superiore a zero. La varianza di e t è s e 2 per ogni t. La varianza di x t. quando ha media zero, è data dalla Poiché la serie è stazionario possiamo scrivere. Quindi, la funzione autocovarianza di un AR (1) serie è, supponendo senza perdita di generalità m 0 Per vedere come si presenta in termini di parametri AR faremo uso del fatto che possiamo scrivere xt come segue Moltiplicando per x TK e prendendo le aspettative Si noti che i autocovarianze muoiono come k cresce. La funzione di autocorrelazione è autocovarianza divisa per la varianza del termine rumore bianco. O, . Utilizzando le precedenti formule di Yule-Walker per le autocorrelazioni parziali che abbiamo per un AR (1) le autocorrelazioni muoiono in modo esponenziale e le autocorrelazioni parziali mostrano un picco ad un lag e sono pari a zero in seguito. Esempio 2 Si consideri l'AR (2) Il polinomio associato nell'operatore di ritardo è Le radici possono essere trovati utilizzando la formula quadratica. Le radici sono Quando le radici sono reali e di conseguenza la serie diminuirà esponenzialmente in risposta ad uno shock. Quando le radici sono complesse e apparirà come un'onda segno smorzato la serie. Il teorema stazionarietà impone le seguenti condizioni sulla AR coefficienti Il autocovarianza per (2) processo AR, a media nulla, è dividendo per la varianza xt dà la funzione di autocorrelazione Da possiamo scrivere Analogamente per il secondo e terzo autocorrelazioni Gli altri autocorrelazioni sono risolti per il modo ricorsivo. Il loro modello è regolato dalle radici della seconda equazione differenza ordine lineare Se le radici sono reali allora le autocorrelazioni diminuirà in maniera esponenziale. Quando le radici sono complesse le autocorrelazioni appariranno come una sinusoide smorzata. Utilizzando le equazioni di Yule-Walker, le autocorrelazioni parziali sono in questo caso, le autocorrelazioni muoiono lentamente. L'autocorrelazione parziale invece è abbastanza distintivo. Ha picchi a uno e due GAL ed è pari a zero in seguito. Teorema Se x t è un processo stazionario AR (p), allora può essere scritto equivalentemente come modello filtro lineare. Cioè, il polinomio nell'operatore backshift può essere invertita e AR (p) scritto come una media mobile di ordine infinito invece. Esempio Supponiamo che z t è un AR (1) processo con media pari a zero. Ciò che è vero per il periodo corrente deve essere vero anche per i periodi precedenti. Così per sostituzione ricorsiva possiamo scrivere Piazza due parti e tener aspettative destra svanisce come k dal f lt 1. Pertanto la somma converge a z t in media quadratica. Possiamo riscrivere il modello AR (p) come filtro lineare che sappiamo essere stazionaria. La funzione di autocorrelazione e autocorrelazione parziale Generalmente Supponiamo che un fermo serie Z t con media zero è conosciuto per essere autoregressiva. La funzione di autocorrelazione di un AR (p) è trovata prendendo aspettative di e dividendo per la varianza di z t Questo ci dice che r k è una combinazione lineare delle autocorrelazioni precedenti. Possiamo usare questo nell'applicare Cramers regola per (i) nella soluzione per f kk. In particolare possiamo vedere che questa dipendenza lineare causerà f kk 0 per k gt p. Questa caratteristica distintiva della serie autoregressivo sarà molto utile quando si tratta di individuazione di una serie sconosciuta. Se si dispone di uno o MathCAD MathCAD Explorer, allora si può sperimentare interactivley con alcune fo i (p) idee AR qui presentati. Modello a media mobile consideri un modello dinamico in cui la serie di interesse dipende solo una parte della storia del termine rumore bianco. Schematicamente questo potrebbe essere rappresentato come Definizione Supponiamo che un t è una sequenza non correlata di i. i.d. variabili casuali con media nulla e varianza finita. Poi un processo media mobile di ordine q, MA (q), è dato da Teorema: Un processo media mobile è sempre stazionaria. Dimostrazione: Piuttosto che iniziare con una prova generale, lo faremo per un caso specifico. Supponiamo che z t è MA (1). Poi . Naturalmente, una t ha media nulla e varianza finita. La media di z t è sempre zero. I autocovarianze saranno tenute da Si può vedere che la media della variabile casuale non dipende dal tempo in alcun modo. Si può anche vedere che il autocovarianza dipende solo le s offset, non su dove nella serie si parte. Si può dimostrare lo stesso risultato, più in generale partendo, che ha il movimento alternativo rappresentanza media. Consideriamo innanzitutto la varianza di Z t. Mediante sostituzione ricorsiva si può dimostrare che questa è uguale alla somma sappiamo essere una serie convergente così la varianza è finita ed è indipendente dal tempo. I covarianze sono, per esempio, si può anche vedere che le covarianze auto dipendono solo sui punti relativi a tempo, non il punto cronologico nel tempo. La nostra conclusione da tutto questo è che un processo MA () è stazionario. Per il processo MA generale (q) la funzione di autocorrelazione è dato dalla funzione di autocorrelazione parziale morirà senza intoppi. Si può vedere questo invertendo il processo per ottenere un processo AR (). Se si dispone di uno o MathCAD MathCAD Explorer, allora si può sperimentare in modo interattivo con alcune delle idee (q) MA qui presentati. Mixed Autoregressive - media mobile modelle Definizione Supponiamo che un t è una sequenza non correlata di i. i.d. variabili casuali con media nulla e varianza finita. Poi un autoregressivo, spostando processo media di ordine (p, q), ARMA (p, q), è dato da Le radici dell'operatore autoregressivo deve trovano tutti al di fuori del cerchio unitario. Il numero di incognite è PQ2. Il p e q sono evidenti. Il 2 comprende il livello del processo, m. e la varianza del termine rumore bianco, sa 2. Supponiamo che si combinano nostri AR e MA rappresentazioni in modo che il modello è ei coefficienti sono normalizzati in modo che bo 1. Quindi questa rappresentazione è chiamato ARMA (p, q) se il radici di (1) tutto si trovano al di fuori del cerchio unitario. Supponiamo che y t sono misurati come deviazioni dalla media in modo che possiamo cadere una o. allora la funzione autocovarianza è derivato da se jgtq allora i termini MA abbandonano in attesa di dare Cioè, la funzione autocovarianza si presenta come un tipico AR per ritardi dopo q muoiono senza intoppi dopo q, ma non possiamo dire come 1,2,133, q sarà. Possiamo anche esaminare la PACF per questa classe di modello. Il modello può essere scritto come Possiamo scrivere questo come un processo MA (inf) che suggerisce che le PACFs morire lentamente. Con un po 'di aritmetica abbiamo potuto dimostrare che questo avviene solo dopo le prime punte p contribuito da parte AR. Legge empirica In realtà, una serie temporale stazionaria potrebbe essere rappresentata da p 2 e q 2. Se la tua azienda è quello di fornire una buona approssimazione alla realtà e bontà di adattamento è il vostro criterio allora un modello prodigo è preferito. Se il vostro interesse è l'efficienza predittiva allora il modello parsimoniosa è preferito. Esperimento con le idee ARMA di cui sopra con un foglio di lavoro MathCAD. Autoregressive Integrare modello a media mobile filtro MA filtro AR Integrare filtro A volte il processo, o di una serie, stiamo cercando di modella non è fermo in livelli. Ma potrebbe essere stazionario, per esempio, le prime differenze. Vale a dire, nella sua forma originale i autocovarianze per la serie potrebbe non essere indipendente dal punto cronologico nel tempo. Tuttavia, se si costruisce una nuova serie, che è la prima differenza della serie originale, questa nuova serie soddisfa la definizione di stazionarietà. Questo è spesso il caso con dati economici che è altamente è tendenzialmente. Definizione Supponiamo che z T non è fermo, ma Z t - z t-1 soddisfa la definizione di stazionarietà. Inoltre, a, il termine rumore bianco ha finito media e varianza. Possiamo scrivere il modello in quanto questo è il nome di una (d, p q) modello ARIMA. p identifica l'ordine dell'operatore AR, d identifica l'alimentazione. q identifica l'ordine dell'operatore MA. Se le radici di f (B) si trovano al di fuori del cerchio unitario allora possiamo riscrivere la ARIMA (p, d, q) come filtro lineare. Cioè esso può essere scritto come un MA (). Ci riserviamo la discussione della rilevazione di radici unitarie per un'altra parte delle dispense. Si consideri un sistema dinamico con x t come una serie di input e y t come una serie di uscita. Schematicamente abbiamo Questi modelli sono un'analogia discreto di equazioni differenziali lineari. Supponiamo la seguente relazione dove B indica un ritardo puro. Ricordiamo che (1-B). Con questa sostituzione il modello può essere scritta Se il polinomio coefficiente y t può essere invertita, allora il modello può essere scritta come V (B) è noto come la risposta impulsiva. Ci si troverà di fronte questa terminologia di nuovo nel nostro tardi discussione del vettore autoregressivo. modelli di cointegrazione e correzione degli errori. IDENTIFICAZIONE Avendo deciso su una classe di modelli, si deve ora identificare l'ordine dei processi che generano i dati. Cioè, si deve fare congetture migliori per l'ordine dei processi AR e MA guidare la serie stazionaria. Una serie stazionaria viene completamente caratterizzato dalla sua media e autocovarianze. Per motivi di analisi che di solito lavoriamo con le autocorrelazioni e autocorrelazioni parziali. Questi due strumenti di base hanno modelli unici per stazionari processi AR e MA. Si potrebbe calcolare le stime di esempio delle funzioni di autocorrelazione e autocorrelazione parziale e confrontarle con i risultati tabulati per i modelli standard. Funzione di esempio autocovarianza Funzione di esempio autocorrelazione I autocorrelazioni parziali del campione prevede di utilizzare le autocorrelazioni e autocorrelazioni parziali è abbastanza semplice in linea di principio. Supponiamo di avere una serie z t. con media zero, che è AR (1). Se dovessimo eseguire la regressione di z t2 su z t1 e Z t ci aspettiamo di trovare che il coefficiente su z t non è stato diverso da zero dal momento che questo autocorrelazione parziale dovrebbe essere pari a zero. D'altra parte, le autocorrelazioni per questa serie dovrebbe essere in diminuzione esponenziale per aumentare ritardi (vedi AR (1) nell'esempio precedente). Supponiamo che la serie è davvero una media mobile. L'autocorrelazione dovrebbe essere zero ovunque ma al primo ritardo. L'autocorrelazione parziale deve morire fuori in modo esponenziale. Anche dal nostro romp molto superficiale attraverso le basi di analisi delle serie temporali è evidente che c'è una dualità tra processi AR e MA. Questa dualità può essere riassunto nella seguente tabella.

No comments:

Post a Comment