Tuesday 28 November 2017

Moving Media Rigorosamente Stazionario


Proprio come suggerisce il titolo, questo è il mio problema: Let Zt una successione strettamente stazionario. Definire Xt Zt theta Z. Mostra che questa sequenza è anche strettamente stazionario. Heres il mio problema. La mia definizione di strettamente stazionario è che abbiamo la distribuzione di (Zt, Z, puntini, Z) è indipendente da t per ogni t in mathbb e tutto h in mathbb. Ma come la vedo io abbiamo (Xt, X, punti, X) (Zt theta Z, puntini, Z theta Z), che sarebbe indipendente da T-1 da come Zt viene considerato. Come possiamo spostiamo questo all'indipendenza di t chiesto 12 Febbraio 13 alle 17:34 Non penso che thats un vero problema: l'indipendenza da t-1 è la stessa di indipendenza da t e si vede chiaramente scrivendo più esplicitamente: per h1 si ottiene semplicemente Zttheta Z sim Z theta Ztquadforall tinmathbb Z che è lo stesso forall (t-1) inmathbb Z. non si confonda con la dipendenza delle variabili, stazionarietà è circa la loro distribuzione in realtà una serie costante ha variabili dipendenti la cui distribuzione è indipendente da t. O ho frainteso il tuo question Breve introduzione alla moderna Time Series Definizione Una serie temporale è una casuale funzione x t di t argomento in una serie T. In altre parole, una serie storica è una famiglia di variabili casuali. x t-1. x t. x t1. che corrisponde a tutti gli elementi del set T, dove T è dovrebbe essere una, insieme infinito numerabile. Definizione Un osservata tempo serie t t e T o T è considerata come una parte di una realizzazione di un funzione random x t. Un insieme infinito di possibili realizzazioni che potrebbero essere stati osservati si chiama un insieme. Per mettere le cose in modo più rigoroso, la serie storica (o funzione casuale) è una funzione reale x (w, t) delle due variabili w e t, dove wW e t T. Se fissiamo il valore di w. abbiamo una funzione reale x (t w) del tempo t, che è una realizzazione della serie temporale. Se fissiamo il valore di t, allora abbiamo una variabile casuale X (w t). Per un dato punto nel tempo vi è una distribuzione di probabilità su x. Così una funzione casuale x (w, t) può essere considerato sia per una famiglia di variabili casuali o come una famiglia di realizzazioni. Definizione Definiamo la funzione di distribuzione della variabile casuale w proposta t 0 come P o) x (x). Allo stesso modo possiamo definire la distribuzione congiunta di n variabili aleatorie I punti che contraddistinguono l'analisi di serie temporali di analisi statistiche ordinarie sono le seguenti (1) La dipendenza tra osservazioni in diversi punti cronologici in tempo gioca un ruolo essenziale. In altre parole, l'ordine delle osservazioni è importante. In un'analisi statistica ordinaria si assume che le osservazioni sono indipendenti. (2) Il dominio di t è infinito. (3) Dobbiamo fare una deduzione da una realizzazione. La realizzazione della variabile casuale può essere osservata solo una volta in ogni punto nel tempo. All'analisi multivariata abbiamo molte osservazioni su un numero finito di variabili. Questa differenza critica richiede l'assunzione di stazionarietà. Definizione La casuale funzione x t è detto di essere rigorosamente stazionari se tutte le funzioni di distribuzione di dimensione finita che definiscono x t rimangono gli stessi, anche se l'intero gruppo di punti t 1. t 2. t n viene spostato lungo l'asse del tempo. Cioè, se per qualsiasi intero t 1. t 2. t n e k. Graficamente, si potrebbe immaginare la realizzazione di una serie strettamente stazionaria come avente non solo allo stesso livello in due intervalli differenti, ma anche la stessa funzione di distribuzione, fino ai parametri che definiscono. L'assunzione di stazionarietà rende la nostra vita più semplice e meno costosa. Senza stazionarietà dovremmo provare il processo di frequente ad ogni tempo, al fine di costruire una caratterizzazione delle funzioni di distribuzione nella definizione precedente. Stazionarietà significa che possiamo limitare la nostra attenzione ad alcune delle semplici funzioni numeriche, cioè i momenti delle distribuzioni. I momenti centrali sono date da Definition (i) Il valore medio della serie temporale t è cioè il primo momento dell'ordine. (Ii) La funzione autocovarianza di t è cioè il secondo momento sul media. Se ts allora avete la varianza di x t. Useremo per indicare la autocovarianza di una serie stazionaria, dove k indica la differenza tra t e s. (Iii) La funzione di autocorrelazione (ACF) di t è Useremo per indicare l'autocorrelazione di una serie stazionaria, dove k indica la differenza tra t e s. (Iv) l'autocorrelazione parziale (PACF). f kk. è la correlazione tra z t e z tk dopo aver rimosso la loro dipendenza lineare reciproca sulla variabili intervenienti z T1. z t2. z tk-1. Un modo semplice per calcolare l'autocorrelazione parziale tra z t e z tk è quello di eseguire le due regressioni quindi calcolare la correlazione tra i due vettori residuo. Oppure, dopo aver misurato le variabili come deviazioni dalla loro mezzi, l'autocorrelazione parziale può essere trovato come il coefficiente di regressione LS su z t nel modello dove il punto sopra la variabile indica che è misurata come deviazione dalla media. (V) Le equazioni di Yule-Walker forniscono un importante rapporto tra le autocorrelazioni parziali e le autocorrelazioni. Moltiplicare entrambi i lati dell'equazione 10 per z tk-j e prendere le aspettative. Questa operazione ci dà la seguente equazione alle differenze nelle autocovarianze o, in termini di autocorrelazioni Questo apparentemente semplice rappresentazione è davvero un risultato potente. Vale a dire, per j1,2. k possiamo scrivere il pieno sistema di equazioni, noto come le equazioni di Yule-Walker, Da algebra lineare si sa che la matrice di r s è di rango pieno. Pertanto è possibile applicare Regola di Cramer successivamente per k1,2. per risolvere il sistema per le autocorrelazioni parziali. I primi tre sono Abbiamo tre importanti risultati in serie rigorosamente fermo. L'implicazione è che possiamo usare qualsiasi realizzazione finita della sequenza per stimare la media. In secondo luogo. se t è strettamente stazionaria e E t 2 lt poi L'implicazione è che l'autocovarianza dipende solo dalla differenza tra t e s, non il loro punto cronologico nel tempo. Potremmo usare qualsiasi coppia di intervalli nel calcolo del autocovarianza fintanto che il tempo tra loro era costante. E possiamo usare qualsiasi realizzazione finito di dati per stimare le autocovarianze. In terzo luogo, la funzione di autocorrelazione nel caso di stretta stazionarietà è dato da L'implicazione è che l'autocorrelazione dipende solo dalla differenza tra t e s pure, e di nuovo può essere stimato da qualsiasi realizzazione finita dei dati. Se il nostro obiettivo è quello di stimare i parametri descrittivi delle possibili realizzazioni delle serie temporali, allora forse rigorosa stazionarietà è troppo restrittiva. Ad esempio, se la media e covarianze di x t sono costanti e indipendenti dal punto cronologico nel tempo, allora forse non è importante per noi che la funzione di distribuzione sia uguale per diversi intervalli di tempo. Definizione Una funzione casuale è stazionario in senso lato (o debolmente stazionario, o stazionario in Khinchins senso, o covarianza fermo) se m 1 (t) m e m 11 (t, s). stazionarietà Strict per sé non implica stazionarietà debole. stazionarietà debole non implica rigorosa stazionarietà. stazionarietà rigoroso con E t 2 lt implica stazionarietà debole. teoremi ergodici riguardano la questione delle condizioni necessarie e sufficienti per fare inferenza da una sola realizzazione di una serie storica. In sostanza si riduce a assumendo stazionarietà debole. Teorema Se t è debolmente stazionario con media m e la funzione di covarianza, che poi è, per ogni data e gt 0 e h gt 0 esiste un certo numero di T o tale che per ogni T gt T o. se e solo se questa condizione necessaria e sufficiente è che i autocovarianze spengono, nel qual caso la media campionaria è uno stimatore consistente per la media della popolazione. Corollario Se t è debolmente stazionario con E tk xt 2 lt per ogni t, ed E tk xtx tsk x ts è indipendente t per ogni intero s, quindi se e solo se dove A conseguenza del corollario è presupposto che xtx tk è debolmente stazionario. Il Ergodic teorema non è altro che una legge di grandi numeri quando le osservazioni sono correlate. Ci si potrebbe chiedere a questo punto circa le implicazioni pratiche di stazionarietà. L'applicazione più comune di utilizzo di tecniche di serie temporali è in modellazione dei dati macroeconomici, sia teorici e atheoretic. Come esempio del primo, si potrebbe avere un modello acceleratore multiplier-. Per il modello di essere fermo, i parametri devono avere certi valori. Un test del modello è quindi quello di raccogliere i dati pertinenti e stimare i parametri. Se le stime non sono coerenti con la stazionarietà, allora si deve ripensare sia il modello teorico o il modello statisticla, o entrambi. Ora abbiamo abbastanza macchinari per cominciare a parlare della modellazione dei dati di serie temporali univariati. Ci sono quattro fasi del processo. 1. costruzione di modelli da Andor conoscenza esperienziale 2. Modelli teorici che identificano in base ai dati (serie osservato) 3. montaggio dei modelli (la stima dei parametri del modello (s)) 4. controllo del modello Se nella quarta fase non siamo soddisfatti torniamo al punto uno. Il processo è iterativo fino a nuovo controllo e respecification rendimenti nessun ulteriore miglioramento dei risultati. Schematicamente Definizione Alcune operazioni semplici sono i seguenti: L'operatore backshift Bx tx t-1 L'operatore Fx invio TX t1 L'operatore differenza 1 - B xtxt - x t-1 La differenza operatore si comporta in maniera coerente con la costante di una serie infinita . Cioè, la sua inversa è il limite di una somma infinita. Vale a dire, -1 (1-B) -1 1 (1-B) 1BB 2. Il integrare operatore S -1 Dato che è l'inverso dell'operatore differenza, l'operatore integrare serve per costruire la somma. COSTRUZIONE MODELLO In questa sezione vi proponiamo una breve rassegna del tipo più comune di modelli di serie storiche. Sulla base di quelle conoscenza del processo di generazione di dati uno raccoglie una classe di modelli per l'identificazione e la stima dalle possibilità che seguono. Definizione Supponiamo che Ex t m è indipendente da t. Un modello come le caratteristiche è chiamato modello autoregressivo di ordine p, AR (p). Definizione Se una variabile dipendente dal tempo (processo stocastico) t soddisfa quindi t si dice per soddisfare la proprietà di Markov. Sul lato sinistro l'aspettativa è condizionata sulla storia infinita di x t. Sul RHS è condizionata solo su una parte della storia. Dalle definizioni, un modello AR (p) è visto per soddisfare la proprietà di Markov. Utilizzando l'operatore backshift possiamo scrivere il nostro modello AR come Teorema Una condizione necessaria e sufficiente per il modello AR (p) sia stazionario è che tutte le radici del polinomio trovano all'esterno del cerchio unitario. Esempio 1 Si consideri il AR (1) L'unica radice di 1 - F 1 B 0 è B 1 F 1. La condizione per la stazionarietà richiede. Se poi apparirà molto frenetico della serie osservata. Per esempio. considerare in cui il termine rumore bianco ha una distribuzione normale con una media nulla e varianza di uno. Le osservazioni passare segno con quasi tutti osservazione. Se, d'altro canto, allora la serie osservata sarà molto più agevole. In questa serie un'osservazione tende ad essere superiore a 0 se il suo predecessore era superiore a zero. La varianza di e t è s e 2 per ogni t. La varianza di x t. quando ha media zero, è data dalla Poiché la serie è stazionario possiamo scrivere. Quindi, la funzione autocovarianza di un AR (1) serie è, supponendo senza perdita di generalità m 0 Per vedere come si presenta in termini di parametri AR faremo uso del fatto che possiamo scrivere xt come segue Moltiplicando per x TK e prendendo le aspettative Si noti che i autocovarianze muoiono come k cresce. La funzione di autocorrelazione è autocovarianza divisa per la varianza del termine rumore bianco. O, . Utilizzando le precedenti formule di Yule-Walker per le autocorrelazioni parziali che abbiamo per un AR (1) le autocorrelazioni muoiono in modo esponenziale e le autocorrelazioni parziali mostrano un picco ad un lag e sono pari a zero in seguito. Esempio 2 Si consideri l'AR (2) Il polinomio associato nell'operatore di ritardo è Le radici possono essere trovati utilizzando la formula quadratica. Le radici sono Quando le radici sono reali e di conseguenza la serie diminuirà esponenzialmente in risposta ad uno shock. Quando le radici sono complesse e apparirà come un'onda segno smorzato la serie. Il teorema stazionarietà impone le seguenti condizioni sulla AR coefficienti Il autocovarianza per (2) processo AR, a media nulla, è dividendo per la varianza xt dà la funzione di autocorrelazione Da possiamo scrivere Analogamente per il secondo e terzo autocorrelazioni Gli altri autocorrelazioni sono risolti per il modo ricorsivo. Il loro modello è regolato dalle radici della seconda equazione differenza ordine lineare Se le radici sono reali allora le autocorrelazioni diminuirà in maniera esponenziale. Quando le radici sono complesse le autocorrelazioni appariranno come una sinusoide smorzata. Utilizzando le equazioni di Yule-Walker, le autocorrelazioni parziali sono in questo caso, le autocorrelazioni muoiono lentamente. L'autocorrelazione parziale invece è abbastanza distintivo. Ha picchi a uno e due GAL ed è pari a zero in seguito. Teorema Se x t è un processo stazionario AR (p), allora può essere scritto equivalentemente come modello filtro lineare. Cioè, il polinomio nell'operatore backshift può essere invertita e AR (p) scritto come una media mobile di ordine infinito invece. Esempio Supponiamo che z t è un AR (1) processo con media pari a zero. Ciò che è vero per il periodo corrente deve essere vero anche per i periodi precedenti. Così per sostituzione ricorsiva possiamo scrivere Piazza due parti e tener aspettative destra svanisce come k dal f lt 1. Pertanto la somma converge a z t in media quadratica. Possiamo riscrivere il modello AR (p) come filtro lineare che sappiamo essere stazionaria. La funzione di autocorrelazione e autocorrelazione parziale Generalmente Supponiamo che un fermo serie Z t con media zero è conosciuto per essere autoregressiva. La funzione di autocorrelazione di un AR (p) è trovata prendendo aspettative di e dividendo per la varianza di z t Questo ci dice che r k è una combinazione lineare delle autocorrelazioni precedenti. Possiamo usare questo nell'applicare Cramers regola per (i) nella soluzione per f kk. In particolare possiamo vedere che questa dipendenza lineare causerà f kk 0 per k gt p. Questa caratteristica distintiva della serie autoregressivo sarà molto utile quando si tratta di individuazione di una serie sconosciuta. Se si dispone di uno o MathCAD MathCAD Explorer, allora si può sperimentare interactivley con alcune fo i (p) idee AR qui presentati. Modello a media mobile consideri un modello dinamico in cui la serie di interesse dipende solo una parte della storia del termine rumore bianco. Schematicamente questo potrebbe essere rappresentato come Definizione Supponiamo che un t è una sequenza non correlata di i. i.d. variabili casuali con media nulla e varianza finita. Poi un processo media mobile di ordine q, MA (q), è dato da Teorema: Un processo media mobile è sempre stazionaria. Dimostrazione: Piuttosto che iniziare con una prova generale, lo faremo per un caso specifico. Supponiamo che z t è MA (1). Poi . Naturalmente, una t ha media nulla e varianza finita. La media di z t è sempre zero. I autocovarianze saranno tenute da Si può vedere che la media della variabile casuale non dipende dal tempo in alcun modo. Si può anche vedere che il autocovarianza dipende solo le s offset, non su dove nella serie si parte. Si può dimostrare lo stesso risultato, più in generale partendo, che ha il movimento alternativo rappresentanza media. Consideriamo innanzitutto la varianza di Z t. Mediante sostituzione ricorsiva si può dimostrare che questa è uguale alla somma sappiamo essere una serie convergente così la varianza è finita ed è indipendente dal tempo. I covarianze sono, per esempio, si può anche vedere che le covarianze auto dipendono solo sui punti relativi a tempo, non il punto cronologico nel tempo. La nostra conclusione da tutto questo è che un processo MA () è stazionario. Per il processo MA generale (q) la funzione di autocorrelazione è dato dalla funzione di autocorrelazione parziale morirà senza intoppi. Si può vedere questo invertendo il processo per ottenere un processo AR (). Se si dispone di uno o MathCAD MathCAD Explorer, allora si può sperimentare in modo interattivo con alcune delle idee (q) MA qui presentati. Mixed Autoregressive - media mobile modelle Definizione Supponiamo che un t è una sequenza non correlata di i. i.d. variabili casuali con media nulla e varianza finita. Poi un autoregressivo, spostando processo media di ordine (p, q), ARMA (p, q), è dato da Le radici dell'operatore autoregressivo deve trovano tutti al di fuori del cerchio unitario. Il numero di incognite è PQ2. Il p e q sono evidenti. Il 2 comprende il livello del processo, m. e la varianza del termine rumore bianco, sa 2. Supponiamo che si combinano nostri AR e MA rappresentazioni in modo che il modello è ei coefficienti sono normalizzati in modo che bo 1. Quindi questa rappresentazione è chiamato ARMA (p, q) se il radici di (1) tutto si trovano al di fuori del cerchio unitario. Supponiamo che y t sono misurati come deviazioni dalla media in modo che possiamo cadere una o. allora la funzione autocovarianza è derivato da se jgtq allora i termini MA abbandonano in attesa di dare Cioè, la funzione autocovarianza si presenta come un tipico AR per ritardi dopo q muoiono senza intoppi dopo q, ma non possiamo dire come 1,2,133, q sarà. Possiamo anche esaminare la PACF per questa classe di modello. Il modello può essere scritto come Possiamo scrivere questo come un processo MA (inf) che suggerisce che le PACFs morire lentamente. Con un po 'di aritmetica abbiamo potuto dimostrare che questo avviene solo dopo le prime punte p contribuito da parte AR. Legge empirica In realtà, una serie temporale stazionaria potrebbe essere rappresentata da p 2 e q 2. Se la tua azienda è quello di fornire una buona approssimazione alla realtà e bontà di adattamento è il vostro criterio allora un modello prodigo è preferito. Se il vostro interesse è l'efficienza predittiva allora il modello parsimoniosa è preferito. Esperimento con le idee ARMA di cui sopra con un foglio di lavoro MathCAD. Autoregressive Integrare modello a media mobile filtro MA filtro AR Integrare filtro A volte il processo, o di una serie, stiamo cercando di modella non è fermo in livelli. Ma potrebbe essere stazionario, per esempio, le prime differenze. Vale a dire, nella sua forma originale i autocovarianze per la serie potrebbe non essere indipendente dal punto cronologico nel tempo. Tuttavia, se si costruisce una nuova serie, che è la prima differenza della serie originale, questa nuova serie soddisfa la definizione di stazionarietà. Questo è spesso il caso con dati economici che è altamente è tendenzialmente. Definizione Supponiamo che z T non è fermo, ma Z t - z t-1 soddisfa la definizione di stazionarietà. Inoltre, a, il termine rumore bianco ha finito media e varianza. Possiamo scrivere il modello in quanto questo è il nome di una (d, p q) modello ARIMA. p identifica l'ordine dell'operatore AR, d identifica l'alimentazione. q identifica l'ordine dell'operatore MA. Se le radici di f (B) si trovano al di fuori del cerchio unitario allora possiamo riscrivere la ARIMA (p, d, q) come filtro lineare. Cioè esso può essere scritto come un MA (). Ci riserviamo la discussione della rilevazione di radici unitarie per un'altra parte delle dispense. Si consideri un sistema dinamico con x t come una serie di input e y t come una serie di uscita. Schematicamente abbiamo Questi modelli sono un'analogia discreto di equazioni differenziali lineari. Supponiamo la seguente relazione dove B indica un ritardo puro. Ricordiamo che (1-B). Con questa sostituzione il modello può essere scritta Se il polinomio coefficiente y t può essere invertita, allora il modello può essere scritta come V (B) è noto come la risposta impulsiva. Ci si troverà di fronte questa terminologia di nuovo nel nostro tardi discussione del vettore autoregressivo. modelli di cointegrazione e correzione degli errori. IDENTIFICAZIONE Avendo deciso su una classe di modelli, si deve ora identificare l'ordine dei processi che generano i dati. Cioè, si deve fare congetture migliori per l'ordine dei processi AR e MA guidare la serie stazionaria. Una serie stazionaria viene completamente caratterizzato dalla sua media e autocovarianze. Per motivi di analisi che di solito lavoriamo con le autocorrelazioni e autocorrelazioni parziali. Questi due strumenti di base hanno modelli unici per stazionari processi AR e MA. Si potrebbe calcolare le stime di esempio delle funzioni di autocorrelazione e autocorrelazione parziale e confrontarle con i risultati tabulati per i modelli standard. Funzione di esempio autocovarianza Funzione di esempio autocorrelazione I autocorrelazioni parziali del campione prevede di utilizzare le autocorrelazioni e autocorrelazioni parziali è abbastanza semplice in linea di principio. Supponiamo di avere una serie z t. con media zero, che è AR (1). Se dovessimo eseguire la regressione di z t2 su z t1 e Z t ci aspettiamo di trovare che il coefficiente su z t non è stato diverso da zero dal momento che questo autocorrelazione parziale dovrebbe essere pari a zero. D'altra parte, le autocorrelazioni per questa serie dovrebbe essere in diminuzione esponenziale per aumentare ritardi (vedi AR (1) nell'esempio precedente). Supponiamo che la serie è davvero una media mobile. L'autocorrelazione dovrebbe essere zero ovunque ma al primo ritardo. L'autocorrelazione parziale deve morire fuori in modo esponenziale. Anche dal nostro romp molto superficiale attraverso le basi di analisi delle serie temporali è evidente che c'è una dualità tra processi AR e MA. Questa dualità può essere riassunta nei seguenti table. Autoregressive media mobile ARMA (p, q) Modelli per Time Series Analysis - Parte 1 In ultimo articolo abbiamo guardato passeggiate aleatorie e rumore bianco come modelli di serie temporali di base per alcuni strumenti finanziari, come ad esempio come i prezzi delle azioni e su indici azionari quotidiane. Abbiamo trovato che in alcuni casi un modello random walk era insufficiente per catturare il comportamento autocorrelazione massima di strumento, che motiva modelli più sofisticati. Nel prossimo paio di articoli che ci accingiamo a discutere di tre tipi di modello, vale a dire la (AR) il modello di ordine p Autoregressive, la media mobile (MA) modello di ordine q e il misto Autogressive media mobile (ARMA) modello di ordine p , q. Questi modelli ci aiuteranno tentativo di catturare o spiegare più della correlazione seriale presente all'interno di uno strumento. In definitiva essi ci fornirà un mezzo per prevedere i prezzi futuri. Tuttavia, è ben noto che serie finanziarie possiedono una proprietà nota come la volatilità clustering. Cioè, la volatilità dello strumento non è costante nel tempo. Il termine tecnico per questo comportamento è noto come eteroschedasticità condizionale. Dal momento che l'AR, modelli MA e ARMA non sono condizionalmente eteroschedastici, cioè, essi non tengono conto della volatilità di clustering, avremo infine bisogno di un modello più sofisticato per le nostre previsioni. Tali modelli includono il modello Autogressive condizionale eteroschedastico (ARCH) e il modello generalizzate Autogressive condizionale eteroschedastico (GARCH), e loro le molte varianti. GARCH è particolarmente conosciuto in finanza quant ed è usato principalmente per le simulazioni serie finanziarie come mezzo di stima del rischio. Tuttavia, come con tutti gli articoli QuantStart, voglio costruire fino a questi modelli da versioni più semplici in modo che possiamo vedere come ogni nuova variante cambia la nostra capacità predittiva. Nonostante il fatto che AR, MA e ARMA sono relativamente semplici modelli di serie storiche, che sono la base di modelli più complessi, come il modello autoregressivo integrato a media mobile (ARIMA) e la famiglia GARCH. Quindi è importante che noi li studiamo. Una delle nostre prime strategie di trading della serie serie di articoli tempo sarà quello di coniugare ARIMA e GARCH al fine di prevedere i prezzi n periodi in anticipo. Tuttavia, dovremo aspettare fino a quando weve discusso sia ARIMA e GARCH separatamente prima di applicarli a una strategia vera e propria Come Will si procede In questo articolo ci accingiamo a delineare alcuni nuovi concetti di serie temporali che bene hanno bisogno per i metodi rimanenti, vale a dire rigorosa stazionarietà e il criterio di informazione di Akaike (AIC). A seguito di questi nuovi concetti seguiremo il modello tradizionale per lo studio di nuovi modelli di serie storica: Razionale - Il primo compito è quello di fornire un motivo per cui erano interessati ad un particolare modello, come quants. Perché stiamo introducendo il modello di serie storiche Quali effetti può catturare Cosa ci guadagno (o perdere) con l'aggiunta di complessità definizione extra - Abbiamo bisogno di fornire la definizione completa matematica (e la notazione associata) del modello di serie temporali, al fine di ridurre al minimo ogni ambiguità. Secondo Ordine Properties - si discuterà (e in alcuni casi derivano) la seconda proprietà ordine del modello di serie temporali, che comprende la sua media, la sua varianza e la sua funzione di autocorrelazione. Correlogramma - Si utilizzerà la seconda proprietà per poter tracciare un correlogramma di una realizzazione del modello di serie storica al fine di visualizzare il suo comportamento. Simulazione - Noi simulare realizzazioni del modello di serie temporali e quindi adattare il modello di queste simulazioni per assicurarci di avere implementazioni precise e comprendere il processo di adattamento. Reale dei dati finanziari - Vi adattarsi al modello di serie temporali di dati finanziari reali e considerare la correlogramma dei residui, al fine di vedere come spiega il modello per la correlazione seriale nella serie originale. Previsione - Si creerà n-passo avanti previsioni del modello di serie temporali per particolari realizzazioni, al fine di produrre in ultima analisi, segnali di trading. Quasi tutti gli articoli che scrivo sui modelli di serie storiche cadranno in questo modello e ci permetterà di confrontare agevolmente le differenze tra ogni modello come abbiamo aggiungere ulteriori complessità. Sono stati intenzione di iniziare, cercando in rigoroso stazionarietà e l'AIC. Rigorosamente stazionario Abbiamo fornito la definizione di stazionarietà in questo articolo sulla correlazione seriale. Tuttavia, perché stiamo per essere entrare nel regno di molte serie finanziaria, con varie frequenze, abbiamo bisogno di fare in modo che i nostri (eventuali) modelli prendono in considerazione la volatilità variabile nel tempo di queste serie. In particolare, dobbiamo considerare la loro eteroschedasticità. Ci si troverà di fronte questo problema quando si cerca di adattare alcuni modelli di serie storiche. In generale, non tutta la correlazione seriale nei residui di modelli a muro possono essere valutate senza tener eteroschedasticità in considerazione. Questo ci riporta alla stazionarietà. Una serie non è fermo nella varianza se ha volatilità variabile nel tempo, per definizione. Questo motiva una definizione più rigorosa di stazionarietà, ovvero rigorosa stazionarietà: rigorosamente fisso Serie Un modello di serie temporali,, è strettamente stazionario se la distribuzione statistica congiunta degli elementi x, ldots, x è la stessa di quella di XM, ldots, xm, forall ti, m. Si può pensare di questa definizione come semplicemente che la distribuzione della serie temporale è invariato per qualsiasi spostamento abritrary nel tempo. In particolare, la media e la varianza sono costanti nel tempo per una serie strettamente stazionaria e la autocovarianza tra xt e xs (diciamo) dipende solo dalla differenza assoluta di t e s, t-s. Ci sarà proposto serie strettamente stazionario nei prossimi post. Akaike Information Criterion ho accennato in articoli precedenti che avremmo alla fine dovranno prendere in considerazione come scegliere tra i migliori modelli separati. Questo è vero non solo per analisi di serie temporali, ma anche di machine learning e, più in generale, le statistiche in generale. I due metodi principali useremo (per il momento) sono il criterio di informazione di Akaike (AIC) e il criterio di informazione bayesiana (man mano che procediamo ulteriormente con i nostri articoli su bayesiana Statistics). Bene considerare brevemente l'AIC, come verrà utilizzato nella parte 2 di questo articolo ARMA. AIC è essenzialmente uno strumento per aiutare nella scelta del modello. Cioè, se abbiamo una selezione di modelli statistici (compresi serie temporale), allora l'AIC stima della qualità di ciascun modello, rispetto agli altri che abbiamo a disposizione. Si basa sulla teoria dell'informazione. che è un grande interesse argomento, profonda che purtroppo non possiamo andare troppo nel dettaglio circa. Si tenta di bilanciare la complessità del modello, che in questo caso, il numero di parametri, da quanto bene si adatta ai dati. Consente di fornire una definizione: Akaike Information Criterion Se prendiamo la funzione di verosimiglianza per un modello statistico, che ha i parametri k, e L massimizza la probabilità. allora il criterio Akaike informazioni è dato da: Il modello preferito, da una selezione di modelli, ha il minio AIC del gruppo. Si può vedere che l'AIC si sviluppa come il numero di parametri, k, aumenta, ma è ridotta se i negativi aumenta verosimiglianza. In sostanza si penalizza modelli che sono sovradattamento. Stiamo per essere la creazione di AR, MA e modelli ARMA di ordini diversi e un modo per scegliere il modello migliore adattarla a un particolare insieme di dati è quello di utilizzare l'AIC. Questo è quanto bene stia facendo nel prossimo articolo, in primo luogo per i modelli ARMA. Autoregressive (AR) Tutti i modelli di ordine p Il primo modello andavano a prendere in considerazione, che costituisce la base della parte 1, è il modello autoregressivo di ordine p, spesso abbreviato in AR (p). Nel precedente articolo abbiamo considerato il random walk. dove ogni termine, xt dipende esclusivamente sul periodo precedente, x e un termine rumore bianco stocastico, la WT: il modello autoregressivo è semplicemente un'estensione della passeggiata casuale che include termini più indietro nel tempo. La struttura del modello è lineare. che è il modello dipende linearmente alle condizioni precedenti, con coefficienti per ogni termine. Questo è dove il regressiva viene da in autoregressivo. Si tratta essenzialmente di un modello di regressione in cui i termini precedenti sono i predittori. Autoregressive Modello di ordine p Un modello di serie storiche, è un modello autoregressivo di ordine p. AR (p), se: iniziare xt alfa1 x ldots alphap x peso somma p alphai x peso finale dove è rumore bianco e alphai in mathbb, con alphap neq 0 per un processo autoregressivo p-ordine. Se consideriamo l'operatore spostamento all'indietro. (Vedi articolo precedente) allora possiamo riscrivere la sopra in funzione theta di: iniziare thetap () xt (1 - alfa1 - alfa2 2 - ldots - alphap) xt peso terminare Forse la prima cosa da notare sul modello AR (p) è che una passeggiata casuale è semplicemente AR (1) con alfa1 uguale all'unità. Come abbiamo detto in precedenza, il modello autogressive è un'estensione del random walk, quindi questo rende senso è semplice per fare previsioni con il modello AR (p), per qualsiasi tempo t, in quanto una volta che abbiamo i coefficienti alphai determinati, la nostra stima diventa semplicemente: begin cappello t alfa1 x ldots alphap x finisce qui possiamo fare n-passo avanti previsioni producendo cappello t, il cappello, il cappello, ecc fino a cappello. Infatti, una volta si considerano i modelli ARMA nella parte 2, useremo la R funzione per creare le previsioni (insieme con lo standard di confidenza errore bande intervallo) che ci aiuterà a produrre segnali di trading prevedere. Stazionarietà per Autoregressive Processi Uno degli aspetti più importanti del modello AR (p) è che non è sempre stazionaria. Infatti la stazionarietà di un particolare modello dipende dai parametri. Ive ha toccato questo prima in un precedente articolo. Per determinare se un processo AR (p) è stazionario o meno dobbiamo risolvere l'equazione caratteristica. L'equazione caratteristica è semplicemente il modello autoregressivo, scritto in forma di spostamento all'indietro, impostato a zero: Risolviamo questa equazione per. Affinché il particolare processo autoregressivo essere stazionaria abbiamo bisogno tutti i valori assoluti delle radici di questa equazione superare unità. Questa è una proprietà estremamente utile e ci permette di calcolare rapidamente se un processo AR (p) è stazionario o meno. Consente di prendere in considerazione alcuni esempi per rendere questa idea concreta: Random Walk - The AR (1) processo con alfa1 1 ha la caratteristica equazione Theta 1 -. Chiaramente questo ha radice 1 e come tale non è fermo. AR (1) - Se scegliamo alfa1 frac otteniamo xt frac x WT. Questo ci dà una equazione caratteristica di 1 - 0 frac, che ha una radice 4 gt 1 e quindi questo particolare AR (1) processo è stazionario. AR (2) - Se si pone alfa1 alfa2 frac allora otteniamo xt frac x frac x WT. La sua equazione caratteristica diventa - frac () () 0, che dà due radici 1, -2. Dal momento che questo ha una radice unitaria è una serie non stazionaria. Tuttavia, altri AR (2) serie può essere ferma. Secondo Proprietà ordinare la media di un processo AR (p) è pari a zero. Tuttavia, i autocovarianze e autocorrelazioni sono date da funzioni ricorsive, conosciuti come le equazioni di Yule-Walker. Le proprietà completi sono riportati di seguito: begin mux E (xt) 0 fine cominciano gammak somma p alphai gamma, enspace k 0 fine cominciano RHoK somma p alphai rho, enspace k 0 end Si noti che è necessario conoscere i valori dei parametri alphai prima il calcolo delle autocorrelazioni. Ora che weve ha dichiarato la seconda proprietà di ordine possiamo simulare vari ordini di AR (p) e tracciare le correlogrammi corrispondenti. Simulazioni e correlogrammi Iniziamo con un (1) processo di AR. Questo è simile a una passeggiata casuale, salvo che alfa1 non deve uguale all'unità. Il nostro modello sta per avere alfa1 0.6. Il codice R per creare questa simulazione è data come segue: Si noti che il ciclo for è effettuata da 2 a 100, non 1 a 100, come xt-1 quando t0 non è indicizzabile. Analogamente per AR processi di ordine superiore (p), t deve variare da p a 100 in questo ciclo. Siamo in grado di tracciare la realizzazione di questo modello e il suo correlogramma associata utilizzando la funzione di layout: Lascia per ora provare il montaggio di un processo AR (p) per i dati simulati weve appena generato, per vedere se siamo in grado di recuperare i parametri sottostanti. Si può ricordare che abbiamo effettuato una procedura simile in questo articolo su rumore bianco e passeggiate aleatorie. Come si scopre R fornisce un comando utile ar per adattarsi modelli autoregressivi. Possiamo usare questo metodo per dirci in primo luogo il miglior ordine p del modello (come determinato dal AIC sopra) e ci forniscono stime dei parametri per la alphai, che possiamo utilizzare per formare intervalli di confidenza. Per completezza, consente di ricreare la serie X: Ora usiamo il comando ar per adattare un modello autoregressivo al nostro AR simulato (1) processo, utilizzando stima di massima verosimiglianza (MLE) in quanto la procedura di montaggio. Ci sarà in primo luogo estrarre l'ordine migliore ottenuto: Il comando ar ha determinato con successo che il nostro modello di serie storiche di fondo è un (1) processo di AR. Possiamo quindi ottenere il parametro alphai (s) le stime: la procedura MLE ha prodotto una stima, cappello 0.523, che è leggermente inferiore rispetto al vero valore di alfa1 0.6. Infine, possiamo usare l'errore standard (con la varianza asintotica) per la costruzione di intervalli di confidenza 95 attorno al parametro sottostante (s). Per raggiungere questo obiettivo, abbiamo semplicemente creato un vettore c (-1.96, 1.96) e poi moltiplichiamo per l'errore standard: Il vero parametro non rientrano all'interno dell'intervallo di 95 fiducia, come mer aspettarsi dal fatto weve generato la realizzazione dal modello specificamente . Che ne dite se cambiamo la -0.6 alfa1 Come prima di poter montare un AR (p) modello utilizzando ar: Ancora una volta recuperiamo l'ordine corretto del modello, con una stima molto buona cappello -0,597 di alpha1-0.6. Vediamo anche che il vero parametro rientra nell'intervallo di confidenza 95 ancora una volta. Consente di aggiungere un po 'più di complessità per i nostri processi autoregressivi simulando un modello di ordine 2. In particolare, imposteremo alpha10.666, ma anche impostare alfa2 -0,333. Ecco il codice completo per simulare e tracciare la realizzazione, nonché il correlogramma per una tale serie: Come prima possiamo vedere che la correlogramma differisce significativamente da quella di rumore bianco, come sposarsi aspettarsi. Ci sono statisticamente significative a picchi k1, K3 e K4. Ancora una volta, sono state andando a utilizzare il comando ar per adattare un modello AR (p) al nostro AR sottostante (2) realizzazione. La procedura è simile a quella per l'AR (1) in forma: l'ordine corretto è stato recuperato e il parametro di stima cappello 0,696 e cappello -0,395 non sono troppo lontani i valori dei parametri veri di alpha10.666 e alpha2-0.333. Si noti che riceviamo un messaggio di avviso di convergenza. Si noti inoltre che R utilizza in realtà la funzione arima0 per calcolare il modello AR. Come pure imparare in articoli successivi, i modelli (p) AR sono semplicemente ARIMA (p, 0, 0) modelli, e, quindi, un modello AR è un caso speciale di ARIMA con nessun componente media mobile (MA). Bene anche essere utilizzando il comando Arima per creare intervalli di confidenza intorno più parametri, ed è per questo weve trascurato di farlo qui. Ora che weve ha creato alcuni dati simulati è il momento di applicare il modello AR (p) per le serie temporali attività finanziaria. Dati finanziari Amazon Inc. Iniziamo ottenendo il prezzo delle azioni per Amazon (AMZN) utilizzando quantmod come nell'ultimo articolo: Il primo compito è quello di tracciare sempre il prezzo per una breve ispezione visiva. In questo caso ben utilizzando i prezzi di chiusura giornalieri: Avviso Youll che quantmod aggiunge qualche formattazione per noi, vale a dire la data, e un grafico un po 'più bella rispetto alle solite classifiche R: Ora stiamo andando a prendere i rendimenti logaritmici di AMZN e poi la prima order differenza della serie per convertire la serie prezzo originale da una serie non-stazionario (potenzialmente) stazionario. Questo ci permette di confrontare le mele alle mele tra azioni, indici o qualsiasi altro bene, per l'uso in statistica multivariata successivi, come ad esempio quando si calcola una matrice di covarianza. Se si desidera una spiegazione dettagliata del perché i rendimenti di registro sono preferibili, dare un'occhiata a questo articolo sopra a Quantivity. Consente di creare una nuova serie, amznrt. di tenere i nostri rendimenti registro differenziata: Ancora una volta, siamo in grado di tracciare la serie: In questa fase vogliamo tracciare il correlogramma. Sono state cercando di vedere se la serie differenziata si presenta come il rumore bianco. Se non lo fa, allora non vi è correlazione seriale inspiegabile, che potrebbe essere spiegata da un modello autoregressivo. Notiamo un picco significativo a statististically k2. Quindi vi è una ragionevole possibilità di correlazione seriale inspiegabile. Attenzione però, che questo può essere dovuto al campionamento bias. Come tale, si può provare a montare un modello AR (p) per la serie e produrre intervalli di confidenza per i parametri: Montaggio del modello autoregressivo ar al primo ordine differenziata serie di prezzi del registro produce un (2) Modello AR, con il cappello -0,0278 e cappello -0,0687. Ive anche l'uscita della varianza aysmptotic in modo che si possa calcolare errori standard per i parametri e produrre intervalli di confidenza. Vogliamo vedere se zero è parte dell'intervallo di 95 fiducia, come se fosse, riduce la nostra fiducia che abbiamo un vero AR sottostante (2) processo per la serie AMZN. Per calcolare gli intervalli di confidenza al livello del 95 per ogni parametro, usiamo i seguenti comandi. Prendiamo la radice quadrata del primo elemento della matrice di varianza asintotica per produrre un errore standard, quindi creare intervalli di confidenza moltiplicandolo per -1.96 e 1.96 rispettivamente per il livello 95: Si noti che questo diventa più semplice quando si utilizza la funzione arima , ma ben aspettare fino Parte 2 prima di introdurre in modo corretto. Così possiamo vedere che per alfa1 lo zero è contenuta all'interno dell'intervallo di confidenza, mentre per alpha2 zero non è contenuto nel intervallo di confidenza. Quindi dobbiamo stare molto attenti a pensare che abbiamo davvero un AR generativa di fondo (2) modello per AMZN. In particolare si segnala che il modello autoregressivo non tiene conto della volatilità di clustering, che porta al clustering di correlazione seriale serie finanziarie. Se consideriamo i modelli ARCH e GARCH negli articoli successivi, ci conto di questo. Quando arriviamo di utilizzare la funzione completa Arima nel prossimo articolo, faremo predizioni della serie prezzo registro giornaliero al fine di consentire di creare segnali di trading. SampP500 Indice US Equity Insieme con i singoli titoli si può anche prendere in considerazione l'indice azionario degli Stati Uniti, il SampP500. Permette di applicare tutti i comandi precedenti per questa serie e produrre le trame come prima: Possiamo tracciare i prezzi: Come prima, così creare la prima differenza ordine dei prezzi di chiusura di registro: Ancora una volta, siamo in grado di tracciare la serie: E 'chiaro da questo grafico che la volatilità non è stazionario nel tempo. Ciò si riflette anche nella trama del correlogramma. Ci sono molti picchi, tra cui k1 e k2, statisticamente significativa di là di un modello di rumore bianco. Inoltre, vediamo la prova di processi di lunga memoria in quanto vi sono alcuni picchi statisticamente significative a K16, K18 e K21: In definitiva avremo bisogno di un modello più sofisticato di un modello autoregressivo di ordine p. Tuttavia, in questa fase possiamo ancora provare il montaggio di un tale modello. Vediamo cosa otteniamo se non così: Utilizzando ar produce un AR (22) del modello, vale a dire un modello con 22 parametri diversi da zero Cosa ci dice questo E 'indicativo che c'è probabilmente molto di più la complessità nella correlazione seriale di un semplice modello lineare di prezzi passati può davvero spiegare. Tuttavia, lo sapevamo già questo perché possiamo vedere che vi è una significativa correlazione seriale della volatilità. Per esempio, prendere in considerazione il periodo altamente volatile intorno al 2008. Questo motiva la prossima serie di modelli, vale a dire la media mobile MA (q) e la media mobile Autoregressive ARMA (p, q). Bene conoscere entrambi questi nella parte 2 del presente articolo. Come abbiamo più volte ricordiamo, questi saranno in ultima analisi, ci portano alla famiglia ARIMA e GARCH di modelli, entrambi i quali forniranno una misura molto meglio la correlazione complessità di serie del Samp500. Questo ci permetterà di migliorare le nostre previsioni in modo significativo e infine produrre strategie più redditizie. Appena iniziato con Trading Quantitative

No comments:

Post a Comment