Sunday, February 12, 2017

Autocorrélation D'Un Processus De Moyenne Mobile

Autocorrélation du processus de moyenne mobile Cet exemple montre comment introduire l'autocorrélation dans un processus de bruit blanc par filtrage. Lorsque nous introduisons l'autocorrélation en un signal aléatoire, nous manipulons sa fréquence. Un filtre à moyenne mobile atténue les composantes haute fréquence du signal, le lissant efficacement. Créez la réponse impulsionnelle pour un filtre à moyenne mobile à 3 points. Filtrer une séquence de bruit blanc N (0,1) avec le filtre. Réglez le générateur de nombres aléatoires sur les paramètres par défaut pour obtenir des résultats reproductibles. Obtenir l'auto-corrélation de l'échantillon biaisé à 20 décalages. Tracer l'autocorrélation de l'échantillon avec l'autocorrélation théorique. L'autocorrélation d'échantillon capture la forme générale de l'autocorrélation théorique, même si les deux séquences ne concordent pas en détail. Dans ce cas, il est clair que le filtre n'a introduit une autocorrélation significative que sur des décalages -2,2. La valeur absolue de la séquence décroît rapidement à zéro en dehors de cette plage. Pour voir que le contenu en fréquence a été affecté, tracer les estimations Welch des densités spectrales de puissance des signaux originaux et filtrés. Le bruit blanc a été coloré par le filtre de moyenne mobile. MATLAB et Simulink sont des marques déposées de The MathWorks, Inc. Veuillez consulter mathworkstrademarks pour obtenir une liste des autres marques de commerce appartenant à The MathWorks, Inc. Les autres noms de produits ou de marques sont des marques de commerce ou des marques déposées de leurs propriétaires respectifs. Sélectionnez votre paysA Corrélogramme Dans l'analyse des données, nous commençons généralement par les propriétés statistiques descriptives des données de l'échantillon (par exemple, moyenne, écart-type, biais, kurtosis, répartition empirique, etc.). Ces calculs sont certainement utiles, mais ils ne tiennent pas compte de l'ordre des observations dans les données de l'échantillon. L'analyse des séries chronologiques exige que l'on prête attention à l'ordre et nécessite donc un type différent de statistiques descriptives: des statistiques descriptives de séries chronologiques ou simplement des analyses de corrélogrammes. L'analyse corrélogramme examine la dépendance spatio-temporelle dans les données de l'échantillon et se concentre sur l'autocovariance empirique, l'auto-corrélation et les tests statistiques connexes. Enfin, le corrélogramme est une pierre angulaire pour l'identification du (des) modèle (s) et modèle (s). Ce tutoriel est un peu plus théorique que les tutoriels précédents dans la même série, mais nous ferons de notre mieux pour conduire les intuitions Maison pour vous. Contexte D'abord, commencez bien par une définition de la fonction d'auto-corrélation, simplifiez-la et étudiez l'ACF théorique pour un processus de type ARMA. Fonction d'auto-corrélation (ACF) Par définition, la corrélation automatique pour le décalage k est exprimée comme suit: Cette courbe ACF est également infinie, mais la forme réelle peut suivre des motifs différents. Un processus AR peut être représenté par un processus MA infini. L'AR a une mémoire infinie. Exemple 4 - Modèle ARMA (p, q) A l'heure actuelle, on voit à quoi ressemble le tracé ACF d'un processus MA et AR pur Mais pourquoi pas un mélange des deux modèles Question: pourquoi devons-nous considérer un modèle de mélange comme ARMA, puisque nous pouvons représenter n'importe quel modèle comme MA ou un modèle AR Réponse: nous essayons de réduire l'exigence de mémoire et le Complexité du processus en superposant les deux modèles. En utilisant la formule d'auto-corrélation MA (q), nous pouvons calculer les fonctions d'auto-corrélation ARMA (p, q) pour leur représentation MA. Cela devient intense Certains d'entre vous pourraient se demander pourquoi nous n'avons pas utilisé VAR ou une représentation d'espace d'état pour simplifier les notations. J'ai fait un point de rester dans le domaine du temps, et évité toute nouvelle idée ou des astuces de mathématiques car ils ne serviraient pas nos intentions ici: Implying l'ordre ARMA exacte en utilisant les valeurs ACF par eux-mêmes, ce qui est tout sauf précis. Intuition: Les valeurs ACF peuvent être considérées comme les valeurs des coefficients du modèle équivalent MA. Intuition: La variance conditionnelle n'a pas de barrière (effet) sur les calculs d'auto-corrélation. Intuition: La moyenne à long terme n'a pas non plus de barrière (effet) sur les auto-corrélations. Fonction d'auto-corrélation partielle (PACF) Nous avons vu que l'identification de l'ordre du modèle (MA ou AR) est non trivial pour les cas non-simples, nous avons besoin d'un autre outil d'auto-corrélation partielle (PACF). La fonction d'auto corrélation partielle (PACF) joue un rôle important dans l'analyse des données visant à identifier l'ampleur du retard dans un modèle autorégressif. L'utilisation de cette fonction a été introduite dans le cadre de l'approche de Box-Jenkins à la modélisation des séries temporelles, dans laquelle on peut déterminer les décalages appropriés p dans un modèle AR (p) ou dans un modèle ARIMA (p, d, q) Les fonctions d'auto-corrélation partielle. Le PACF suppose que le modèle sous-jacent est un AR (k) et utilise des régressions multiples pour calculer le dernier coefficient de régression. Intuition rapide: les valeurs PACF peuvent être considérées (à peu près) comme les valeurs des coefficients du modèle AR équivalent. Comment le PACF nous est-il utile? En supposant que nous avons un processus AR (p), le PACF aura des valeurs significatives pour les premiers p lags et tombera à zéro après. Qu'en est-il du processus MA Le processus MA comporte des valeurs PACF non nulles pour un nombre (théoriquement) infini de décalages. Exemple 4: MA (1) A RIMA désigne les modèles de moyenne mobile intégrée autorégressive. Univariée (vecteur unique) ARIMA est une technique de prévision qui projette les valeurs futures d'une série basée entièrement sur sa propre inertie. Sa principale application est dans le domaine de la prévision à court terme nécessitant au moins 40 points de données historiques. Il fonctionne mieux lorsque vos données présentent un modèle stable ou cohérent avec le temps avec un minimum de valeurs aberrantes. Parfois appelé Box-Jenkins (après les auteurs originaux), ARIMA est généralement supérieur aux techniques de lissage exponentiel quand les données sont raisonnablement longues et la corrélation entre les observations passées est stable. Si les données sont courtes ou très volatiles, une méthode de lissage peut avoir un meilleur rendement. Si vous n'avez pas au moins 38 points de données, vous devriez considérer une autre méthode que ARIMA. La première étape de l'application de la méthodologie ARIMA est de vérifier la stationnarité. La stationnarité implique que la série reste à un niveau relativement constant dans le temps. Si une tendance existe, comme dans la plupart des applications économiques ou commerciales, vos données ne sont PAS stationnaires. Les données devraient également montrer une variance constante de ses fluctuations dans le temps. Cela se voit facilement avec une série qui est fortement saisonnière et croissant à un rythme plus rapide. Dans un tel cas, les hauts et les bas de la saisonnalité deviendront plus dramatiques avec le temps. Sans ces conditions de stationnarité rencontrées, un grand nombre des calculs associés au procédé ne peuvent pas être calculés. Si une représentation graphique des données indique la non-stationnalité, alors vous devez faire une différence entre les séries. La différence est un excellent moyen de transformer une série non stationnaire en stationnaire. Ceci est fait en soustrayant l'observation dans la période courante de la précédente. Si cette transformation n'est effectuée qu'une seule fois dans une série, vous dites que les données ont été différenciées pour la première fois. Ce processus élimine essentiellement la tendance si votre série croît à un taux assez constant. Si elle croît à un rythme croissant, vous pouvez appliquer la même procédure et la différence les données à nouveau. Vos données seraient ensuite secondées. Les autocorrélations sont des valeurs numériques qui indiquent comment une série de données est liée à elle-même dans le temps. Plus précisément, elle mesure à quel point les valeurs de données à un certain nombre de périodes séparées sont corrélées les unes aux autres dans le temps. Le nombre de périodes d'intervalle est généralement appelé le décalage. Par exemple, une autocorrélation au décalage 1 mesure comment les valeurs 1 période séparées sont corrélées les unes aux autres tout au long de la série. Une autocorrélation au décalage 2 mesure comment les données deux périodes séparées sont corrélées tout au long de la série. Les autocorrélations peuvent varier de 1 à -1. Une valeur proche de 1 indique une corrélation positive élevée alors qu'une valeur proche de -1 implique une corrélation négative élevée. Ces mesures sont le plus souvent évaluées par des parcelles graphiques appelées corrélagrammes. Un corrélogramme trace les valeurs d'autocorrélation pour une série donnée à différents décalages. Ceci est appelé la fonction d'autocorrélation et est très important dans la méthode ARIMA. La méthodologie ARIMA tente de décrire les mouvements d'une série temporelle stationnaire en fonction de ce que l'on appelle les paramètres autorégressifs et de moyenne mobile. Ceux-ci sont appelés paramètres AR (autoregessive) et MA (moyennes mobiles). Un modèle AR avec un seul paramètre peut être écrit comme. X (t) A (1) X (t-1) E (t) où X (t) séries temporelles sous enquête A (1) le paramètre autorégressif d'ordre 1 X (t-1) (T) le terme d'erreur du modèle Cela signifie simplement que toute valeur donnée X (t) peut être expliquée par une fonction de sa valeur précédente, X (t-1), plus une erreur aléatoire inexplicable, E (t). Si la valeur estimée de A (1) était de 0,30, alors la valeur actuelle de la série serait liée à 30 de sa valeur il y a une période. Bien sûr, la série pourrait être liée à plus d'une valeur passée. Par exemple, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Cela indique que la valeur courante de la série est une combinaison des deux valeurs immédiatement précédentes, X (t-1) et X (t-2), plus une erreur aléatoire E (t). Notre modèle est maintenant un modèle autorégressif de l'ordre 2. Modèles de moyenne mobile: Un deuxième type de modèle de Box-Jenkins est appelé un modèle de moyenne mobile. Bien que ces modèles semblent très semblables au modèle AR, le concept derrière eux est tout à fait différent. Les paramètres de la moyenne mobile rapportent ce qui se produit dans la période t seulement aux erreurs aléatoires qui se sont produites dans des périodes passées, c'est-à-dire E (t-1), E (t-2), etc. plutôt que X (t-1) T-2), (Xt-3) comme dans les approches autorégressives. Un modèle de moyenne mobile avec un terme MA peut s'écrire comme suit. X (t) - B (1) E (t-1) E (t) Le terme B (1) est appelé MA d'ordre 1. Le signe négatif devant le paramètre est utilisé uniquement pour la convention et est habituellement imprimé Par la plupart des programmes informatiques. Le modèle ci-dessus dit simplement que toute valeur donnée de X (t) est directement liée seulement à l'erreur aléatoire de la période précédente, E (t-1), et au terme d'erreur courant E (t). Comme dans le cas des modèles autorégressifs, les modèles de moyenne mobile peuvent être étendus à des structures d'ordre supérieur couvrant différentes combinaisons et des longueurs moyennes mobiles. La méthodologie ARIMA permet également de construire des modèles intégrant à la fois des paramètres autorégressifs et des paramètres de la moyenne mobile. Ces modèles sont souvent appelés modèles mixtes. Bien que cela constitue un outil de prévision plus compliqué, la structure peut en effet simuler la série mieux et produire une prévision plus précise. Les modèles purs impliquent que la structure ne se compose que de paramètres AR ou MA - pas les deux. Les modèles développés par cette approche sont habituellement appelés modèles ARIMA car ils utilisent une combinaison d'auto-régression (AR), d'intégration (I) - se référant au processus inverse de différenciation pour produire les opérations de prévision et de moyenne mobile (MA). Un modèle ARIMA est habituellement déclaré comme ARIMA (p, d, q). Cela représente l'ordre des composantes autorégressives (p), le nombre d'opérateurs de différenciation (d) et l'ordre le plus élevé du terme moyen mobile. Par exemple, ARIMA (2,1,1) signifie que vous avez un modèle autorégressif de second ordre avec une composante moyenne mobile de premier ordre dont la série a été différenciée une fois pour induire la stationnarité. Picking the Right Specification: Le principal problème dans le classique Box-Jenkins est d'essayer de décider quelle spécification ARIMA à utiliser - i. e. Combien de paramètres AR et / ou MA à inclure. C'est ce que beaucoup de Box-Jenkings 1976 a été consacré au processus d'identification. Elle dépend de l'éva - luation graphique et numérique des fonctions d'autocorrélation et d'autocorrélation partielle. Eh bien, pour vos modèles de base, la tâche n'est pas trop difficile. Chacun a des fonctions d'autocorrélation qui ont une certaine apparence. Cependant, lorsque vous montez en complexité, les motifs ne sont pas facilement détectés. Pour rendre les choses plus difficiles, vos données ne représentent qu'un échantillon du processus sous-jacent. Cela signifie que les erreurs d'échantillonnage (valeurs aberrantes, erreurs de mesure, etc.) peuvent fausser le processus d'identification théorique. C'est pourquoi la modélisation ARIMA traditionnelle est un art plutôt qu'une science.


No comments:

Post a Comment