Considérons le processus d'ordre infini MA défini par ytepsilonta (epsilon epsilon.), Où a est une constante et les epsilonts sont i. i.d. N (0, v) variable aléatoire. Quelle est la meilleure façon de montrer que yt est non stationnaire Je sais que je dois regarder les racines caractéristiques du polynôme caractéristiques et ensuite juger si elles sont ou non en dehors du cercle unité, mais quelle est la meilleure façon d'aborder ce problème Est-ce que je devrais essayer de réécrire le processus d'ordre infini MA comme un processus d'ordre fini AR ou est-il plus facile de travailler le processus MA demandé Oct 19 13 à 21: 11Quel est stationnaire autorégressif (AR), moyenne mobile (MA), et stationnaire mixte (ARMA ) Procédés autorégressifs stationnaires (AR) Les processus autorégressifs stationnaires (AR) ont des fonctions théoriques d'autocorrélation (ACFs) qui décroissent vers zéro, au lieu de couper à zéro. Les coefficients d'autocorrélation peuvent alterner en signe fréquemment, ou montrer un modèle ondulatoire, mais dans tous les cas, ils se rabattent vers zéro. En revanche, les processus AR avec ordre p ont des fonctions d'autocorrélation partielle théorique (PACF) qui coupent à zéro après lag p. (La longueur du retard du pic final de PACF est égale à l'ordre AR du processus, p.) Processus de moyenne mobile (MA) Les ACF théoriques des processus MA (moyenne mobile) avec l'ordre q coupé à zéro après lag q, l'ordre MA Du processus. Cependant, leurs PACFs théoriques décroissent vers zéro. (La longueur de décalage de la pointe ACF finale est égale à l'ordre MA du processus, q.) Processus mixte stationnaire (ARMA) Les processus mixtes stationnaires (ARMA) montrent un mélange de caractéristiques AR et MA. Tant le ACF théorique que le PACF s'écartent vers zéro. Copyright 2016 Minitab Inc. Tous droits réservés.4.2 Modèles stationnaires linéaires pour les séries temporelles où la variable aléatoire est appelée innovation car elle représente la partie de la variable observée qui est imprévisible compte tenu des valeurs passées. Le modèle général (4.4) suppose que c'est la sortie d'un filtre linéaire qui transforme les innovations passées, c'est-à-dire un processus linéaire. Cette hypothèse de linéarité est basée sur le théorème de décomposition de Wolds (Wold 1938) qui dit que tout processus discret de covariance stationnaire peut être exprimé comme la somme de deux processus non corrélés, où il est purement déterministe et est un processus purement indéterministe qui peut être écrit sous forme linéaire Somme du processus d'innovation: où est une séquence de variables aléatoires non corrélées en série avec moyenne nulle et variance commune. La condition est nécessaire pour la stationnarité. La formulation (4.4) est une reparamétrisation finie de la représentation infinie (4.5) - (4.6) à constante. Il est généralement écrit en termes de l'opérateur de décalage défini par, qui donne une expression plus courte: où l'opérateur de lag polynômes et sont appelés le polynôme et le polynôme, respectivement. Afin d'éviter la redondance des paramètres, nous supposons qu'il n'y a pas de facteurs communs entre les composants et les composants. Ensuite, nous étudierons le tracé de quelques séries temporelles générées par des modèles stationnaires dans le but de déterminer les principaux modèles de leur évolution temporelle. La figure 4.2 comprend deux séries générées à partir des processus stationnaires suivants calculés au moyen du quantrôme génarma: Figure 4.2: Séries temporelles générées par les modèles Comme prévu, les deux séries chronologiques se déplacent autour d'un niveau constant sans modification de variance due à la propriété stationnaire. De plus, ce niveau est proche de la moyenne théorique du processus, et la distance de chaque point à cette valeur est très rarement en dehors des limites. De plus, l'évolution de la série montre des déviations locales par rapport à la moyenne du processus, connue sous le nom de comportement de réversion moyenne qui caractérise les séries chronologiques stationnaires. Etudions avec quelques détails les propriétés des différents processus, en particulier la fonction d'autocovariance qui capture les propriétés dynamiques d'un processus stationnaire stochastique. Cette fonction dépend des unités de mesure, de sorte que la mesure habituelle du degré de linéarité entre les variables est le coefficient de corrélation. Dans le cas de processus stationnaires, le coefficient d'autocorrélation au décalage, dénoté par, est défini comme la corrélation entre et: Ainsi, la fonction d'autocorrélation (ACF) est la fonction d'autocovariance standardisée par la variance. Les propriétés de l'ACF sont les suivantes: Étant donné la propriété de symétrie (4.10), l'ACF est habituellement représentée au moyen d'un graphique à barres aux décalages non négatifs, appelé corrélogramme simple. Un autre outil utile pour décrire la dynamique d'un processus stationnaire est la fonction d'autocorrélation partielle (PACF). Le coefficient d'autocorrélation partielle au décalage mesure l'association linéaire entre et ajustée pour les effets des valeurs intermédiaires. Par conséquent, ce n'est que le coefficient dans le modèle de régression linéaire: Les propriétés du PACF sont équivalentes à celles de l'ACF (4.8) - (4.10) et il est facile de prouver que (Box et Jenkins 1976). Comme l'ACF, la fonction d'autocorrélation partielle ne dépend pas des unités de mesure et elle est représentée au moyen d'un graphique à barres aux décalages non négatifs appelé corrélogramme partiel. Les propriétés dynamiques de chaque modèle stationnaire déterminent une forme particulière des corrélogrammes. De plus, on peut montrer que, pour tout processus stationnaire, les deux fonctions, ACF et PACF, s'approchent de zéro alors que le retard tend vers l'infini. Les modèles ne sont pas toujours des processus stationnaires, il est donc nécessaire d'abord de déterminer les conditions de stationnarité. Il existe des sous-classes de modèles qui ont des propriétés particulières et nous les étudierons séparément. Ainsi, quand et, c'est un processus de bruit blanc. Quand, il s'agit d'un processus d'ordre pure moyenne mobile. , Et quand il s'agit d'un processus d'ordre autorégressif pur. . 4.2.1 Processus de bruit blanc Le modèle le plus simple est un processus de bruit blanc, où est une séquence de variables moyennes nulles non corrélées avec une variance constante. Il est noté par. Ce processus est stationnaire si sa variance est finie, puisque étant donné que: vérifie les conditions (4.1) - (4.3). De plus, elle n'est pas corrélée dans le temps, donc sa fonction d'autocovariance est: La figure 4.7 montre deux séries temporelles simulées générées à partir de processus avec une moyenne et des paramètres zéro et -0,7, respectivement. Le paramètre autorégressif mesure la persistance des événements passés dans les valeurs courantes. Par exemple, si un choc positif (ou négatif) affecte positivement (ou négativement) pendant une période de temps plus longue, plus la valeur de. Quand, la série se déplace plus approximativement autour de la moyenne due à l'alternance dans la direction de l'effet de, c'est-à-dire un choc qui affecte positivement dans le moment, a des effets négatifs sur, positive en. Le processus est toujours inversible et il est stationnaire lorsque le paramètre du modèle est contraint de se trouver dans la région. Pour démontrer l'état stationnaire, on écrira d'abord dans la forme moyenne mobile par substitution récursive de in (4.14): Figure 4.8: Corrélogrammes de population pour des processus C'est-à-dire une somme pondérée d'innovations passées. Les poids dépendent de la valeur du paramètre: quand, (ou), l'influence d'une innovation donnée augmente (ou diminue) dans le temps. En prenant les attentes à (4.15) pour calculer la moyenne du processus, on obtient: Donné que, le résultat est une somme de termes infinis qui converge pour toute valeur de seulement si, auquel cas. Un problème similaire apparaît lorsque nous calculons le deuxième moment. La preuve peut être simplifiée en supposant que, c'est - à - dire. Ensuite, la variance est: Encore une fois, la variance va à l'infini sauf pour, dans ce cas. Il est facile de vérifier que la moyenne et la variance explotent lorsque cette condition ne tient pas. La fonction d'autocovariance d'un processus stationnaire est donc la fonction d'autocorrélation pour le modèle stationnaire: c'est-à-dire que le corrélogramme présente une décroissance exponentielle avec des valeurs positives toujours si elle est positive et avec des oscillations négatives positives si elle est négative (voir figure 4.8). En outre, le taux de décroissance diminue à mesure que les augmentations, donc plus la valeur de la plus forte la corrélation dynamique dans le processus. Enfin, il ya une coupure dans la fonction d'autocorrélation partielle au premier décalage. Figure 4.9: Corrélogrammes de population pour les processus On peut montrer que le processus général (Box et Jenkins 1976): Est stationnaire seulement si les racines de l'équation caractéristique du polynôme se situent en dehors du cercle unitaire. La moyenne d 'un modèle stationnaire est. Il est toujours inversible pour toutes les valeurs des paramètres. Son ACF passe à zéro exponentiellement lorsque les racines de sont réelles ou avec des fluctuations d'ondes sinusoïdales lorsqu'elles sont complexes. Son PACF a une coupure au décalage, c'est-à-dire. Des corrélogrammes pour des modèles plus complexes, tels que le, peut être vu dans la figure 4.9. Ils sont très semblables aux modèles quand les processus ont de vraies racines, mais prennent une forme très différente quand les racines sont complexes (voir la première paire de graphiques de la figure 4.9). 4.2.4 Modèle de moyenne mobile autorégressive Le modèle de moyenne mobile autorégressif général (ordre fini) des ordres, est:
No comments:
Post a Comment