Modelos ARMA (p, q) para el análisis de series temporales - Parte 3 Este es el tercer y último post de la mini serie sobre modelos de media móvil autoregresiva (ARMA) para el análisis de series de tiempo. Hemos introducido modelos autorregresivos y modelos de media móvil en los dos artículos anteriores. Ahora es el momento de combinarlos para producir un modelo más sofisticado. En última instancia, esto nos llevará a los modelos ARIMA y GARCH que nos permitirán predecir los rendimientos de los activos y predecir la volatilidad. Estos modelos constituirán la base para las señales comerciales y las técnicas de gestión de riesgos. Si has leído la Parte 1 y la Parte 2 habrás visto que tendemos a seguir un patrón para nuestro análisis de un modelo de series de tiempo. Ill repetirlo brevemente aquí: Fundamento - ¿Por qué estamos interesados en este modelo en particular Definición - Una definición matemática para reducir la ambigüedad. Correlograma - Trazado de un correlograma muestral para visualizar el comportamiento de un modelo. Simulación y ajuste - Ajuste del modelo a simulaciones, para asegurar que hemos entendido correctamente el modelo. Datos financieros reales - Aplicar el modelo a los precios reales de los activos históricos. Predicción - Predecir los valores posteriores para generar señales comerciales o filtros. Con el fin de seguir este artículo es aconsejable echar un vistazo a los artículos anteriores sobre el análisis de series de tiempo. Todos se pueden encontrar aquí. Criterio Bayesiano de Información En la Parte 1 de esta serie de artículos vimos el Criterio de Información de Akaike (AIC) como un medio de ayudarnos a elegir entre los mejores modelos de series temporales. Una herramienta estrechamente relacionada es el Criterio de Información Bayesiano (BIC). Esencialmente, tiene un comportamiento similar al AIC, ya que penaliza los modelos por tener demasiados parámetros. Esto puede conducir a un ajuste excesivo. La diferencia entre el BIC y el AIC es que el BIC es más estricto con su penalización de parámetros adicionales. Criterio Bayesiano de Información Si tomamos la función de verosimilitud para un modelo estadístico, que tiene k parámetros, y L maximiza la probabilidad. Entonces el Criterio de Información Bayesiano viene dado por: Donde n es el número de puntos de datos en la serie temporal. Usaremos el AIC y el BIC a continuación al elegir modelos ARMA (p, q) apropiados. Prueba de Ljung-Box En la parte 1 de esta serie de artículos Rajan mencionó en los comentarios de Disqus que la prueba de Ljung-Box era más apropiada que usar el Criterio de Información de Akaike del Criterio Bayesiano de Información para decidir si un modelo ARMA era un buen ajuste a un tiempo serie. La prueba de Ljung-Box es una prueba de hipótesis clásica que está diseñada para probar si un conjunto de autocorrelaciones de un modelo de series temporales ajustadas difieren significativamente de cero. La prueba no prueba cada retraso individual por aleatoriedad, sino que prueba la aleatoriedad sobre un grupo de retrasos. Ljung-Box Test Definimos la hipótesis nula como: Los datos de series de tiempo en cada lag son i. i.d .. es decir, las correlaciones entre los valores de la serie de población son cero. Definimos la hipótesis alternativa como: Los datos de la serie temporal no son i. i.d. Y poseen correlación serial. Calculamos la siguiente estadística de prueba. Q: Donde n es la longitud de la muestra de la serie temporal, el sombrero k es la autocorrelación de la muestra en el retraso kyh es el número de retardos bajo el ensayo. La regla de decisión sobre si rechazar la hipótesis nula es verificar si Q gt chi2, para una distribución de chi cuadrado con h grados de libertad en el percentil 100 (1-alfa). Aunque los detalles de la prueba pueden parecer un poco complejos, de hecho podemos usar R para calcular la prueba para nosotros, simplificando un poco el procedimiento. Ahora que hemos discutido el BIC y la prueba de Ljung-Box, estábamos listos para discutir nuestro primer modelo mixto, es decir, el promedio móvil auto-regresivo de orden p, q, o ARMA (p, Q). Justificación Hasta la fecha hemos considerado procesos autorregresivos y procesos de media móvil. El modelo anterior considera su propio comportamiento pasado como insumos para el modelo y, como tal, intenta captar los efectos de los participantes en el mercado, tales como el impulso y la reversión media en el comercio de valores. Este último modelo se utiliza para caracterizar la información de choque en una serie, como un anuncio sorpresivo de ganancias o un evento inesperado (como el derrame de petróleo BP Deepwater Horizon). Por lo tanto, un modelo de ARMA intenta capturar ambos aspectos al modelar series de tiempo financieras. Obsérvese que un modelo ARMA no tiene en cuenta el agrupamiento de volatilidad, un fenómeno empírico clave de muchas series de tiempo financieras. No es un modelo condicionalmente heteroscedásico. Para eso tendremos que esperar a los modelos ARCH y GARCH. Definición El modelo ARMA (p, q) es una combinación lineal de dos modelos lineales y por lo tanto sigue siendo lineal: Modelo de orden temporal p, q Un modelo de serie temporal,, es un modelo de media móvil autorregresiva de orden p, q . ARMA (p, q), si: begin xt alpha1 x alfa2 x ldots wt beta1 w beta2 w ldots betaq w ¿Dónde está el ruido blanco con E (wt) 0 y variance sigma2. Si consideramos al operador de cambio hacia atrás. (Ver un artículo anterior), entonces podemos reescribir lo anterior como una función theta y phi de: Podemos ver directamente que mediante el establecimiento de p neq 0 y q0 recuperamos el modelo AR (p). Similarmente si ponemos p 0 y q neq 0 recuperamos el modelo MA (q). Una de las características clave del modelo ARMA es que es parsimonioso y redundante en sus parámetros. Es decir, un modelo ARMA a menudo requerirá menos parámetros que un modelo AR (p) o MA (q) solo. Además, si reescribimos la ecuación en términos del BSO, entonces los polinomios theta y phi pueden a veces compartir un factor común, lo que conduce a un modelo más simple. Simulaciones y Correlogramas Al igual que con los modelos de media autorregresiva y móvil, ahora simularemos varias series ARMA y luego intentaremos ajustar modelos ARMA a estas realizaciones. Llevamos a cabo esto porque queremos asegurarnos de que entendemos el procedimiento de ajuste, incluyendo cómo calcular los intervalos de confianza para los modelos, así como asegurar que el procedimiento realmente recupera estimaciones razonables para los parámetros ARMA originales. En la Parte 1 y la Parte 2 construimos manualmente las series AR y MA dibujando N muestras de una distribución normal y luego elaborando el modelo de series temporales específicas utilizando rezagos de estas muestras. Sin embargo, hay una manera más directa de simular AR, MA, ARMA e incluso ARIMA datos, simplemente utilizando el método arima. sim en R. Vamos a empezar con el más simple posible no triviales ARMA modelo, a saber, el ARMA (1,1 ). Es decir, un modelo autorregresivo de orden combinado con un modelo de media móvil de orden uno. Tal modelo tiene sólo dos coeficientes, alfa y beta, que representan los primeros rezagos de la serie de tiempo en sí y los términos de ruido blanco de choque. Este modelo está dado por: Necesitamos especificar los coeficientes antes de la simulación. Vamos a tomar alfa 0,5 y beta -0,5: La salida es la siguiente: Lets también trazar el correlograma: Podemos ver que no hay autocorrelación significativa, lo que es de esperar de un modelo ARMA (1,1). Por último, vamos a tratar de determinar los coeficientes y sus errores estándar utilizando la función arima: Podemos calcular los intervalos de confianza para cada parámetro utilizando los errores estándar: Los intervalos de confianza sí contienen los valores de los parámetros reales para ambos casos, sin embargo, 95 intervalos de confianza son muy amplios (una consecuencia de los errores estándar razonablemente grandes). Ahora vamos a probar un modelo ARMA (2,2). Es decir, un modelo AR (2) combinado con un modelo MA (2). Necesitamos especificar cuatro parámetros para este modelo: alpha1, alpha2, beta1 y beta2. Vamos a tomar alpha1 0.5, alpha2-0.25 beta10.5 y beta2-0.3: La salida de nuestro modelo ARMA (2,2) es la siguiente: Y la autocorelación correspondiente: Ahora podemos intentar ajustar un modelo ARMA (2,2) a Los datos: También podemos calcular los intervalos de confianza para cada parámetro: Obsérvese que los intervalos de confianza para los coeficientes para el componente de media móvil (beta1 y beta2) no contienen realmente el valor del parámetro original. Sin embargo, con fines de negociación sólo necesitamos tener un poder predictivo que supere el azar y produzca un beneficio suficiente por encima de los costos de transacción, para ser rentable en los costos de transacción. El largo plazo. Ahora que hemos visto algunos ejemplos de modelos ARMA simulados necesitamos un mecanismo para elegir los valores de p y q cuando se ajustan a los modelos a datos financieros reales. Para determinar qué orden p, q del modelo ARMA es apropiado para una serie, necesitamos usar el AIC (o BIC) a través de un subconjunto de valores para p, q, y A continuación, aplicar la prueba de Ljung-Box para determinar si se ha logrado un buen ajuste, para valores particulares de p, q. Para mostrar este método vamos a simular en primer lugar un determinado ARMA (p, q) proceso. A continuación, analizaremos todos los valores pairwise de p in y q in y calcularemos el AIC. Seleccionaremos el modelo con el AIC más bajo y luego ejecutaremos una prueba de Ljung-Box sobre los residuos para determinar si hemos logrado un buen ajuste. Comencemos simulando una serie ARMA (3,2): Ahora crearemos un objeto final para almacenar el mejor ajuste de modelo y el valor AIC más bajo. Hacemos un bucle sobre las diversas combinaciones p, q y usamos el objeto actual para almacenar el ajuste de un modelo ARMA (i, j), para las variables de bucle i y j. Si el AIC actual es menor que cualquier AIC previamente calculado, ajustamos el AIC final a este valor actual y seleccionamos ese orden. A la terminación del bucle tenemos el orden del modelo ARMA almacenado en final. order y el ARIMA (p, d, q) se ajusta a sí mismo (con el componente d integrado a 0) almacenado como final. arma: Deja salir el AIC , Orden y coeficientes de ARIMA: Podemos ver que se recuperó el orden original del modelo ARMA simulado, es decir, con p3 y q2. Podemos trazar el corelograma de los residuos del modelo para ver si parecen una realización de ruido blanco discreto (DWN): El corelograma realmente parece una realización de DWN. Por último, realizamos la prueba de Ljung-Box para 20 retrasos para confirmar esto: Obsérvese que el valor p es mayor que 0,05, lo que indica que los residuos son independientes en el nivel 95 y por lo tanto un modelo ARMA (3,2) Buen ajuste del modelo. Sin embargo, este es precisamente el procedimiento que usaremos cuando lleguemos a ajustar modelos ARMA (p, q) al índice SampP500 en la siguiente sección. Datos financieros Ahora que hemos esbozado el procedimiento para elegir el modelo de serie temporal óptimo para una serie simulada, es bastante sencillo aplicarla a los datos financieros. Para este ejemplo vamos a elegir nuevamente el SampP500 US Equity Index. Permite descargar los precios de cierre diarios usando quantmod y luego crear el flujo de devoluciones de registros: Debe realizar el mismo procedimiento de ajuste que para la serie ARMA (3,2) simulada en la serie de devoluciones de registros del SampP500 usando el AIC: El mejor modelo de ajuste Tiene orden ARMA (3,3): Permite trazar los residuos del modelo ajustado a la corriente de devoluciones diarias de log SampP500: Observe que hay algunos picos significativos, especialmente a retrasos mayores. Esto es indicativo de un ajuste pobre. Vamos a realizar una prueba de Ljung-Box para ver si tenemos evidencia estadística de esto: Como sospechábamos, el valor p es menor que 0,05 y como tal no podemos decir que los residuos son una realización de ruido blanco discreto. Por lo tanto, hay autocorrelación adicional en los residuos que no se explica por el modelo ARMA (3,3). Próximos Pasos Como hemos discutido a lo largo de esta serie de artículos, hemos visto evidencias de heterocedasticidad condicional (agrupación de volatilidad) en la serie SampP500, especialmente en los periodos alrededor de 2007-2008. Cuando usamos un modelo GARCH más adelante en la serie de artículos veremos cómo eliminar estas autocorrelaciones. En la práctica, los modelos de ARMA nunca son generalmente buenos ajustes para los logs de las ganancias del registro. Tenemos que tener en cuenta la heterocedasticidad condicional y utilizar una combinación de ARIMA y GARCH. El siguiente artículo considerará ARIMA y mostrará cómo el componente integrado difiere del modelo ARMA que hemos estado considerando en este artículo. Haga clic abajo para aprender más sobre. La información contenida en este sitio web es la opinión de los autores individuales sobre la base de su observación personal, investigación y años de experiencia. El editor y sus autores no son asesores de inversiones, abogados, CPA u otros profesionales de servicios financieros registrados y no prestan asesoría legal, fiscal, contable, de inversión u otros servicios profesionales. La información ofrecida por este sitio web es sólo educación general. Debido a que cada situación de hecho individual es diferente, el lector debe buscar a su propio asesor personal. Ni el autor ni el editor asumen responsabilidad alguna por errores u omisiones y no tendrán responsabilidad ni responsabilidad con ninguna persona o entidad con respecto a los daños causados o presuntamente causados directa o indirectamente por la información contenida en este sitio. Úselo bajo su propio riesgo. Además, este sitio web puede recibir compensación financiera de las empresas mencionadas a través de publicidad, programas de afiliados o de otra manera. Las tarifas y ofertas de los anunciantes que se muestran en este sitio web cambian con frecuencia, a veces sin previo aviso. Mientras nos esforzamos por mantener información oportuna y precisa, los detalles de la oferta pueden estar obsoletos. Los visitantes deben verificar los términos de tales ofertas antes de participar en ellas. El autor y su editor renuncian a la responsabilidad de actualizar la información y renunciar a la responsabilidad de los contenidos, productos y servicios de terceros, incluso cuando se accede a través de hipervínculos y / o anuncios en este sitio. - Parte 2 En la Parte 1 se consideró el modelo autorregresivo de orden p, también conocido como el modelo AR (p). Lo presentamos como una extensión del modelo de caminata aleatoria en un intento de explicar la correlación serial adicional en series de tiempo financiero. En última instancia, nos dimos cuenta de que no era lo suficientemente flexible para capturar verdaderamente toda la autocorrelación en los precios de cierre de Amazon Inc. (AMZN) y el SampP500 US Equity Index. La razón principal de esto es que ambos de estos activos son condicionalmente heteroskedastic. Lo que significa que son no estacionarias y tienen períodos de variación variable o agrupación de volatilidad, lo que no es tenido en cuenta por el modelo AR (p). En los futuros artículos, finalmente, construiremos los modelos ARREM, así como los modelos condicionalmente heteroscédticos de las familias ARCH y GARCH. Estos modelos nos proporcionarán nuestros primeros intentos realistas de pronosticar los precios de los activos. En este artículo, sin embargo, vamos a introducir el promedio móvil de orden q modelo, conocido como MA (q). Este es un componente del modelo ARMA más general y, como tal, necesitamos entenderlo antes de seguir avanzando. Le recomiendo que lea los artículos anteriores en la colección de Análisis de series de tiempo si no lo ha hecho. Todos se pueden encontrar aquí. Motivación media (MA) Modelos de orden q Justificación Un modelo de media móvil es similar a un modelo autorregresivo, excepto que en lugar de ser una combinación lineal de valores de series temporales pasadas, es una combinación lineal de los últimos términos de ruido blanco. Intuitivamente, esto significa que el modelo MA ve tales choques de ruido blanco aleatorios directamente en cada valor actual del modelo. Esto es en contraste con un modelo de AR (p), donde los choques de ruido blanco sólo se ven indirectamente. Vía regresión a términos previos de la serie. Una diferencia clave es que el modelo MA sólo verá los últimos q choques para cualquier modelo MA (q), mientras que el modelo AR (p) tomará en cuenta todos los shocks anteriores, aunque de una manera decreciente. Definición Matemáticamente, el MA (q) es un modelo de regresión lineal y está estructurado de forma similar a AR (p): Modelo de orden móvil de orden q Un modelo de serie temporal, es un modelo de media móvil de orden q. MA (q), si: begin xt wt beta1 w ldots betaq w ¿Dónde está el ruido blanco con E (wt) 0 y variance sigma2. Si consideramos al operador de cambio hacia atrás. (Ver un artículo anterior), entonces podemos reescribir lo anterior como una función phi de: begin xt (1 beta1 beta2 2 ldots betaq q) wt phiq () wt end Hacemos uso de la función phi en artículos posteriores. Propiedades de segundo orden Como con AR (p), la media de un proceso MA (q) es cero. Esto es fácil de ver, ya que la media es simplemente una suma de medios de términos de ruido blanco, que son todos ellos mismos cero. Comienza el texto enspace mux E (xt) suma E (wi) 0 fin comienza el texto enspace sigma2w (1 beta21 ldots beta2q) final texto enspace rhok izquierda 1 texto enspace k 0 suma betai beta / sumq beta2i texto enspace k 1, ldots, q 0 Texto enspace k gt q final derecho. Donde beta0 1. Ahora vamos a generar algunos datos simulados y utilizarlo para crear correlogramas. Esto hará que la fórmula anterior sea algo más concreta. Simulaciones y Correlogramas MA (1) Comencemos con un proceso MA (1). Si establecemos beta1 0.6 obtenemos el siguiente modelo: Como con los modelos AR (p) del artículo anterior, podemos usar R para simular tal serie y luego trazar el correlograma. Dado que hemos tenido mucha práctica en la serie anterior de series de análisis de series de series de realizar parcelas, escribiré el código R en su totalidad, en lugar de dividirlo: La salida es la siguiente: Como vimos anteriormente en la fórmula para rhok , Para k gt q, todas las autocorrelaciones deben ser cero. Puesto que q 1, deberíamos ver un pico significativo en k1 y luego picos insignificantes posteriores a eso. Sin embargo, debido al sesgo de muestreo debemos esperar ver 5 (marginalmente) picos significativos en un gráfico de autocorrelación de la muestra. Esto es precisamente lo que nos muestra el correlograma en este caso. Tenemos un pico significativo en k1 y luego picos insignificantes para k gt 1, excepto en k4 donde tenemos un pico marginalmente significativo. De hecho, esta es una forma útil de ver si un modelo de MA (q) es apropiado. Tomando una mirada en el correlogram de una serie particular podemos ver cuántos retrasos secuenciales no diferentes existen. Si q tales retrasos existen entonces podemos intentar legítimamente ajustar un modelo de MA (q) a una serie particular. Dado que tenemos pruebas de nuestros datos simulados de un proceso de MA (1), ahora vamos a tratar de ajustar un modelo MA (1) a nuestros datos simulados. Desafortunadamente, no hay un comando ma equivalente al comando ar de modelo autorregresivo en R. En su lugar, debemos usar el comando arima más general y establecer los componentes autoregresivos e integrados a cero. Hacemos esto creando un 3-vector y poniendo a cero los dos primeros componentes (los parámetros auto - gresivos e integrados, respectivamente): Recibimos algunos resultados útiles del comando arima. En primer lugar, podemos ver que el parámetro ha sido estimado como hat 0.602, que está muy cerca del verdadero valor de beta1 0.6. En segundo lugar, los errores estándar ya están calculados para nosotros, por lo que es sencillo calcular los intervalos de confianza. En tercer lugar, recibimos una varianza estimada, log-verosimilitud y Akaike Criterio de Información (necesario para la comparación de modelos). La principal diferencia entre arima y ar es que arima estima un término de intercepción porque no resta el valor medio de la serie. Por lo tanto, debemos tener cuidado al realizar predicciones usando el comando arima. Bueno volver a este punto más tarde. Como una comprobación rápida se va a calcular los intervalos de confianza para hat: Podemos ver que el intervalo de confianza 95 contiene el verdadero valor del parámetro de beta1 0,6 y por lo que podemos juzgar el modelo un buen ajuste. Obviamente esto debería esperarse ya que simulamos los datos en el primer lugar ¿Cómo cambian las cosas si modificamos el signo de beta1 a -0.6 Lets realizar el mismo análisis: La salida es la siguiente: Podemos ver que en k1 tenemos un significado Pico en el correlograma, excepto que muestra correlación negativa, como se espera de un modelo MA (1) con primer coeficiente negativo. Una vez más todos los picos más allá de k1 son insignificantes. Permite ajustar un modelo MA (1) y estimar el parámetro: hat -0.730, que es una pequeña subestimación de beta1 -0.6. Finalmente, podemos calcular el intervalo de confianza: Podemos ver que el verdadero valor de parámetro de beta1-0.6 está contenido dentro del intervalo de confianza de 95, proporcionando evidencia de un buen ajuste de modelo. MA (3) Permite ejecutar el mismo procedimiento para un proceso MA (3). Esta vez debemos esperar picos significativos en k en, e insignificantes picos para k gt 3. Vamos a utilizar los siguientes coeficientes: beta1 0,6, beta2 0,4 y beta 3 0,2. Permite simular un proceso MA (3) a partir de este modelo. Ive aumentó el número de muestras al azar a 1000 en esta simulación, lo que hace más fácil ver la verdadera estructura de autocorrelación, a expensas de hacer la serie original más difícil de interpretar: La salida es la siguiente: Como era de esperar los primeros tres picos son significativos . Sin embargo, también lo es la cuarta. Pero podemos sugerir legítimamente que esto puede deberse a un sesgo de muestreo, ya que esperamos ver 5 de los picos que son significativos más allá de kq. Permite ahora ajustar un modelo MA (3) a los datos para intentar y estimar parámetros: Las estimaciones hat 0.544, hat 0.345 y hat 0.298 están cerca de los valores verdaderos de beta10.6, beta20.4 y beta30.3, respectivamente. También podemos producir intervalos de confianza usando los respectivos errores estándar: En cada caso los 95 intervalos de confianza contienen el verdadero valor del parámetro y podemos concluir que tenemos un buen ajuste con nuestro modelo MA (3), como es de esperar. Datos Financieros En la Parte 1 consideramos a Amazon Inc. (AMZN) y el SampP500 US Equity Index. Se ajustó el modelo AR (p) a ambos y se encontró que el modelo no era capaz de capturar efectivamente la complejidad de la correlación serial, especialmente en el elenco de la SampP500, donde los efectos de memoria larga parecen estar presentes. No trazaré las cartas otra vez para los precios y la autocorrelación, en vez de enfermo referiré usted al poste anterior. Amazon Inc. (AMZN) Comencemos por intentar ajustar una selección de modelos MA (q) a AMZN, a saber, con q in. Como en la Parte 1, use bien cuánmod para descargar los precios diarios de AMZN y luego convertirlos en un registro devuelve la corriente de los precios de cierre: Ahora que tenemos el flujo de devoluciones de log podemos usar el comando arima para ajustar MA (1), MA (2) y MA (3) modelos y luego estimar los parámetros de cada uno. Para MA (1) tenemos: Podemos representar gráficamente los residuos de los retornos diarios del registro y del modelo ajustado: Obsérvese que tenemos picos significativos en los rezagos k2, k11, k16 y k18, indicando que el modelo MA (1) es Poco probable que sea un buen ajuste para el comportamiento de las devoluciones de registro AMZN, ya que esto no parece una realización de ruido blanco. Vamos a intentar un modelo MA (2): Ambas estimaciones de los coeficientes beta son negativas. Vamos a trazar los residuos una vez más: Podemos ver que hay casi autocorrelación cero en los primeros retrasos. Sin embargo, tenemos cinco picos marginalmente significativos en los retrasos k12, k16, k19, k25 y k27. Esto es sugerente que el modelo MA (2) está capturando una gran parte de la autocorrelación, pero no todos los efectos de memoria larga. ¿Qué tal un modelo MA (3) Una vez más, podemos trazar los residuos: El gráfico de los residuos MA (3) parece casi idéntico al del modelo MA (2). Esto no es sorprendente, al igual que la adición de un nuevo parámetro a un modelo que ha explicado aparentemente gran parte de las correlaciones en los rezagos más cortos, pero que no tendrá mucho de un efecto en los retrasos a más largo plazo. Toda esta evidencia es sugestiva del hecho de que un modelo de MA (q) es poco probable que sea útil para explicar toda la correlación serial en forma aislada. Al menos para AMZN. SampP500 Si usted recuerda, en la Parte 1 vimos que el primer orden diferenciado diaria log devuelve estructura de la SampP500 poseía muchos picos significativos en varios rezagos, tanto corto como largo. Esto proporcionó evidencia tanto de heterocedasticidad condicional (es decir, agrupación de volatilidad) como de efectos de memoria larga. Esto nos lleva a concluir que el modelo AR (p) fue insuficiente para capturar toda la autocorrelación presente. Como vimos arriba el modelo de MA (q) fue insuficiente para capturar la correlación serial adicional en los residuos del modelo ajustado a la serie de precios diarios diferenciados de primer orden. Ahora intentaremos ajustar el modelo MA (q) al SampP500. Uno podría preguntar por qué estamos haciendo esto es si sabemos que es poco probable que sea un buen ajuste. Esta es una buena pregunta. La respuesta es que necesitamos ver exactamente cómo no es un buen ajuste, porque este es el proceso final que seguiremos cuando encontremos modelos mucho más sofisticados, que son potencialmente más difíciles de interpretar. Comencemos por la obtención de los datos y la conversión a una serie de primer orden diferenciado de los precios de cierre diario logarítmicamente transformados como en el artículo anterior: Ahora vamos a ajustar un modelo MA (1), MA (2) y MA (3) a La serie, como lo hicimos anteriormente para AMZN. Comencemos con MA (1): Vamos a hacer una gráfica de los residuos de este modelo ajustado: El primer pico significativo se produce en k2, pero hay muchos más en k en. Esto claramente no es una realización de ruido blanco y por lo tanto debemos rechazar el modelo MA (1) como un buen ajuste potencial para el SampP500. (2) Una vez más, vamos a hacer una gráfica de los residuos de este modelo ajustado MA (2): Mientras que el pico en k2 ha desaparecido (como esperamos), todavía nos quedan con los picos significativos en Muchos retrasos más largos en los residuos. Una vez más, encontramos que el modelo MA (2) no es un buen ajuste. Deberíamos esperar, para el modelo MA (3), ver menos correlación serial en k3 que para la MA (2), pero una vez más también debemos esperar ninguna reducción en retrasos adicionales. Por último, vamos a hacer un gráfico de los residuos de este modelo instalado MA (3): Esto es precisamente lo que vemos en el correlograma de los residuos. Por lo tanto el MA (3), al igual que con los otros modelos anteriores, no es un buen ajuste para el SampP500. Próximos Pasos Hemos examinado ahora dos modelos de series temporales importantes en detalle, a saber, el modelo Autogressivo de orden p, AR (p) y luego el Promedio Móvil de orden q, MA (q). Hemos visto que ambos son capaces de explicar algunos de la autocorrelación en los residuos de primer orden diferenciado diario de los precios de registro de las acciones y los índices, pero la volatilidad de agrupación y de larga memoria efectos persisten. Es finalmente el momento de dirigir nuestra atención a la combinación de estos dos modelos, a saber, el promedio móvil auto-regresivo de orden p, q, ARMA (p, q) para ver si mejorará la situación. Sin embargo, tendremos que esperar hasta el siguiente artículo para una discusión completa Haga clic abajo para aprender más sobre. La información contenida en este sitio web es la opinión de los autores individuales sobre la base de su observación personal, investigación y años de experiencia. El editor y sus autores no son asesores de inversiones, abogados, CPA u otros profesionales de servicios financieros registrados y no prestan asesoría legal, fiscal, contable, de inversión u otros servicios profesionales. La información ofrecida por este sitio web es sólo educación general. Debido a que cada situación de hecho individual es diferente, el lector debe buscar a su propio asesor personal. Ni el autor ni el editor asumen responsabilidad alguna por errores u omisiones y no tendrán ni responsabilidad ni responsabilidad con ninguna persona o entidad con respecto a los daños causados o presuntamente causados directa o indirectamente por la información contenida en este sitio. Úselo bajo su propio riesgo. Además, este sitio web puede recibir compensación financiera de las empresas mencionadas a través de publicidad, programas de afiliados o de otra manera. Las tarifas y ofertas de los anunciantes que se muestran en este sitio web cambian con frecuencia, a veces sin previo aviso. Mientras nos esforzamos por mantener información oportuna y precisa, los detalles de la oferta pueden estar desactualizados. Los visitantes deben verificar los términos de tales ofertas antes de participar en ellas. El autor y su editor se niegan a la responsabilidad de actualizar la información y renunciar a la responsabilidad por el contenido de terceros, productos y servicios, incluso cuando se accede a través de hipervínculos y / o anuncios en este sitio. RIMA significa Autoregressive Integrated Moving Average. Univariante (vector único) ARIMA es una técnica de previsión que proyecta los valores futuros de una serie basada enteramente en su propia inercia. Su aplicación principal es en el área de pronóstico a corto plazo que requiere al menos 40 puntos de datos históricos. Funciona mejor cuando los datos muestran un patrón estable o consistente en el tiempo con una cantidad mínima de valores atípicos. A veces llamado Box-Jenkins (después de los autores originales), ARIMA suele ser superior a las técnicas de suavización exponencial cuando los datos son razonablemente largos y la correlación entre las observaciones pasadas es estable. Si los datos son cortos o muy volátiles, entonces algún método de suavizado puede funcionar mejor. Si no tiene al menos 38 puntos de datos, debe considerar algún otro método que ARIMA. El primer paso para aplicar la metodología ARIMA es verificar la estacionariedad. La estacionariedad implica que la serie permanece a un nivel bastante constante en el tiempo. Si existe una tendencia, como en la mayoría de las aplicaciones económicas o de negocios, sus datos NO son estacionarios. Los datos también deben mostrar una variación constante en sus fluctuaciones en el tiempo. Esto se ve fácilmente con una serie que es muy estacional y que crece a un ritmo más rápido. En tal caso, los altibajos en la estacionalidad se harán más dramáticos con el tiempo. Si no se cumplen estas condiciones de estacionariedad, no se pueden calcular muchos de los cálculos asociados con el proceso. Si un gráfico gráfico de los datos indica nonstationarity, entonces usted debe diferenciar la serie. La diferenciación es una excelente forma de transformar una serie no estacionaria en una serie estacionaria. Esto se hace restando la observación en el período actual a la anterior. Si esta transformación se realiza sólo una vez en una serie, se dice que los datos se han diferenciado primero. Este proceso esencialmente elimina la tendencia si su serie está creciendo a una tasa bastante constante. Si está creciendo a un ritmo creciente, puede aplicar el mismo procedimiento y diferenciar los datos de nuevo. Sus datos entonces serían segundos diferenciados. Las autocorrelaciones son valores numéricos que indican cómo una serie de datos se relaciona a sí misma con el tiempo. Más precisamente, mide cuán fuertemente los valores de datos en un número específico de períodos separados están correlacionados entre sí a lo largo del tiempo. El número de períodos separados se llama generalmente el retraso. Por ejemplo, una autocorrelación en el retardo 1 mide cómo los valores 1 período aparte están correlacionados entre sí a lo largo de la serie. Una autocorrelación en el retraso 2 mide cómo los datos dos períodos aparte están correlacionados a lo largo de la serie. Las autocorrelaciones pueden variar de 1 a -1. Un valor próximo a 1 indica una alta correlación positiva, mientras que un valor cercano a -1 implica una correlación negativa alta. Estas medidas se evalúan con mayor frecuencia a través de tramas gráficas llamadas correlagramas. Un correlagrama traza los valores de autocorrelación para una serie dada con diferentes retardos. Esto se conoce como la función de autocorrelación y es muy importante en el método ARIMA. La metodología ARIMA intenta describir los movimientos en una serie temporal estacionaria como una función de lo que se llaman parámetros de media móvil y autorregresiva. Estos parámetros se denominan parámetros AR (autoregessivos) y MA (medias móviles). Un modelo de AR con un solo parámetro se puede escribir como. X (t) A (1) X (t-1) E (t) donde X (t) serie temporal bajo investigación A (1) el parámetro autorregresivo de orden 1 X (t-1) (T) el término de error del modelo Esto simplemente significa que cualquier valor dado X (t) puede explicarse por alguna función de su valor anterior, X (t-1), más algún error aleatorio inexplicable, E (t). Si el valor estimado de A (1) fue de 0,30, entonces el valor actual de la serie estaría relacionado con 30 de su valor hace 1 período. Por supuesto, la serie podría estar relacionada con más de un valor pasado. Por ejemplo, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Esto indica que el valor actual de la serie es una combinación de los dos valores inmediatamente anteriores, X (t-1) y X (t-2), más algún error aleatorio E (t). Nuestro modelo es ahora un modelo autorregresivo de orden 2. Modelos de media móvil: Un segundo tipo de modelo de Box-Jenkins se denomina modelo de media móvil. Aunque estos modelos parecen muy similares al modelo de AR, el concepto detrás de ellos es muy diferente. Los parámetros de la media móvil relacionan lo que sucede en el período t sólo con los errores aleatorios que ocurrieron en períodos de tiempo pasados, es decir, E (t-1), E (t-2), etc., en lugar de X (t-1), X T-2), (Xt-3) como en los enfoques autorregresivos. Un modelo de media móvil con un término MA puede escribirse como sigue. El término B (1) se denomina un MA de orden 1. El signo negativo delante del parámetro se utiliza para la convención solamente y se imprime generalmente La mayoría de los programas de ordenador. El modelo anterior simplemente dice que cualquier valor dado de X (t) está directamente relacionado solamente al error aleatorio en el período anterior, E (t-1), y al término de error actual, E (t). Como en el caso de los modelos autorregresivos, los modelos de media móvil pueden extenderse a estructuras de orden superior que abarcan diferentes combinaciones y longitudes móviles. La metodología ARIMA también permite la construcción de modelos que incorporen parámetros tanto de autorregresión como de media móvil juntos. Estos modelos se refieren a menudo como modelos mixtos. Although this makes for a more complicated forecasting tool, the structure may indeed simulate the series better and produce a more accurate forecast. Pure models imply that the structure consists only of AR or MA parameters - not both. Los modelos desarrollados por este enfoque usualmente se llaman modelos ARIMA porque usan una combinación de autoregresión (AR), integración (I), que se refiere al proceso inverso de diferenciación para producir las operaciones de predicción y de media móvil (MA). Un modelo de ARIMA se indica generalmente como ARIMA (p, d, q). Esto representa el orden de los componentes autorregresivos (p), el número de operadores de diferenciación (d) y el orden más alto del término medio móvil. Por ejemplo, ARIMA (2,1,1) significa que usted tiene un modelo autorregresivo de segundo orden con un componente de media móvil de primer orden cuya serie se ha diferenciado una vez para inducir la estacionariedad. Elegir la especificación correcta: El principal problema en el clásico Box-Jenkins es tratar de decidir qué especificación ARIMA utilizar-i. e. Cuántos AR y / o MA parámetros para incluir. Esto es lo que gran parte de Box-Jenkings 1976 se dedicó al proceso de identificación. It depended upon graphical and numerical eval - uation of the sample autocorrelation and partial autocorrelation functions. Well, for your basic models, the task is not too difficult. Cada uno tiene funciones de autocorrelación que se ven de cierta manera. However, when you go up in complexity, the patterns are not so easily detected. To make matters more difficult, your data represents only a sample of the underlying process. This means that sampling errors (outliers, measurement error, etc.) may distort the theoretical identification process. That is why traditional ARIMA modeling is an art rather than a science.
No comments:
Post a Comment