Estadísticas de las empresas: utilizan el análisis de regresión para determinar la validez de las relaciones

El análisis de regresión es una de las técnicas estadísticas más importantes para las aplicaciones de negocio. Es una metodología estadística que ayuda a estimar la fuerza y ​​la dirección de la relación entre dos o más variables. El analista puede utilizar el análisis de regresión para determinar la relación real entre estas variables examinado ventas y los beneficios de una empresa a través de los últimos años. Los resultados de la regresión muestran si esta relación es válida.

Video: REGRESION LINEAL SIMPLE

Además de las ventas, otros factores también pueden determinar las ganancias de la corporación, o puede resultar que las ventas no explican las ganancias en absoluto. En particular, los investigadores, analistas, gestores de cartera, y los comerciantes pueden utilizar el análisis de regresión para estimar las relaciones históricas entre los diferentes activos financieros. A continuación, puede utilizar esta información para desarrollar estrategias de negociación y medir el riesgo contenida en una cartera.

El análisis de regresión es una herramienta indispensable para el análisis de las relaciones entre las variables financieras. Por ejemplo, se puede:

  • Identificar los factores que son más responsables de las ganancias de una corporación

  • Determinar la cantidad de un cambio en las tasas de interés tendrá un impacto en una cartera de bonos

  • Desarrollar una previsión del valor futuro del Promedio Industrial Dow Jones

Los siguientes diez secciones describen los pasos utilizados para implementar un modelo de regresión y analizar los resultados.

Video: Regresion lineal multiple EXCEL

Paso 1: Especificar la variable dependiente e independiente (s)

Para poner en práctica un modelo de regresión, es importante especificar correctamente la relación entre las variables que se utiliza. El valor de una variable dependiente se supone que está relacionada con el valor de uno o más variables independientes. Por ejemplo, supongamos que un investigador está investigando los factores que determinan la tasa de inflación. Si el investigador cree que la tasa de inflación depende de la tasa de crecimiento de la oferta monetaria, se puede estimar un modelo de regresión utilizando la tasa de inflación como la variable dependiente y la tasa de crecimiento de la oferta monetaria como la variable independiente.

Un modelo de regresión basada en una única variable independiente se conoce como una sencillo modelo- regresión con dos o más variables independientes, el modelo es conocido como un múltiple Modelo de regresión.

Paso 2: Compruebe si hay linealidad

Una de las suposiciones fundamentales de análisis de regresión es que la relación entre las variables dependientes e independientes es lineal (Es decir, la relación se puede ilustrar con una línea recta.) Una de las maneras más rápidas para comprobar esto es para graficar las variables utilizando una gráfico de dispersión. Un gráfico de dispersión muestra la relación entre dos variables con la variable dependiente (Y) en el eje vertical y la variable independiente (X) en el eje horizontal.

Por ejemplo, supongamos que un analista cree que el exceso de rentabilidad a Coca-Cola Stock dependen de los rendimientos superiores a la Standard and Poor (S&P) 500. (El exceso de retorno a una acción es igual al rendimiento real menos el rendimiento de una letra del Tesoro.) Utilizando datos mensuales desde septiembre de 2008 hasta agosto de 2013, la siguiente imagen muestra los rendimientos superiores a la S&P 500 en el eje horizontal, mientras que el exceso de rentabilidad a Coca-Cola están en el eje vertical.

Se puede observar a partir de la gráfica de dispersión que esta relación es al menos aproximadamente lineal. Por lo tanto, la regresión lineal se puede usar para estimar la relación entre estas dos variables.

Paso 3: Compruebe enfoques alternativos si las variables no son lineales

Si el dependiente especificada (Y) e independiente de variables (x) no tienen una relación lineal entre ellos, puede ser posible transformar estas variables de manera que tienen una relación lineal. Por ejemplo, puede ser que la relación entre el logaritmo natural de Y y X es lineal. Otra posibilidad es que la relación entre el logaritmo natural de Y y el logaritmo natural de X es lineal. También es posible que la relación entre la raíz cuadrada de Y y X es lineal.

Si estas transformaciones no producen una relación lineal, las variables independientes alternativos pueden ser elegidos que explicar mejor el valor de la variable dependiente.

Paso 4: Calcular el modelo

El modelo de regresión lineal estándar se puede estimar con una técnica conocida como de mínimos cuadrícula. Esto resulta en fórmulas para la pendiente y la intersección de la ecuación de regresión que “encajan” la relación entre la variable independiente (X) y la variable dependiente (Y) lo más cerca posible.

Por ejemplo, las tablas siguientes muestran los resultados de la estimación de un modelo de regresión para los rendimientos superiores a Coca-Cola de valores y el S&P 500 durante el periodo septiembre 2008 a agosto de 2013.

Video: REGRESIÓN LINEAL EMPRESA XYZ

En este modelo, el exceso de rentabilidad a Coca-Cola de valores son la variable dependiente, mientras que el exceso vuelve a la S&P 500 son la variable independiente. En la columna de los coeficientes, se puede observar que el intercepto estimado de la ecuación de regresión es 0,007893308, y la pendiente estimada es de 0,48927098.

Pasos 5: Prueba el ajuste del modelo usando el coeficiente de variación

El coeficiente de variación (también conocido como R2) Se utiliza para determinar cómo de cerca un modelo de regresión “encaja” o explica la relación entre la variable independiente (X) y la variable dependiente (Y). R2 puede asumir un valor entre 0 y 1- cuanto más cerca R2 es 1, mejor será el modelo de regresión explica los datos observados.

Como se muestra en las tablas de la etapa 4, el coeficiente de variación se muestra como “R-Square” - esto es igual a 0,271795467. El ajuste no es particularmente fuerte. Lo más probable, el modelo es incompleto, tales como factores distintos de las exceso vuelve a la S&P 500 también determinar o explicar el exceso vuelve a Coca-Cola de valores.

Para un modelo de regresión múltiple, el coeficiente de determinación ajustado se utiliza en lugar del coeficiente de determinación para probar el ajuste del modelo de regresión.

Paso 6: Realizar una prueba de hipótesis conjunta de los coeficientes

Una ecuación de regresión múltiple se utiliza para estimar la relación entre una variable dependiente (Y) y dos o más variables independientes (X). Cuando se implementa un modelo de regresión múltiple, la calidad general de los resultados puede comprobarse con una prueba de hipótesis. En este caso, la hipótesis nula es que todos los coeficientes de la pendiente del modelo igual a cero, con la hipótesis alternativa de que al menos uno de los coeficientes de la pendiente no es igual a cero.

Si esta hipótesis no puede ser rechazada, las variables independientes hacen no explicar el valor de la variable dependiente. Si se rechaza la hipótesis, al menos una de las variables independientes no explica el valor de la variable dependiente.

Paso 7: Realizar pruebas de hipótesis sobre los coeficientes de regresión individuales

Cada coeficiente estimado en una ecuación de regresión debe ser probado para determinar si es estadísticamente significativa. Si un coeficiente es estadísticamente significativo, la variable correspondiente ayuda a explicar el valor de la variable dependiente (Y). La hipótesis nula de que está siendo probado es que el coeficiente es igual a cero si esta hipótesis no puede ser rechazada, la variable correspondiente es no Estadísticamente significante.

Este tipo de prueba de hipótesis puede llevarse a cabo con una p-valor (También conocido como valor de probabilidad.) Las tablas de Paso 4 muestran que el valor p asociado con el coeficiente de la pendiente es 1,94506 E-05. Esta expresión se escribe en términos de notación cientifica- sino que también se puede escribir como 1,94506 x 10-5 o 0,0000194506.

El p-valor se compara con el nivel de significación de la prueba de hipótesis. Si el valor p es menos que el nivel de significación, la hipótesis nula de que el coeficiente es igual a cero es rejected- la variable es, por lo tanto, estadísticamente significativa.

En este ejemplo, el nivel de significación es 0,05. El valor de p de 0,0000194506 indica que la pendiente de esta ecuación es estadísticamente significativo- por ejemplo, el exceso vuelve a la S&P 500 a explicar los rendimientos superiores a Coca-Cola de valores.

Paso 8: Salida para violaciónes de los supuestos del análisis de regresión

El análisis de regresión se basa en varios supuestos clave. Violaciónes de estas suposiciones pueden conducir a resultados inexactos. Tres de las violaciónes más importantes que se pueden encontrar son conocidos como: autocorrelación, heterocedasticidad y multicolinealidad.

  • autocorrelación resulta cuando los residuos de un modelo de regresión no son independientes el uno del otro. (A residual es igual a la diferencia entre el valor de Y predicho por una ecuación de regresión y el valor real de Y.)

    Autocorrelación se puede detectar a partir de gráficos de los residuos o mediante el uso de más medidas estadísticas oficiales, como la estadística de Durbin-Watson. La autocorrelación puede ser eliminado con las transformaciones apropiadas de las variables de regresión.

  • heteroscedasticidad se refiere a una situación en la que las varianzas de los residuos de un modelo de regresión no son iguales. Este problema puede ser identificado con una parcela de las transformaciones residuals- de los datos puede a veces ser utilizado para superar este problema.

  • multicolinealidad es un problema que puede surgir solamente con el análisis de regresión múltiple. Se refiere a una situación en la que dos o más de las variables independientes están altamente correlacionados entre sí. Este problema se puede detectar con medidas estadísticas formales, tales como el factor de inflación de la varianza (VIF). Cuando multicolinealidad está presente, una de las variables altamente correlacionados deben ser retirados de la ecuación de regresión.

Paso 9: Interpretar los resultados

La intersección estimada y coeficiente de un modelo de regresión pueden interpretarse de la siguiente manera. La intersección muestra lo que sería el valor de Y si X fuera igual a cero. La pendiente muestra el impacto en Y de un cambio en X.

Sobre la base de las tablas en el paso 4, el intercepto estimado es de 0,007893308. Esto indica que el exceso de rentabilidad mensual a Coca-Cola Stock sería 0,007893308 o 0,7893308 por ciento, si el exceso de rentabilidad mensual a la S&P 500 eran 0 por ciento.

Además, la pendiente estimada es de 0,48927098. Esto indica que un aumento del 1 por ciento en el exceso de rentabilidad mensual a la S&P 500 se traduciría en un aumento de 0,48927098 por ciento en el exceso de rentabilidad mensual a Coca-Cola de valores. De manera equivalente, un 1 por ciento a disminuir el exceso de rentabilidad mensual a la S&P 500 se traduciría en una disminución 0,48927098 por ciento en el exceso de rentabilidad mensual a Coca-Cola de valores.

Paso 10: Pronóstico de los valores futuros

Un modelo de regresión estimado se puede utilizar para generar predicciones del futuro valor de la variable dependiente. En este ejemplo, la ecuación estimada es:

Supongamos que un analista tiene razones para creer que el exceso de rentabilidad mensual a la S&P 500 en septiembre de 2013 será 0.005 o 0,5 por ciento. La ecuación de regresión se puede utilizar para predecir el exceso de rentabilidad mensual a Coca-Cola de la manera siguiente:

El exceso de rentabilidad mensual pronosticado a Coca-Cola de valores es 0,010339663 o 1,0339663 por ciento.

Artículos Relacionados