Descargar

Análisis de la Regresión (página 2)

Enviado por comander_ali


Partes: 1, 2

En el cual se espera que (2 < 0 y (3, (4 > 0, por lo mencionado anteriormente acerca de las relaciones entre las variables. El objetivo principal será probar la significancia del parámetro (4.

El intervalo en el cual se tomó la muestra de las variables es del mes de Agosto de 1994 hasta Agosto de 1999, la razón por la que se toma éste periodo es que los primeros años, así como al término de la década de los 90"s, el panorama económico era muy incierto y por lo tanto se podía cometer el error de incluir observaciones que de alguna manera estuvieran "presionadas" por factores externos.

2. Análisis de la Regresión

El propósito de este análisis consiste en determinar la relación existente entre las variables tomadas a partir de la muestra con la que se cuenta. Para esto debemos especificar cual es nuestra variable a explicar en nuestro caso esta variable es M y que supuestamente depende de las variables TCR, PBI y RIN a través de una relación funcional. Entonces pasamos a especificar nuestro modelo:

LM = (0 + (1LTCR + (2LPBI + (3LRIN + (

Esta relación nos indica que el valor de la variable M depende de los valores de las variables independientes, un termino constante y un error o perturbación.

El objetivo de este análisis es estimar la media condicional de la variable dependiente dados los valores de las variables dependientes. Estimando por MCO obtenemos los siguientes resultados del Eviews:

Dependent Variable: LM

Method: Least Squares

Date: 11/23/01 Time: 15:56

Sample: 1994:01 1999:08

Included observations: 68

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LTCR

-1.705637

0.336080

-5.075092

0.0000

LPBI

0.783472

0.293665

2.667917

0.0097

LRIN

0.219786

0.072204

3.043974

0.0034

C

7.914847

1.852119

4.273400

0.0001

R-squared

0.665286

Mean dependent var

4.877041

Adjusted R-squared

0.649597

S.D. dependent var

0.181643

S.E. of regression

0.107523

Akaike info criterion

-1.565193

Sum squared resid

0.739923

Schwarz criterion

-1.434633

Log likelihood

57.21655

F-statistic

42.40272

Durbin-Watson stat

0.794754

Prob(F-statistic)

0.000000

De donde podemos observar los valores de los coeficientes que nos miden el impacto marginal de cada regresor sobre la variable dependiente. Manteniendo todo lo demás constante, así podemos identificar los valores para los diferentes (.

LM = 0.783472*LPBI + 0.219786*LRIN – 1.705637*LTCR + 7.914847

(0.08623) (0.005213) (0.112949)

Además los signos esperados de los parámetros son positivos tanto para el PBI como para el RIN y negativo para el TCR.

El t- estadístico nos permite contrastar la hipótesis nula de que el verdadero parámetro es igual cero, evaluando cada coeficiente de manera independiente. Entonces:

H0 : ßi = 0 (el coeficiente no es significativo, dado el nivel de confianza)

Nivel de confianza: 95%

Sin embargo como trabajamos con el Eviews y éste trabaja con la probabilidad asociada al t-calculado, tenemos que ver si la probabilidad asociada es menor a 0.05, y si es así, cabe afirmar que no existe suficiente evidencia para aceptar la hipótesis nula, dado un nivel de significancia de 0.05, entonces para nuestro caso rechazamos la hipótesis nula diciendo que los coeficientes asociados a nuestras variables son significativos.

Si analizamos el R cuadrado, para medir el grado de ajuste del modelo, ya que este indicador aumenta cuando se incrementa el número de variables explicativas, sin que esto implique que tengan un aporte importante, por esto es conveniente mejor analizar el R cuadrado ajustado, que es una medida de bondad de ajuste neutral a la introducción de variables adicionales.

Para contrastar la hipótesis nula de que todos los coeficientes son iguales a cero utilizamos el estadístico F y su probabilidad asociada, que al igual que el estadístico t, nos permite rechazar la hipótesis nula, de que los coeficientes son diferentes de cero, es decir son significativos.

3. Análisis residual

Detección de Heteroscedasticidad:

Para la detección de heteroscedasticidad en los términos de error se han escogido las pruebas de White y Goldfed – Quant.

Test de White:

White Heteroskedasticity Test:

F-statistic

2.081698

Probability

0.052001

Obs*R-squared

14.96880

Probability

0.059755

Test Equation:

Dependent Variable: RESID^2

Method: Least Squares

Date: 11/23/01 Time: 16:40

Sample: 1994:01 1999:08

Included observations: 68

Variable

Coefficient

Std. Error

t-Statistic

Prob.

C

18.38759

20.84179

0.882246

0.3812

LPBI

-1.478502

6.054835

-0.244185

0.8079

LPBI^2

-0.686694

0.662723

-1.036172

0.3044

LPBI*LRIN

0.255842

0.306975

0.833431

0.4080

LPBI*LTCR

1.461167

1.095920

1.333279

0.1876

LRIN

-0.212869

1.718448

-0.123873

0.9018

LRIN^2

-0.045247

0.041519

-1.089811

0.2802

LRIN*LTCR

-0.123624

0.323050

-0.382678

0.7033

LTCR

-6.264596

4.465825

-1.402786

0.1659

R-squared

0.220129

Mean dependent var

0.010881

Adjusted R-squared

0.114384

S.D. dependent var

0.014999

S.E. of regression

0.014115

Akaike info criterion

-5.560437

Sum squared resid

0.011755

Schwarz criterion

-5.266679

Log likelihood

198.0549

F-statistic

2.081698

Durbin-Watson stat

1.871596

Prob(F-statistic)

0.052001

Se sabe que el número de observaciones multiplicado por el R-cuadrado de la regresión "auxiliar" se distribuye mediante una Chi-cuadrado con 8 grados de libertad, es decir el número de regresores (sin tomar en cuenta el término constante) de la regresión auxiliar. En este caso se tiene que:

Obs*R-cuadrado = 14,96 < 15,5 = X28 con el intervalo de confianza de 95%.

Por lo que no se puede rechazar la hipótesis nula de ausencia de heteroscedasticidad.

Test de Goldfeld – Quandt:

La metodología de este test requiere realizar dos regresiones, se escoge una cantidad p = 10 observaciones centrales y se hacen dos regresiones de las primeras (T – p)/2 observaciones y de las (T – p)/2 últimas para cada una de las variables.

Para el caso de la variable LTCR, obtenemos el siguiente cuadro correspondiente a la primera regresión:

Dependent Variable: LIMP

Method: Least Squares

Date: 11/23/01 Time: 17:25

Sample: 1 29

Included observations: 29

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LTCR

-5.264640

1.686800

-3.121082

0.0043

C

29.00907

7.709228

3.762902

0.0008

R-squared

0.265129

Mean dependent var

4.948070

Adjusted R-squared

0.237912

S.D. dependent var

0.157115

S.E. of regression

0.137157

Akaike info criterion

-1.068903

Sum squared resid

0.507928

Schwarz criterion

-0.974607

Log likelihood

17.49909

F-statistic

9.741150

Durbin-Watson stat

2.428394

Prob(F-statistic)

0.004261

De la misma forma para la segunda regresión, se tiene:

Dependent Variable: LIMP

Method: Least Squares

Date: 11/23/01 Time: 17:34

Sample: 1 29

Included observations: 29

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LTCR

-0.554106

1.097355

-0.504947

0.6177

C

7.373702

5.091590

1.448212

0.1591

R-squared

0.009355

Mean dependent var

4.802771

Adjusted R-squared

-0.027336

S.D. dependent var

0.173860

S.E. of regression

0.176220

Akaike info criterion

-0.567693

Sum squared resid

0.838446

Schwarz criterion

-0.473397

Log likelihood

10.23155

F-statistic

0.254972

Durbin-Watson stat

2.283699

Prob(F-statistic)

0.617693

Según la metodología de Goldfeld – Quandt debemos hallar la razón entre la suma residual de las dos regresiones, la cual se distribuye mediante una F con un número de grados de libertad en el numerador y denominador iguales a: (T – p)/2 – k , donde: k es el número de parámetros que deben ser estimados incluyendo el término constante, en nuestro caso particular tenemos k = 2. Tenemos entonces que:

( = (SRC2)27 / (SRC1)27 = 1.65 < F(27, 27) ( < 1.84 ; 1.96>

Por lo que no se podría afirmar la existencia de heteroscedasticidad

Para el caso de la variable LPBI, obtenemos el siguiente cuadro correspondiente a la primera regresión.

Dependent Variable: LIMP

Method: Least Squares

Date: 11/23/01 Time: 11:44

Sample: 1 29

Included observations: 29

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LPBI

2.845952

0.356953

7.972902

0.0000

C

-8.434265

1.657890

-5.087350

0.0000

R-squared

0.701879

Mean dependent var

4.782884

Adjusted R-squared

0.690837

S.D. dependent var

0.201813

S.E. of regression

0.112213

Akaike info criterion

-1.470365

Sum squared resid

0.339977

Schwarz criterion

-1.376069

Log likelihood

23.32029

F-statistic

63.56717

Durbin-Watson stat

2.150943

Prob(F-statistic)

0.000000

Y a partir de la segunda regresión se obtiene:

Dependent Variable: LIMP

Method: Least Squares

Date: 11/23/01 Time: 12:07

Sample: 1 29

Included observations: 29

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LPBI

-0.344594

0.711435

-0.484364

0.6320

C

6.619512

3.406144

1.943404

0.0625

R-squared

0.008614

Mean dependent var

4.969735

Adjusted R-squared

-0.028104

S.D. dependent var

0.122078

S.E. of regression

0.123782

Akaike info criterion

-1.274119

Sum squared resid

0.413693

Schwarz criterion

-1.179823

Log likelihood

20.47473

F-statistic

0.234609

Durbin-Watson stat

1.821562

Prob(F-statistic)

0.632033

Con lo que obtenemos la relación:

( = (SCR2)/(SCR1) = 1.22 < F(27, 27) (

Por lo que no se puede afirmar la existencia de heteroscedasticidad.

Finalmente para el caso de la variable LRIN, obtenemos el siguiente cuadro correspondiente a la primera regresión:

Dependent Variable: LIMP

Method: Least Squares

Date: 11/23/01 Time: 12:25

Sample: 1 29

Included observations: 29

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LRIN

0.667286

0.087163

7.655640

0.0000

C

1.602577

0.416333

3.849265

0.0007

R-squared

0.684612

Mean dependent var

4.785601

Adjusted R-squared

0.672931

S.D. dependent var

0.202959

S.E. of regression

0.116072

Akaike info criterion

-1.402734

Sum squared resid

0.363765

Schwarz criterion

-1.308438

Log likelihood

22.33964

F-statistic

58.60883

Durbin-Watson stat

1.378904

Prob(F-statistic)

0.000000

Y a partir de la segunda regresión, se obtiene:

Dependent Variable: LIMP

Method: Least Squares

Date: 11/23/01 Time: 12:28

Sample: 1 29

Included observations: 29

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LRIN

1.792703

0.317472

5.646808

0.0000

C

-4.664545

1.702072

-2.740510

0.0107

R-squared

0.541490

Mean dependent var

4.946202

Adjusted R-squared

0.524509

S.D. dependent var

0.139364

S.E. of regression

0.096099

Akaike info criterion

-1.780394

Sum squared resid

0.249348

Schwarz criterion

-1.686098

Log likelihood

27.81572

F-statistic

31.88644

Durbin-Watson stat

2.319174

Prob(F-statistic)

0.000005

Con lo que obtenemos la relación:

( = (SCR2)/(SCR1) = 0.69 < F(27, 27) (

Por lo que no se puede afirmar la existencia de heteroscedasticidad.

Análisis de autocorrelación:

Para analizar al existencia de autocorrelación, podemos verificarlo utilizando los siguientes test:

  • Test de Durbin Watson

  • Test de Breusch Godfrey

  • Test Box – Pierce Q

Este análisis es importante ya que puede estar siendo causa de la existencia de:

– Ciclos y tendencias: debido a la utilización de variables económicas que tienen una tendencia creciente. Si el conjunto de variables explicativas del modelo no explican adecuadamente dicho comportamiento, entonces el termino de error incorporara dicha tendencia, conduciendo a la existencia de autocorrelación positiva.

– Variable omitidas: si el verdadero modelo que explica el comportamiento de la variable endógena se le ha omitido una variable explicativa, entonces el termino de error incluirá esta variable y si esta variable presenta autocorrelación, entonces el termino de error también estará autocorrelacionado.

– Relaciones no lineales: si por ejemplo una de las variables no es lineal, en nuestro caso este no seria el problema ya que se esta trabajando con los logaritmos de las variables.

Pasamos a analizar la existencia o no de autocorrelación, empecemos analizando con el test de Durbin Watson:

De la estimación MCO, tenemos:

Durbin Watson

Esto nos indica que existe AUTOCORRELACION POSITIVA DE ORDEN 1, ya que el resultado de Durbin Watson se aproxima a 0. Aunque podría darse el caso de que exista autocorrelación de mayor orden. En este caso no podemos utilizar es test de Durbin Watson, ya que solo nos permite identificar autocorrelación de orden 1.

Test de Breuchs y Godfrey:

Ya que el test de Durbin Watson no nos permite saber si existe o no autocorrelación de orden mayor a 1, este test nos permite identificar la presencia de autocorrelación de cualquier orden. Entonces veamos si existe autocorrelación de orden 2.

La hipótesis nula es que no existe autocorrelación de orden 2.

Breusch-Godfrey Serial Correlation LM Test:

F-statistic

21.33493

Probability

0.000000

Obs*R-squared

27.72098

Probability

0.000001

Test Equation:

Dependent Variable: RESID

Method: Least Squares

Date: 11/23/01 Time: 15:58

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LPBI

0.087790

0.230027

0.381652

0.7040

LRIN

-0.013213

0.056496

-0.233880

0.8158

LTCR

0.088404

0.263320

0.335730

0.7382

C

-0.754693

1.453412

-0.519256

0.6054

RESID(-1)

0.442022

0.123463

3.580185

0.0007

RESID(-2)

0.272024

0.125943

2.159899

0.0347

R-squared

0.407661

Mean dependent var

-5.09E-15

Adjusted R-squared

0.359892

S.D. dependent var

0.105089

S.E. of regression

0.084078

Akaike info criterion

-2.030046

Sum squared resid

0.438285

Schwarz criterion

-1.834207

Log likelihood

75.02157

F-statistic

8.533974

Durbin-Watson stat

1.989647

Prob(F-statistic)

0.000003

De los resultados podemos rechazar la hipótesis nula, es decir, si existe autocorrelación de orden 2, con un 99% de confianza.

Test Box – Pierce Q:

Este test permite determinar la existencia de autocorrelación hasta un orden establecido.

La hipótesis nula es que no existe autocorrelación hasta el orden 16

edu.red

Al analizar el estadístico Q tenemos que:

Se rechaza la hipótesis nula de que no existe autocorrelación hasta el orden 16, es decir que puede existir autocorrelación de orden 1, 2, 3…,15, 16.

Para saber cual es el orden de autocorrelación analizamos el comportamiento de los coeficientes de autocorrelación parcial . En este caso el orden de autocorrelación es el primer coeficiente de autocorrelación parcial ya que se encuentra fuera de las bandas de confianza. Entonces existe autocorrelación de primer orden.

Conclusiones:

En el presente trabajo se ha comprobado de la existencia de heteroscedasticidad y de autocorrelación, a través de los diferentes tipos de pruebas que existen para realizar estos contrastes.

La presencia de heteroscedasticidad indica que en el modelo la varianza del término de error varia en cada período de tiempo, pero al no encontrar presencia de heteroscedasticidad en nuestro modelo podemos afirmar que todas las perturbaciones del termino de error(() tienen la misma varianza ((2) de forma muy aproximada.

Al haber realizado las pruebas correspondientes se encontraron que no había presencia de heteroscedasticidad lo que indica que en el modelo planteado los estimadores deben tener las mismas propiedades de eficiencia, es decir que siguen siendo insesgado y consistente para los estimadores de MCO y aun tienen la propiedad de mínima varianza, pero cabe resaltar que en presencia de heteroscedasticidad las varianzas de lo estimadores MCO no se obtienen con las formulas de MCO usuales, si se persiste en hacer este estimador se llevara a cabo a través de las pruebas t y F, que pueden conducir a grandes desatinos y por ende a conclusiones erróneas.

La presencia de autocorrelación de primer orden se aduce a al lentitud de las series de tiempo económicas, recuérdese que los datos son mensuales y por ende, es de esperarse que las variaciones en los índices de las variables entre cada período sean pequeñas.

 

 

Autor:

Alí K. Galíndez Figueroa

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente