Distribución de Pareto.-
Es la forma funcional más antigua descubierta para una distribución de ingresos(en 1897 por el economista italiano Wilfredo Pareto), y se considera que es adecuada para describir la distribución de ingresos de la cola superior de una distribución real típica de los ingresos.
La distribución de Pareto con parámetros k y a (k>0, a>1), la función de densidad está definida así:
Donde la media es:
Nota.- El grafico nos señala que la esperanza está determinado por el valor de k.
La varianza : Var(X)=
Nota.- El grafico nos indica, que existe un valor crítico de la varianza en el punto a=2, valores próximos a este la varianza llega a alcanzar un máximo, aún para valores pequeños valores de k. En tanto si k sube también la varianza.
Nota.- En la restricción de a, se debe tomar en cuenta este punto, en la definición a>1, pero sería ideal que a>2, pero esto limitaría un estudio restringido. Por tanto es interesante estudiar cuando están próximos a 2.
El Indice de Gini:
Nota.- Se observa que el índice Gini se aproxima a 1, a medida que el valor de a toma valores pequeños, en tanto tiende a 0 si aumenta el valor de a. Aquí es interesante el índice de Gini es determinado por el parámetro a, no así k.
1.- N=1000, número de réplicas, n= 50.
Con a=2, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(2,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=50 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.643 | 0.600 |
Median | 0.635 | 0.584 |
Maximum | 0.976 | 0.973 |
Minimum | 0.299 | 0.265 |
Std.Dev. | 0.141 | 0.153 |
Skewness | 0.200 | 0.257 |
Kurtosis | 2.424 | 2.366 |
CV | 0.220 | 0.254 |
RI | 0.212 | 0.223 |
Rango | 0.677 | 0.709 |
RI. Rel | 0.531 | 0.572 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.000 | 0.000 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El índice de Gini teóricamente es 1/3, el que presenta menos sesgo es el método de Jackknife, esto se expresa en los coeficientes de variación y el rango, y la normalidad está ausento casi en todos los casos. Esto quiere decir que el tamaño de muestra es un factor que hay tomarlo en cuenta. El gráfico muestra un ligero sesgo a la derecha de bootstrap que Jackknife.
2.- N=1000, número de réplicas, n= 100.
Con a=2, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(2,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=100 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.692 | 0.651 |
Median | 0.682 | 0.636 |
Maximum | 0.988 | 0.990 |
Minimum | 0.377 | 0.308 |
Std.Dev. | 0.127 | 0.135 |
Skewness | 0.261 | 0.362 |
Kurtosis | 2.394 | 2.530 |
CV | 0.184 | 0.208 |
RI | 0.181 | 0.196 |
Rango | 0.611 | 0.682 |
RI. Rel | 0.448 | 0.525 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.002 | 0.006 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- Es notable el método de remuestreo de Jackknife en este caso, aún cuando la muestra crece. Aún así la normalidad le resta confiabilidad al estadístico.
3.- N=1000, número de réplicas, n= 50.
Con a=2.5, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(2.5,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=50 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.643 | 0.600 |
Median | 0.635 | 0.584 |
Maximum | 0.976 | 0.973 |
Minimum | 0.299 | 0.265 |
Std.Dev. | 0.141 | 0.153 |
Skewness | 0.200 | 0.257 |
Kurtosis | 2.424 | 2.366 |
CV | 0.220 | 0.254 |
RI | 0.212 | 0.223 |
Rango | 0.677 | 0.709 |
RI. Rel | 0.531 | 0.572 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.000 | 0.000 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El índice de Gini teóricamente es ¼, el que más se aproxima, es Jackknife, nótese ambos subestiman, es importante señalar que el coeficiente de asimetría es menor en Jackknife.
4.- N=1000, número de réplicas, n= 100.
Con a=2.5, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(2.5,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=100 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.692 | 0.651 |
Median | 0.682 | 0.636 |
Maximum | 0.988 | 0.990 |
Minimum | 0.377 | 0.308 |
Std.Dev. | 0.127 | 0.135 |
Skewness | 0.261 | 0.362 |
Kurtosis | 2.394 | 2.530 |
CV | 0.184 | 0.208 |
RI | 0.181 | 0.196 |
Rango | 0.611 | 0.682 |
RI. Rel | 0.448 | 0.525 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.002 | 0.006 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- Si bien el tamaño de muestra aumenta ambos, aún así ambos estadísticos subestiman, es importante señalar que el coeficiente de asimetría y de kurtosis es menor en Jackknife.
5.- N=1000, número de réplicas, n= 50.
Con a=1.5, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(1.5,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=50 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.643 | 0.600 |
Median | 0.635 | 0.584 |
Maximum | 0.976 | 0.973 |
Minimum | 0.299 | 0.265 |
Std.Dev. | 0.141 | 0.153 |
Skewness | 0.200 | 0.257 |
Kurtosis | 2.424 | 2.366 |
CV | 0.220 | 0.254 |
RI | 0.212 | 0.223 |
Rango | 0.677 | 0.709 |
RI. Rel | 0.531 | 0.572 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.000 | 0.000 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El índice de Gini teóricamente es 0.5, el que más se aproxima es Jackknife, los coeficientes de Variación(CV), y el rango intercuartilico(RI) son ligeramente más bajos comparados con bootstrap, la normalidad no es casi la misma. Por tanto Jackknife sigue siendo el mejor.
6.- N=1000, número de réplicas, n= 100.
Con a=1.5, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(1.5,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=100 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.692 | 0.651 |
Median | 0.682 | 0.636 |
Maximum | 0.988 | 0.990 |
Minimum | 0.377 | 0.308 |
Std.Dev. | 0.127 | 0.135 |
Skewness | 0.261 | 0.362 |
Kurtosis | 2.394 | 2.530 |
CV | 0.184 | 0.208 |
RI | 0.181 | 0.196 |
Rango | 0.611 | 0.682 |
RI. Rel | 0.448 | 0.525 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.002 | 0.006 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- La normalidad ligeramente mejora, el problema subsiste ambos sobbrestiman.
Esta distribución es una mejor representación de todo el rango de variación del ingreso. Así como una distribución normal surge de una gran cantidad de efectos pequeños y estadísticamente independientes que se combinan aditivamente, la distribución lognormal surge cuando dichos efectos se combinan multiplicativamente. De esta manera, si se supone que el ingreso total de un individuo o familia está formado por la suma de distintos componentes o fuentes de ingreso, formalmente, si x~ logN(,2 ) Û ln(x) ~ N(,2 ).
La función de densidad para una lognormal es:
Donde:
E(X)=exp(+2/2)
Nota.- El valor esperado sube más rápido para mu que para sigma.
La varianza= exp(2*+2)*(exp(2)-1)
El indice de Gini: 1-2*N(-/sqrt(2);0,1)
Donde N es la distribución normal acumulada estándar.
Nota.- Esto refleja que el índice de Gini para una distribución lognormal no depende del parámetro , sólo depende de sigma, es importante indicar que el gráfico muestra que a mayor dispersión el Indice Gini se aproxima a 1, es decir si a mayor dispersión no es raro que el índice de Gini se aproxime 1, esto no necesariamente significa que una mala distribución de la variable sino es de esperarse.
1.- N=1000, número de réplicas, n= 50.
Con =1 , =3
Simulación | ||
Distribución=@rlognorm(1,3) | ||
Número de replicas=1000 | ||
Tamaño de muestra=50 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.895 | 0.867 |
Median | 0.899 | 0.875 |
Maximum | 0.979 | 0.979 |
Minimum | 0.684 | 0.609 |
Std.Dev. | 0.049 | 0.063 |
Skewness | -0.531 | -0.594 |
Kurtosis | 3.090 | 3.100 |
CV | 0.055 | 0.073 |
RI | 0.073 | 0.087 |
Rango | 0.295 | 0.370 |
RI. Rel | 0.177 | 0.233 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.056 | 0.153 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El índice de Gini teóricamente es 0.966, el que presenta menos sesgo es el método de Jackknife, esto se expresa en los coeficientes de variación y el rango, y la normalidad se manifiesta de mejor en el estadístico bootstrap, esto puede ser debido por el tamaño de muestra.
2.- N=1000, número de réplicas, n=100.
Con =1 , =3
Simulación | ||
Distribución=@rlognorm(1,3) | ||
Número de replicas=1000 | ||
Tamaño de muestra=100 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.916 | 0.903 |
Median | 0.919 | 0.908 |
Maximum | 0.988 | 0.988 |
Minimum | 0.787 | 0.744 |
Std.Dev. | 0.041 | 0.047 |
Skewness | -0.458 | -0.527 |
Kurtosis | 2.675 | 2.867 |
CV | 0.045 | 0.052 |
RI | 0.059 | 0.066 |
Rango | 0.202 | 0.244 |
RI. Rel | 0.114 | 0.141 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.005 | 0.038 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El que presenta menos sesgo es Jackknife, y éste presenta menor inestabilidad.
3.- N=1000, número de réplicas, n=50.
Con =1 , =4
Simulación | ||
Distribución=@rlognorm(1,4) | ||
Número de replicas=1000 | ||
Tamaño de muestra=50 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.934 | 0.910 |
Median | 0.940 | 0.919 |
Maximum | 0.980 | 0.980 |
Minimum | 0.758 | 0.695 |
Std.Dev. | 0.034 | 0.049 |
Skewness | -0.937 | -0.940 |
Kurtosis | 4.022 | 3.771 |
CV | 0.036 | 0.054 |
RI | 0.047 | 0.068 |
Rango | 0.222 | 0.285 |
RI. Rel | 0.128 | 0.170 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.447 | 0.502 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- Teóricamente resulta 0.995, nuevamente el que presenta menos sesgo es Jackknife, sin embargo el que presenta mayor normalidad es bootstrap.
4.- N=1000, número de réplicas, n=100.
Con =1 , =4
Simulación | ||
Distribución=@rlognorm(1,4) | ||
Número de replicas=1000 | ||
Tamaño de muestra=100 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.953 | 0.941 |
Median | 0.959 | 0.947 |
Maximum | 0.990 | 0.990 |
Minimum | 0.851 | 0.804 |
Std.Dev. | 0.027 | 0.033 |
Skewness | -0.887 | -0.908 |
Kurtosis | 3.419 | 3.682 |
CV | 0.029 | 0.035 |
RI | 0.038 | 0.046 |
Rango | 0.138 | 0.185 |
RI. Rel | 0.075 | 0.103 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.275 | 0.750 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- Cuando la muestra aumenta el que presenta estabilidad es boostrap, empero el que presente menos sesgo es Jackknife.
5.- N=1000, número de réplicas, n=50.
Con =1 , =5
Simulación | ||
Distribución=@rlognorm(1,5) | ||
Número de replicas=1000 | ||
Tamaño de muestra=50 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.951 | 0.929 |
Median | 0.956 | 0.937 |
Maximum | 0.980 | 0.980 |
Minimum | 0.813 | 0.756 |
Std.Dev. | 0.025 | 0.040 |
Skewness | -1.190 | -1.123 |
Kurtosis | 4.684 | 4.258 |
CV | 0.027 | 0.044 |
RI | 0.034 | 0.052 |
Rango | 0.167 | 0.224 |
RI. Rel | 0.093 | 0.129 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.198 | 0.067 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- Teóricamente el indice de Gini es 0.999, el que presenta menos sesgo es Jackknife, y en éste caso la normalidad mejora considerablemente, es decir cuando la varianza es muy fuerte y el tamaño de muestra relativamente no es grande, es conveniente usar el método de remuestreo de Jackknife.
6.- N=1000, número de réplicas, n=100.
Con =1 , =5
Simulación | ||
Distribución=@rlognorm(1,5) | ||
Número de replicas=1000 | ||
Tamaño de muestra=100 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.968 | 0.957 |
Median | 0.972 | 0.963 |
Maximum | 0.990 | 0.990 |
Minimum | 0.881 | 0.843 |
Std.Dev. | 0.019 | 0.026 |
Skewness | -1.212 | -1.142 |
Kurtosis | 4.439 | 4.487 |
CV | 0.020 | 0.027 |
RI | 0.025 | 0.034 |
Rango | 0.109 | 0.147 |
RI. Rel | 0.058 | 0.080 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.086 | 0.225 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El que presente menos sesgo es bootstrap, y la normalidad es inmejorable, es decir cuando la muestra es grande es conveniente utilizar el método de remuestreo bootstrap.
Conclusión.-
Para aplicar un método de remuestreo adecuadamente, es necesario realizar un análisis de la distribución de la variable, en el trabajo se utiliza dos poblaciones, pero existen otras, luego analizar las características del indice de Gini en función de los parámetros que depende, luego realizar el método de remuestreo adecuado.
Realizado por :
David Barrera Ojeda
Software : Eviews 5, Matlab
Universidad Mayor de San Andres
Facultad de Ciencias Puras
Carrera de Estadística
La Paz – Bolivia
Página anterior | Volver al principio del trabajo | Página siguiente |