Distribución de
Pareto.-
Es la forma funcional más antigua descubierta
para una distribución de ingresos(en 1897
por el economista italiano Wilfredo Pareto), y se considera que
es adecuada para describir la distribución de ingresos de
la cola superior de una distribución real típica de
los ingresos.
La distribución de Pareto con parámetros k
y a (k>0, a>1), la función de
densidad
está definida así:
Donde la media es:
Nota.- El grafico nos señala que la esperanza
está determinado por el valor de
k.
La varianza : Var(X)=
Nota.- El grafico nos indica, que existe un valor
crítico de la varianza en el punto a=2, valores
próximos a este la varianza llega a alcanzar un
máximo, aún para valores pequeños valores de
k. En tanto si k sube también la varianza.
Nota.- En la restricción de a, se debe
tomar en cuenta este punto, en la definición
a>1, pero sería ideal que a>2, pero
esto limitaría un estudio restringido. Por tanto es
interesante estudiar cuando están próximos a
2.
El Indice de Gini:
Nota.- Se observa que el índice Gini se aproxima
a 1, a medida que el valor de a toma valores
pequeños, en tanto tiende a 0 si aumenta el valor de
a. Aquí es interesante el índice de Gini es
determinado por el parámetro a, no así
k.
1.- N=1000, número de réplicas, n=
50.
Con a=2, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(2,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=50 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.643 | 0.600 |
Median | 0.635 | 0.584 |
Maximum | 0.976 | 0.973 |
Minimum | 0.299 | 0.265 |
Std.Dev. | 0.141 | 0.153 |
Skewness | 0.200 | 0.257 |
Kurtosis | 2.424 | 2.366 |
CV | 0.220 | 0.254 |
RI | 0.212 | 0.223 |
Rango | 0.677 | 0.709 |
RI. Rel | 0.531 | 0.572 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.000 | 0.000 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El índice de Gini teóricamente es
1/3, el que presenta menos sesgo es el método de
Jackknife, esto se expresa en los coeficientes de
variación y el rango, y la normalidad está ausento
casi en todos los casos. Esto quiere decir que el tamaño
de muestra es un factor que hay tomarlo en cuenta. El
gráfico muestra un ligero sesgo a la derecha de bootstrap
que Jackknife.
2.- N=1000, número de réplicas, n=
100.
Con a=2, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(2,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=100 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.692 | 0.651 |
Median | 0.682 | 0.636 |
Maximum | 0.988 | 0.990 |
Minimum | 0.377 | 0.308 |
Std.Dev. | 0.127 | 0.135 |
Skewness | 0.261 | 0.362 |
Kurtosis | 2.394 | 2.530 |
CV | 0.184 | 0.208 |
RI | 0.181 | 0.196 |
Rango | 0.611 | 0.682 |
RI. Rel | 0.448 | 0.525 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.002 | 0.006 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- Es notable el método de remuestreo de
Jackknife en este caso, aún cuando la muestra crece.
Aún así la normalidad le resta confiabilidad al
estadístico.
3.- N=1000, número de réplicas, n=
50.
Con a=2.5, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(2.5,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=50 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.643 | 0.600 |
Median | 0.635 | 0.584 |
Maximum | 0.976 | 0.973 |
Minimum | 0.299 | 0.265 |
Std.Dev. | 0.141 | 0.153 |
Skewness | 0.200 | 0.257 |
Kurtosis | 2.424 | 2.366 |
CV | 0.220 | 0.254 |
RI | 0.212 | 0.223 |
Rango | 0.677 | 0.709 |
RI. Rel | 0.531 | 0.572 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.000 | 0.000 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El índice de Gini teóricamente es
¼, el que más se aproxima, es Jackknife,
nótese ambos subestiman, es importante señalar que
el coeficiente de asimetría es menor en
Jackknife.
4.- N=1000, número de réplicas, n=
100.
Con a=2.5, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(2.5,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=100 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.692 | 0.651 |
Median | 0.682 | 0.636 |
Maximum | 0.988 | 0.990 |
Minimum | 0.377 | 0.308 |
Std.Dev. | 0.127 | 0.135 |
Skewness | 0.261 | 0.362 |
Kurtosis | 2.394 | 2.530 |
CV | 0.184 | 0.208 |
RI | 0.181 | 0.196 |
Rango | 0.611 | 0.682 |
RI. Rel | 0.448 | 0.525 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.002 | 0.006 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- Si bien el tamaño de muestra aumenta
ambos, aún así ambos estadísticos
subestiman, es importante señalar que el coeficiente de
asimetría y de kurtosis es menor en Jackknife.
5.- N=1000, número de réplicas, n=
50.
Con a=1.5, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(1.5,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=50 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.643 | 0.600 |
Median | 0.635 | 0.584 |
Maximum | 0.976 | 0.973 |
Minimum | 0.299 | 0.265 |
Std.Dev. | 0.141 | 0.153 |
Skewness | 0.200 | 0.257 |
Kurtosis | 2.424 | 2.366 |
CV | 0.220 | 0.254 |
RI | 0.212 | 0.223 |
Rango | 0.677 | 0.709 |
RI. Rel | 0.531 | 0.572 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.000 | 0.000 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El índice de Gini teóricamente es
0.5, el que más se aproxima es Jackknife, los coeficientes
de Variación(CV), y el rango intercuartilico(RI) son
ligeramente más bajos comparados con bootstrap, la
normalidad no es casi la misma. Por tanto Jackknife sigue siendo
el mejor.
6.- N=1000, número de réplicas, n=
100.
Con a=1.5, k=1.
Simulación | ||
Estimadores Jackknife del Indice Gini | ||
Distribución=@rpareto(1.5,1) | ||
Número de replicas=1000 | ||
Tamaño de muestra=100 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.692 | 0.651 |
Median | 0.682 | 0.636 |
Maximum | 0.988 | 0.990 |
Minimum | 0.377 | 0.308 |
Std.Dev. | 0.127 | 0.135 |
Skewness | 0.261 | 0.362 |
Kurtosis | 2.394 | 2.530 |
CV | 0.184 | 0.208 |
RI | 0.181 | 0.196 |
Rango | 0.611 | 0.682 |
RI. Rel | 0.448 | 0.525 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.002 | 0.006 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- La normalidad ligeramente mejora, el problema
subsiste ambos sobbrestiman.
Esta distribución es una mejor
representación de todo el rango de variación del
ingreso. Así como una distribución normal surge de
una gran cantidad de efectos pequeños y
estadísticamente independientes que se combinan
aditivamente, la distribución lognormal surge cuando
dichos efectos se combinan multiplicativamente. De esta manera,
si se supone que el ingreso total de un individuo o
familia
está formado por la suma de distintos componentes o
fuentes de
ingreso, formalmente, si x~
logN(,2 ) Û ln(x) ~
N(,2 ).
La función de densidad para una lognormal
es:
Donde:
E(X)=exp(+2/2)
Nota.- El valor esperado sube más rápido
para mu que para sigma.
La varianza=
exp(2*+2)*(exp(2)-1)
El indice de Gini:
1-2*N(-/sqrt(2);0,1)
Donde N es la distribución normal acumulada
estándar.
Nota.- Esto refleja que el índice de Gini para
una distribución lognormal no depende del parámetro
, sólo depende de sigma, es importante indicar
que el gráfico muestra que a mayor dispersión el
Indice Gini se aproxima a 1, es decir si a mayor
dispersión no es raro que el índice de Gini se
aproxime 1, esto no necesariamente significa que una mala
distribución de la variable sino es de
esperarse.
1.- N=1000, número de réplicas, n=
50.
Con =1 , =3
Simulación | ||
Distribución=@rlognorm(1,3) | ||
Número de replicas=1000 | ||
Tamaño de muestra=50 | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.895 | 0.867 |
Median | 0.899 | 0.875 |
Maximum | 0.979 | 0.979 |
Minimum | 0.684 | 0.609 |
Std.Dev. | 0.049 | 0.063 |
Skewness | -0.531 | -0.594 |
Kurtosis | 3.090 | 3.100 |
CV | 0.055 | 0.073 |
RI | 0.073 | 0.087 |
Rango | 0.295 | 0.370 |
RI. Rel | 0.177 | 0.233 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.056 | 0.153 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El índice de Gini teóricamente es
0.966, el que presenta menos sesgo es el método de
Jackknife, esto se expresa en los coeficientes de
variación y el rango, y la normalidad se manifiesta de
mejor en el estadístico bootstrap, esto puede ser debido
por el tamaño de muestra.
2.- N=1000, número de réplicas,
n=100.
Con =1 , =3
Simulación | ||
Distribución=@rlognorm(1,3) | ||
Número de | ||
Tamaño de | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.916 | 0.903 |
Median | 0.919 | 0.908 |
Maximum | 0.988 | 0.988 |
Minimum | 0.787 | 0.744 |
Std.Dev. | 0.041 | 0.047 |
Skewness | -0.458 | -0.527 |
Kurtosis | 2.675 | 2.867 |
CV | 0.045 | 0.052 |
RI | 0.059 | 0.066 |
Rango | 0.202 | 0.244 |
RI. Rel | 0.114 | 0.141 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.005 | 0.038 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El que presenta menos sesgo es Jackknife, y
éste presenta menor inestabilidad.
3.- N=1000, número de réplicas,
n=50.
Con =1 , =4
Simulación | ||
Distribución=@rlognorm(1,4) | ||
Número de | ||
Tamaño de | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.934 | 0.910 |
Median | 0.940 | 0.919 |
Maximum | 0.980 | 0.980 |
Minimum | 0.758 | 0.695 |
Std.Dev. | 0.034 | 0.049 |
Skewness | -0.937 | -0.940 |
Kurtosis | 4.022 | 3.771 |
CV | 0.036 | 0.054 |
RI | 0.047 | 0.068 |
Rango | 0.222 | 0.285 |
RI. Rel | 0.128 | 0.170 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.447 | 0.502 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- Teóricamente resulta 0.995, nuevamente el
que presenta menos sesgo es Jackknife, sin embargo el que
presenta mayor normalidad es bootstrap.
4.- N=1000, número de réplicas,
n=100.
Con =1 , =4
Simulación | ||
Distribución=@rlognorm(1,4) | ||
Número de | ||
Tamaño de | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.953 | 0.941 |
Median | 0.959 | 0.947 |
Maximum | 0.990 | 0.990 |
Minimum | 0.851 | 0.804 |
Std.Dev. | 0.027 | 0.033 |
Skewness | -0.887 | -0.908 |
Kurtosis | 3.419 | 3.682 |
CV | 0.029 | 0.035 |
RI | 0.038 | 0.046 |
Rango | 0.138 | 0.185 |
RI. Rel | 0.075 | 0.103 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.275 | 0.750 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- Cuando la muestra aumenta el que presenta
estabilidad es boostrap, empero el que presente menos sesgo es
Jackknife.
5.- N=1000, número de réplicas,
n=50.
Con =1 , =5
Simulación | ||
Distribución=@rlognorm(1,5) | ||
Número de | ||
Tamaño de | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.951 | 0.929 |
Median | 0.956 | 0.937 |
Maximum | 0.980 | 0.980 |
Minimum | 0.813 | 0.756 |
Std.Dev. | 0.025 | 0.040 |
Skewness | -1.190 | -1.123 |
Kurtosis | 4.684 | 4.258 |
CV | 0.027 | 0.044 |
RI | 0.034 | 0.052 |
Rango | 0.167 | 0.224 |
RI. Rel | 0.093 | 0.129 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.198 | 0.067 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- Teóricamente el indice de Gini es 0.999,
el que presenta menos sesgo es Jackknife, y en éste caso
la normalidad mejora considerablemente, es decir cuando la
varianza es muy fuerte y el tamaño de muestra
relativamente no es grande, es conveniente usar el método
de remuestreo de Jackknife.
6.- N=1000, número de réplicas,
n=100.
Con =1 , =5
Simulación | ||
Distribución=@rlognorm(1,5) | ||
Número de | ||
Tamaño de | JACKKNIFE | BOOTSTRAP |
Estadisticos | Media | Media |
Mean | 0.968 | 0.957 |
Median | 0.972 | 0.963 |
Maximum | 0.990 | 0.990 |
Minimum | 0.881 | 0.843 |
Std.Dev. | 0.019 | 0.026 |
Skewness | -1.212 | -1.142 |
Kurtosis | 4.439 | 4.487 |
CV | 0.020 | 0.027 |
RI | 0.025 | 0.034 |
Rango | 0.109 | 0.147 |
RI. Rel | 0.058 | 0.080 |
Pruebas de Normalidad | ||
Prob. | Prob. | |
Geary | 0.086 | 0.225 |
Shapiro Francia | 0.000 | 0.000 |
Shapiro Wilk | 0.000 | 0.000 |
Nota.- El que presente menos sesgo es bootstrap, y la
normalidad es inmejorable, es decir cuando la muestra es grande
es conveniente utilizar el método de remuestreo
bootstrap.
Conclusión.-
Para aplicar un método de remuestreo
adecuadamente, es necesario realizar un análisis de la distribución de la
variable, en el trabajo se
utiliza dos poblaciones, pero existen otras, luego analizar las
características del indice de Gini en función de
los parámetros que depende, luego realizar el
método de remuestreo adecuado.
Realizado por :
David Barrera Ojeda
Software : Eviews 5, Matlab
Universidad Mayor de San Andres
Facultad de Ciencias
Puras
Carrera de Estadística
La Paz – Bolivia
Página anterior | Volver al principio del trabajo | Página siguiente |