Agregar a favoritos      Ayuda      Português      Ingles     

Elementos de geoestadística

Enviado por cuador



Partes: 1, 2

  1. Problema que dio origen a la Geoestadística
  2. Geoestadística, concepto
  3. Variables aleatorias regionalizadas
  4. Hipótesis de la Geoestadística
  5. Conocimiento del problema
  6. El análisis estructural
  7. Estimación
  8. Geoestadística Multivariada
  9. Geoestadística no Lineal
  10. La Simulación Geoestadística
  11. Conclusiones
  12. Referencias Bibliográficas
  1. En el campo de las geociencias es común encontrar variables distribuidas espacialmente. Para el estudio de estas variables son usados diversos procedimientos geoestadísticos de estimación y/o simulación. Esto es, a partir de un conjunto de muestras tomadas en localizaciones del dominio en que se manifiesta un fenómeno a estudiar y consideradas representativas de su realidad, que por lo general es siempre desconocida, estos procedimientos permiten la descripción o caracterización de las variables con dos fines diferentes, primero, proporcionar valores estimados en localizaciones de interés y segundo, generar valores que en conjunto presenten iguales características de dispersión que los datos originales. La geología y la minería es el campo típico para la aplicación de estos modelos, campo en el que surge y se desarrolla la Geoestadística como ciencia aplicada. Se hace referencia en esta monografía a los conceptos fundamentales de la Geoestadística. Para profundizar en el tema puede ser consultada la bibliografía citada.

  2. Introducción

    La búsqueda, exploración y evaluación de yacimientos minerales útiles es una de las actividades fundamentales que toda empresa minera debe desarrollar durante su vida útil, destacándose entre otras tareas: el pronóstico científico en la localización de los yacimientos minerales útiles, la elaboración de métodos eficaces para la exploración y la evaluación geólogo económico de los yacimientos para su explotación (Lepin y Ariosa, 1986; Armstrong y Carignan, 1997; Chica, 1987). Todo esto condicionado al agotamiento de los recursos producto de la explotación y a las fluctuaciones de las cotizaciones del mercado. Los trabajos de búsqueda y exploración se dividen en estadios que son resultado de la aplicación de un principio importante del estudio del subsuelo, el Principio de Aproximaciones Sucesivas. Cada uno de los estadios culmina con la determinación lo más aproximada posible de los recursos minerales del yacimiento, actividad fundamental de las empresas geólogo - mineras conocida como cálculo de recursos y reservas.

    El desarrollo de la minería ha traído unido el perfeccionamiento de los métodos de búsqueda de los minerales útiles, y los de la determinación de su cantidad y utilidad para la extracción (Lepin y Ariosa, 1986), además, el mundo minero se hace cada vez más competitivo y las compañías necesitan evaluar su potencial económico (Berckmans y Armstrong, 1997). Existen actualmente dos formas de realizar el cálculo de reservas, los métodos clásicos y los modernos. Como clásicos se pueden destacar, el de "Bloques Geológicos" y el de "Perfiles Paralelos" (Díaz, 2001), éstos se caracterizan por el uso de valores medios o media ponderadas de los contenidos de la exploración en bloques definidos convenientemente. Estos métodos son eficientes cuando la información disponible presenta determinada regularidad, pero en la práctica, como se señala en Journel y Huijbregts (1978) y David (1977) la gran diversidad de formas en que se presentan los datos ha llevado a la utilización de técnicas matemáticas y estadísticas para resolver un único problema, estimar valores desconocidos a partir de los conocidos, para la estimación y caracterización de los recursos y reservas. En los últimos años muchas investigaciones se han desarrollado con este fin (Gotway y Cressie, 1993), existiendo mayor interés en las estimaciones a nivel local que a nivel global (Rivoirard y Guiblin, 1997). Claro está, no existe un método por muy sofisticado que sea, que permita obtener resultados exactos.

    Nuestro objetivo será discutir, los métodos más eficientes que proporcionen la mayor información posible de los datos disponibles, es decir, los modernos, de los que se pueden citar entre los geomatemáticos: El Inverso de la Distancia, Triangulación, Splines, etc. Aún más, buscando el mejor estimador que minimice la varianza del error de estimación surge la Geoestadística por los trabajos de G. Matheron en la Escuela Superior de Minas de París, basado en conceptos iniciales de trabajos de H.S. Sichel en 1947 y 1949, en la aplicación de la distribución lognormal en minas de oro, seguido por la famosa contribución de D.G. Krige en la aplicación del análisis de regresión entre muestras y bloques de mena. Estos trabajos fijaron la base de la Geoestadística Lineal, además, de la introducción de la teoría de funciones aleatorias por B. Matern en el estudio de la variación espacial de campos forestales. La Geoestadística se consolidó y desarrollo en los últimos 30 años como ciencia aplicada casi exclusivamente en el campo minero, la cual ha sido ampliamente usada (Arik, 1992; Rivoirard y Guiblin, 1997), existiendo como ciencia aplicada que da respuesta a necesidades prácticas y concretas. Se reconoce como una rama de la estadística tradicional, que parte de la observación de que la variabilidad o continuidad espacial de las variables distribuidas en el espacio tienen una estructura particular (Journel y Huijbregts, 1978; Curran y Atkinson, 1998), desarrollándose herramientas matemáticas para el estudio de estas variables dependientes entre si, llamadas según Matheron variables regionalizadas, quien elaboró su teoría como se presenta en Matheron (1970), Journel y Huijbregts (1978), David (1977) y de Fouquet (1996). En resumen, la aplicación de la teoría de los procesos estocásticos a los problemas de evaluación de reservas de distintos tipos de materias primas minerales y en general a las ciencias naturales en el análisis de datos distribuidos espacial y temporalmente (Christakos y Raghu, 1996) dio origen a lo que hoy se conoce como Geoestadística.

  3. Problema que dio origen a la Geoestadística

    La Geoestadística se define como la aplicación de la Teoría de Funciones Aleatorias al reconocimiento y estimación de fenómenos naturales (Journel y Huijbregts, 1978), o simplemente, el estudio de las variables numéricas distribuidas en el espacio (Chauvet, 1994), siendo una herramienta útil en el estudio de estas variables (Zhang, 1992). Su punto de partida es asumir una intuición topo-probabilista (Matheron, 1970). Los fenómenos distribuidos en el espacio, la mineralización en un yacimiento mineral por ejemplo, presenta un carácter mixto, un comportamiento caótico o aleatorio a escala local, pero a la vez estructural a gran escala (figura 1).

      Para ver el gráfico seleccione la opción "Descargar" del menú superior

    Se puede entonces sugerir la idea de interpretar este fenómeno en términos de Función Aleatoria (FA), es decir, a cada punto x del espacio se le asocia una Variable Aleatoria (VA) Z(x), para dos puntos diferentes x e y, se tendrán dos VAs Z(x) y Z(y) diferentes pero no independientes, y es precisamente su grado de correlación el encargado de reflejar la continuidad de la mineralización, o de cualquier otro fenómeno en estudio, de modo que el éxito de esta técnica es la determinación de la función de correlación espacial de los datos (Zhang, 1992). Su estimador, El Krigeaje, tiene como objetivo encontrar la mejor estimación posible a partir de la información disponible, y en efecto, el valor estimado obtenido Z*(x) de un valor real y desconocido Z(x), consiste en una combinación lineal de pesos asociados a cada localización donde fue muestreado un valor Z(xi) (i = 1,…n) del fenómeno estudiado, observando dos condiciones fundamentales: 1.- que el estimador sea insesgado. E[Z* - Z] = 0, y 2.- que la varianza Var[Z* - Z] sea mínima, consiguiéndose de este modo minimizar la varianza de error de estimación.

    A diferencia de otros métodos de interpolación, como por ejemplo el inverso de la distancia, el krigeaje utiliza en la estimación las características de variabilidad y correlación espacial del fenómeno estudiado, por lo que su uso implica un análisis previo de la información con el objetivo de definir o extraer de esta información inicial un modelo que represente su continuidad espacial. Una vez logrado, estamos en condiciones de obtener el mejor valor posible en cada localización o bloque a estimar a partir de los datos medidos, acompañada de la varianza de krigeaje como medida del error de la estimación realizada (Armstrong y Carignan, 1997), lo que distingue al krigeaje de otros métodos de interpolación (Abasov et al., 1990; de Fouquet, 1996; Carr, 1995).

  4. Geoestadística, concepto

    Continuando con el caso minero, la información inicial para realizar el cálculo de reservas es el resultado del análisis de los testigos de perforación, o muestras de afloramiento, obtenido en los laboreos de exploración, que como una variable aleatoria puede tomar cualquier valor dentro de un rango determinado. Esta es la característica fundamental que distingue a este tipo de variable, además de su valor, una posición en el espacio, hecho éste al que Matheron denominó Variable Aleatoria Regionalizada (Matheron, 1970), la cual está presente en la mayor parte de los estudios geológicos (Pawlowsky et al., 1995) y fenómenos naturales (de Fouquet, 1996). Al respecto en Journel y Huijbregts (1978) y David (1977) se dedica el capítulo II y V respectivamente a la teoría de la variable regionalizada. Capítulos donde se presentan los conceptos fundamentales de la Geoestadística, en la que particularmente Journel y Huijbregts (1978) plantea que la definición de variable regionalizada como una variable distribuida en el espacio es puramente descriptiva y envuelve una interpretación probabilística, refiriéndose a que, desde el punto de vista matemático una variable regionalizada es simplemente una función f(x) que toma valores en todos los puntos x de coordenadas (xi, yi, zi) en el espacio tridimensional. Sin embargo, es muy frecuente que estas funciones varíen tan irregularmente en el espacio que impiden un estudio matemático directo, y se hace necesario realizar un análisis de variabilidad de la información disponible, sugiriendo un estudio profundo de la función variograma como veremos más adelante.

    En términos teóricos es oportuno aclarar que una variable aleatoria (VA) es una variable que puede tomar ciertos valores de acuerdo a cierta distribución de probabilidades. Un valor medido en cada punto xi es considerado como una realización z(xi) de una VA Z(xi) cuya media es m(xi). En los puntos x donde no existen valores medidos es desconocida la propiedad que se estudia, pero están bien definidos y pueden asimismo considerarse variables aleatorias Z(x). Al conjunto de todas las mediciones z(x) en el área de estudio de la variable regionalizada puede considerarse como una realización particular del conjunto de VAs (Z(x), x Î área de estudio). A este conjunto de VAs se llama Función Aleatoria y se escribe Z(x) (Journel y Huijbregts, 1978; Armstrong y Carignan, 1997). De modo que al extender el concepto de función aleatoria al espacio de una o más dimensiones, aparece la noción aleatoria y estructural de una variable regionalizada: primero Z(x) como VA y segundo que las VAs Z(x) y Z(x+h) no son en general independientes, si no que están relacionadas por la estructura espacial de la variable regionalizada original Z(x).

    1. Conceptos de variable aleatoria regionalizada

    En el estudio de las variables aleatorias regionalizadas es importante presentar conceptos que se señalan en Journel y Huijbregts (1978) y David (1977) y que son utilizados por la mayoría de los autores donde se aplican los métodos geoestadísticos como herramienta fundamental de trabajo.

    Estos conceptos son:

    Región: se refiere al espacio en el cual existe y se estudia el fenómeno natural.

    Localización: Es el punto de una región en la cual se define una variable aleatoria regionalizada.

    Soporte Geométrico: Está determinado por el elemento físico sobre el cual se realiza la determinación de la variable aleatoria regionalizada, esto no es más que la muestra unitaria, sobre la cual estudiaremos el atributo de interés.

    Momentos de primer orden:

    Si la función de distribución de Z(xi) tiene una media definida, será una función de la localización xi. m(xi) = E{ Z(xi)}

    Momento de segundo orden:

    Si la varianza (Var) de Z(xi) existe, entonces se define como el momento de segundo orden y será también una función de la localización xi.

    Var { Z(xi)} = E{ [Z(xi) - m(xi)] 2}

    Si la varianza de las variables Z(xi) y Z(xj) existe entonces la covarianza (Cov) de las éstas también existe y es función de las localizaciones xi y xj.

    Cov[Z(xi), Z(xj)] = E{ [Z(xi) - m(xi)][Z(xj) - m(xj)]}

    si xi = xj ; Cov[Z(xi), Z(xj)] = Var { Z(xi)}

    La función variograma o función estructural se define como la varianza de la diferencia Z(xi) - Z(xj).

    Var{ Z(xi) - Z(xj)} = 2g (xi, xj}

    la magnitud g (xi, xj} = ½ Var{ Z(xi) - Z(xj)} se denomina semivariograma.

    También se puede definir el correlograma estandarizando, la covarianza para los valores xi - xj = h = 0 como: r (h) = C(h)/C(0) -1 £ r £ 1

    donde: C(h) es la covarianza a la distancia h,

    C(0) es la covarianza en el origen.

    Existen relaciones entre estas medidas de correlación:

    g (h} = C(0) - C(h) con g (0) = 0

    r (h) = 1 - g (h)/C(0)

  5. Variables aleatorias regionalizadas

    Como la forma en que se presenta la información es muy diversa (Journel y Huijbregts, 1978), la geoestadística se construye asumiendo condiciones de estacionaridad. Por lo que es necesario aceptar el cumplimiento de ciertas hipótesis sobre el carácter de la función aleatoria o procesos estocásticos estudiados, llamadas Hipótesis de la Geoestadística. Estas son según Journel y Huijbregts (1978) y David (1977): La Estacionaridad Estricta, La Estacionaridad de Segundo Orden, La Hipótesis Intrínseca y los Procesos Cuasiestacionarios.

    I- Estacionaridad Estricta. Se dice que Z(x) es estrictamente estacionaria si la función de distribución de probabilidades de las variables aleatorias regionalizadas Z(xi) son iguales entre sí, independiente de la localización xi, lo que requiere que los momentos de distinto orden para cada variable aleatoria regionalizada sean completamente independientes de la localización xi. Esta condición como su nombre lo indica es demasiado restrictiva al estudiar la mayoría de los fenómenos encontrados en la práctica.

    II- Estacionaridad de Segundo Orden. Esta condición es más frecuente en la práctica, la misma exige que:

    1) E{ Z(xi)} = m, existe y no depende de la localización xi.

    2) La función covarianza, Cov{ Z(xi) - Z(xj)} , exista y sólo dependa de la longitud del vector h = xi - xj o sea.

    C(h) = Cov{ Z(xi), Z(xj)} = E{ Z(xi), Z(xi+h)} - m2

    Esta hipótesis requiere la estacionaridad sólo para la media y para la función de covarianza de la variable aleatoria regionalizada. La segunda condición implica, estacionaridad de la varianza y del variograma.

    1o Var[Z(xi)] = E{ [Z(xi) - m]2} = C(0) " x

    2o g (h) = E{ [Z(xi)]2} - E{ Z(xi), Z(xi+h)} " x

    como E[Z(xi), Z(xi+h)] = C(h) + m2

    y E[Z2(xi)] = C(0) + m2

    g (h) = C(0) + m2 - (C(h) + m2)

    g (h) = C(0) - C(h).

    Como se observa en la última expresión g (h) y C(h), son dos herramientas que permiten expresar la correlación entre la variable aleatoria regionalizada Z(xi) y Z(xi+h), separadas por el vector h.

    III- Hipótesis Intrínseca. Una función aleatoria Z(x) se dice intrínseca cuando:

    a) Su esperanza matemática existe y no depende de la localización xi.

    E{ Z(x)} = m " x

    b) Para todo vector h el incremento [Z(x+h) - Z(x)] tiene varianza finita y no depende de la localización xi:

    Var{ Z(x+h) - Z(x)} = E{ [Z(x+h) - Z(x)]2} = 2g (h) " x

    Cuando se cumple esta condición se dice que la función aleatoria Z(x) es homogénea. Esta condición se encuentra con bastante frecuencia en la naturaleza, pues existen muchos procesos que no tiene varianza finita y sin embargo, poseen una función variograma finita.

    La estacionaridad de segundo orden, siempre implica la condición intrínseca (homogeneidad), sin embargo la relación inversa no siempre se cumple.

    IV- Procesos Cuasiestacionarios. En la práctica la función estructural, covarianza o semivariograma, es sólo usada por límites | h| £ b. El límite b representa la extensión de la región en la que el fenómeno estudiado conserva cierta homogeneidad del comportamiento de Z(xi). En otros casos, b pudiera ser la magnitud de una zona homogénea y dos variables Z(x) y Z(x+h) no pueden ser consideradas en la misma homogenización de la mineralización si |h| > b. En tales casos, podemos, y verdaderamente debemos, estar satisfecho con una función estructural C(x,x+h) o g (x,x+h), lo que no es más que estacionaridad local (para distancias h menores que el límite b). Esta limitación de la hipótesis de estacionaridad de segundo orden (o la hipótesis intrínseca si sólo el variograma es asumido) a sólo esas distancias |h|£ b corresponde a la hipótesis de cuasiestacionaridad. Está hipótesis es verdaderamente un compromiso de la escala de homogeneidad del fenómeno y la cantidad de datos disponibles.

    En la práctica según Armstrong y Carignan (1997) y Chica (1987) son dos las hipótesis que más se presentan: La Estacionaridad de Segundo Orden y la Hipótesis Intrínseca. Estas condiciones de estacionaridad se asumen en el desarrollo teórico, en la práctica deben ser verificadas en los datos antes de comenzar un estudio geoestadístico, para lo que se puede realizar un análisis estadístico de la información, de modo que se refleje de así el grado de confiabilidad en la aplicación de estos métodos.

  6. Hipótesis de la Geoestadística

    Antes de comenzar un estudio geoestadístico se deben discutir todos los elementos que aporten conocimientos del problema a resolver, la estructura geológica en que se desarrolla la mineralización o el fenómeno en estudio, organización y verificación de la información disponible y finalmente realizar el análisis exploratorio de los datos.

    Una vez obtenido los datos, es necesario que se controlen integralmente a fin de verificar de una parte su exactitud y de otra su representatividad. Es importante que se esté familiarizado con los datos, discutir todos los elementos necesarios a fin de conocer el problema a resolver (Armstrong y Carignan, 1997). En la minería los resultados son muy sensibles al nivel de información usado (Carrasco-Castelli y Jara-Salame, 1998; Lantuéjoul, 1994), cualquier modificación involuntaria en la etapa inicial se refleja sistemáticamente durante todo el estudio (Armstrong y Roth, 1997; Armstrong y Carignan, 1997).

    1. Conceptos necesarios de estadística básica

    Con el objetivo de conocer la información disponible se puede hacer un análisis de la estadística descriptiva (Krajewski y Gibbs, 1993; Journel y Huijbregts, 1978; David, 1977). A continuación se presenta un resumen de los conceptos necesarios de estadística básica.

    A: Cálculos estadísticos o estadística descriptiva. Permiten determinar si la distribución de los datos es normal, lognormal, o si no se ajustan a una distribución estadística, lo cual implica tener conocimiento de:

    1.- Numero de casos: Es el número de valores muestreados del fenómeno en estudio, representados por n y los datos por xi, i = 1, . . . , n, que llamamos distribución.

    2.- Rango de la distribución: Es la diferencia entre el valor máximo y el mínimo.

    3.- Media: Es la media aritmética de la distribución, dado por la fórmula:

    4.- Moda: Es el valor más frecuente de la distribución.

    5.- Mediana: Es el valor para el cual la mitad de los datos son menores y la otra mitad están por encima de este valor.

    Si ordenamos los datos en orden ascendente podemos calcular la mediana como.

    ì X(n+1)/2 si n es impar.

    M = í

    î (Xn/2 + Xn/2+1)/2 si n es par.

    La mediana es también llamada percentil 50, además los datos no solo se dividen en dos grupos, sino que se pueden dividir en cuatro partes, cuartiles, donde Q1 = percentil 25, Q2 = Mediana y Q3 = percentil 75, si los datos se dividen en 10, tenemos los deciles. De forma general estas medidas se pueden calcular por: [ p(n+1)/100] ésima observación de los datos ordenados ascendentemente, donde p es el percentil que se desea calcular.

    6.- Varianza: Describe la variabilidad de la distribución. Es la medida de la desviación o dispersión de la distribución y se calcula por:

    La razón principal por la que se aboga por la división entre n-1 en la estimación de la varianza, es porque proporciona un mejor estimado; si dividimos por n-1 nos referimos a la varianza muestral S2 como un estimador insesgado de la varianza poblacional s 2. Esto significa que si un experimento fuera repetido muchas veces se podría esperar que el promedio de los valores así obtenidos para S2 igualaría a s 2. Por otra parte si dividimos entre n los valores obtenidos para S2 serían como promedio demasiado pequeño.

    7.- Desviación estándar: Describe la tendencia o dispersión de la distribución. Es la medida de desviación alrededor de la media. Se calcula por:

    s =

    8.- Coeficiente de asimetría: Describe la simetría de la distribución relativa a la distribución normal. Se calcula por:

    En la distribución normal la asimetría tiene valor cero, un valor negativo indica una cola a la izquierda y un valor positivo indica una cola a la derecha.

    9.- Curtosis: Describe el grado de esbeltez de la distribución, tomado por lo general en relación a una distribución normal, y se puede calcular por:

    La distribución normal tiene curtosis igual a tres, y es llamada mesocúrtica. A las distribuciones más agudas, con colas relativamente anchas, se les llama leptocúrticas, tienen valores de curtosis mayores que tres, y las distribuciones más bien achatadas en el centro se llaman platicúrticas, tienen valores menores que tres, en ocasiones se acostumbra a definir la curtosis como a 4 - 3.

    10.- Error estándar: Describe el grado de conocimiento de los datos y se puede calcular por:

    e =

    La distribución normal tiene un valor de error estándar menor que 1.25 y la distribución lognormal o una distribución con tendencia positiva, tiene valores de error estándar mayores que 1.25.

    11.- Coeficiente de variación: Es una medida de la variación relativa de los datos y puede ser calculado por:

    CV = S/Xm

    y en porcentaje como: 100 CV = 100 (S/Xm) %

    Proporciona una comparación entre la variación de grandes valores y la variación de pequeños valores. Las técnicas de Geoestadística Lineal que predomina en el campo de las geociencias producen los mejores resultados cuando el coeficiente de variación es menor que uno, CV < 1. Para CV > 1 se recomiendan técnicas de Geoestadística no Lineal.

    12.- Prueba Chi-Cuadrado: Permite determinar si la distribución es normal, lognormal o alguna otra distribución probabilística, es su lugar puede ser usada la prueba "Kolmogorov Smirnov" como se refleja por muchos autores es más robusta.

    13.- Prueba t-Student: Permite determinar si en una distribución bimodal las medias de las poblaciones son estadísticamente diferentes.

    B: Construcción de gráficos estadísticos: Estos gráficos permiten ilustrar y entender las distribuciones de los datos, identificar datos errados, valores extremos, los mismos incluyen:

    1.- Mapa base, sección cruzada y vista en perspectiva: Son usados para visualizar la relación espacial en 2 y 3 dimensiones, permiten encontrar errores en la información.

    2.- Histogramas: Son usados para ver las características descriptivas de la distribución. Es un gráfico de barras donde en las abscisas aparecen los límites de las clases y en las ordenadas las frecuencias correspondientes a cada clase.

    3.-Frecuencia acumulativa: Usado para identificar el tipo de distribución muestral y ayuda a determinar si están presentes poblaciones mixtas. Es un gráfico de límite de clase contra frecuencia acumulada.

    En el caso de gráficos estadísticos es útil usar los gráficos de frecuencia absoluta, relativa, acumulativa y el diagrama de dispersión, como se presenta en muchos sistemas.

    Todos estos elementos permiten decidir sobre las condiciones de estacionaridad vistas anteriormente. Muchos autores sólo toman como elementos fundamentales de estadística básica que: la media y la mediana tome valores próximos; el coeficiente de variación sea inferior a 1; la distribución de los datos esté próxima a la curva normal y no existan valores extremos que afecten el desarrollo del análisis estructural.

  7. Conocimiento del problema
  8. El análisis estructural

El análisis estructural o estudio variográfico según (Armstrong y Carignan, 1997) está compuesto por:

  • El cálculo del semivariograma experimental.
  • El ajuste a este de un modelo teórico conocido.

El cálculo del semivariograma experimental es la herramienta geoestadística más importante en la determinación de las características de variabilidad y correlación espacial del fenómeno estudiado (Chica, 1987), es decir, tener conocimiento de como la variable cambia de una localización a otra (Lamorey y Jacobsom, 1995; Issaks & Co.,1999), representando el útil más importante de que dispone el geoestadístico para el análisis del fenómeno mineralizado o de la variable de distribución espacial en estudio (Sahin et al.,1998; Genton, 1998a). Este análisis tiene como condicionantes: la distribución estadística, la existencia de valores aberrantes o anómalos, la presencia de zonas homogéneas o posibles zonaciones en la distribución de las leyes.

Puede ser calculado inicialmente el semivariograma medio, global u "omnidireccional" (ver El Semivariograma Experimental), proporcionando una idea inicial de la variabilidad espacial de los datos, siendo el más idóneo para representar u obtener una estructura clara y definida. Posteriormente deben ser calculados los semivariogramas en diferentes direcciones, puede ser calculado en 4 direcciones separadas 45º con tolerancia angular de 22.5º, comenzando por 0º (figura 2a) hasta encontrar la dirección de máxima o mínima variabilidad (figura 2b), pueden ser calculados también, más específicamente, en 8 direcciones separadas por 22.5º. Una forma rápida y práctica de visualizar la existencia de anisotropía es mediante el cálculo del "Mapa de Variogramas" (Frykman y Rogon, 1993; Homand-Etienne et al.,1995; Isaaks & Co.,1999), el cual además permitirá obtener la dirección inicial aproximada para el cálculo de los semivariogramas direccionales, permitiendo un análisis adecuado de anisotropía. Posteriormente, dependiendo de la

continuidad espacial, es suficiente sólo calcular dos semivariogramas separados 90º.

Ahora, el semivariograma experimental obtenido no es utilizado en el proceso de estimación, debe ser ajustado a éste uno a varios modelos teóricos, obteniéndose un modelo o función analítica que caracteriza la continuidad espacial de la variable estudiada. Los modelos de variograma teórico utilizado en el proceso de estimación o simulación deben satisfacer ciertas condiciones, es decir tienen que ser "definido positivo" o de "tipo positivo" (Deutsch, 1994; Myers, 1992; Cressie y Grondona, 1992) de lo contrario puede existir el riesgo de encontrar varianzas negativas que no tienen sentido (Armstrong y Carignan, 1997). En general el ajuste a modelos teóricos para la determinación de los parámetros del semivariograma se realiza de forma visual. En ocasiones se efectúan ajustes polinomiales por el método de los mínimos cuadrados u otras variantes, que aunque se encuentra el mejor ajuste, no siempre se verifica la condición de que el variograma obtenido sea siempre de tipo positivo, siendo insatisfactorio (Genton, 1998b), por lo que se recomienda el uso de modelos autorizados. Finalmente debe obtenerse uno o varios modelos de variogramas con los correspondientes valores de meseta y alcance. El modelo de variograma seleccionado debe representar fielmente los aspectos que se suponen importantes del variograma experimental (Wackernagel, 1995), que serán usados posteriormente en el proceso de estimación o simulación.

  1. El semivariograma experimental

El variograma se define como la media aritmética de todos los cuadrados de las diferencias entre pares de valores experimentales separados una distancia h (Journel y Huijbregts, 1978), o lo que es lo mismo, la varianza de los incrementos de la variable regionalizada en las localizaciones separadas una distancia h.

Var{Z(x+h)-Z(x)} = 2g (h)

La función g (h) se denomina semivariograma, la cual puede ser obtenido por la expresión.

donde: Np(h) es el número de pares a la distancia h.

h es el incremento.

Z(xi) son los valores experimentales.

xi localizaciones donde son medidos los valores z(xi).

Esta expresión de g (h) representa el útil más importante en todo estudio geoestadístico (Armstrong y Carignan, 1997; Weerts, y Bierkens, 1993; Chica, 1987). Su cálculo no consiste en una simple evaluación de su expresión, según se plantea en (Krajewski y Gibbs, 1993; Journel y Huijbregts, 1978; David, 1977; Xie y Myers, 1995a; Pannatier, 1993) esta operación está relacionada con los elementos siguientes:

  • La dirección en la que será calculado el semivariograma, uno o dos ángulos que definen una dirección en el espacio a y/o b con tolerancias angulares da y/o db . El semivariograma calculado usando tolerancia angular de 90º se denomina "semivariograma medio", "global" u "omnidireccional" como ya se indicó.
  • El incremento o paso en el cálculo del semivariograma h y su tolerancia lineal dh, se recomienda que el valor de dh sea la mitad del incremento inicial.
  • Una distancia, que representa la distancia máxima a que pueden estar alejados los segundos puntos del par con respecto a la línea que define la dirección de cálculo, conocido como ancho de banda.
  • La distancia Lmax hasta la cual será calculado del semivariograma. Se recomienda que ésta sea la mitad de la distancia entre las muestras más alejadas (Armstrong y Carignan, 1997; Krajewski y Gibbs, 1993), aunque dependiendo de la geometría del fenómeno regionalizado en algunos casos puede ser calculado hasta una distancia superior.

Definido los elementos anteriores, se evalúa la expresión del semivariograma para todos los pares de localizaciones separadas a la distancia h que cumplan las siguientes condiciones:

1.- La distancia entre las localizaciones xi y xi+h sea mayor que h-dh y menor que h+dh, o lo que es lo mismo, el segundo punto del par esté incluido en el espacio definido por h-dh y h+dh encontrándose el primer punto del par en el origen o (figura 3), este origen se mueve entre las muestras a analizar.

 Para ver el gráfico seleccione la opción "Descargar" del menú superior

2.- El ángulo formado entre la línea que une los dos puntos del par y la dirección 0o debe estar incluido entre a -da y a +da (figura 4).

 Para ver el gráfico seleccione la opción "Descargar" del menú superior

3.- La distancia entre el segundo punto del par y la línea que define la dirección de cálculo del semivariograma no debe superar el ancho de banda (Deutsch y Journel, 1998) (figura 5).

Finalmente se representan gráficamente los valores de g (h) en función de h.

  Para ver el gráfico seleccione la opción "Descargar" del menú superior

El gráfico de g (h) tiene las siguientes características según (Armstrong y Carignan, 1997; Krajewski y Gibbs, 1993; Curran y Atkinson, 1998) (figura 6).

  • Pasa por el origen (para h=0, g (h)=0)
  • Es en general una función creciente de h.

En la mayor parte de los casos g (h) crece hasta cierto límite llamado meseta, en otros casos puede crecer indefinidamente. El comportamiento en el origen puede tener diferentes formas, las cuales son según Journel y Huijbregts (1978), Armstrong y Carignan (1997), Chica (1987) (figura 7):

Parabólico: Caracteriza a una variable muy regular, siendo continua y diferenciable.

Lineal: Caracteriza a una variable continua, pero no diferenciable, es decir menos regular.

Discontinuidad en el origen: "Efecto de pepita", es el caso en que g (h) no tiende a cero cuando h tiene a cero. Representa a una variable muy irregular.

Discontinuo puro: Llamado también ruido blanco, representa el caso de mayor discontinuidad, siendo el caso limite de ausencia de estructura, donde los valores de dos puntos cualesquiera no tienen correlación alguna.

  1. Construcción del semivariograma experimental en 2D

A continuación se presentan ocho pasos para la construcción del semivariograma experimental para datos distribuidos en dos dimensiones, resultado del análisis realizado en la bibliografía consultada.

Sea Z(x) una función aleatoria con N variables aleatorias regionalizadas Z(xi) donde x = { x, y} es la localización y Z(xi) es el valor medido correspondiente. Dados una dirección a través de un ángulo a en la cual se desea calcular el semivariograma, da una tolerancia angular, dh una tolerancia lineal y el ancho de banda.

Se proponen los siguientes pasos:

1.- Calcular la cantidad de pares de datos posibles por: Np = N(N-1)/2

2.- Para cada par, calcular la distancia entre las localizaciones correspondientes por:

i = 1, . . . , Np

almacenando para cada i:

- P1: Número del primer punto del par,

- P2: Número del segundo punto del par,

- d: Valor de la distancia entre los dos puntos del par.

- Angulo a ´ que fija la dirección de la recta que pasa por los dos puntos del par.

3.- Ordenar ascendentemente el grupo de datos anteriores por la distancia.

4.- Calcular la amplitud máxima del semivariograma Lmax como Lmax = Dmax/2, donde Dmax es la distancia a que están separadas las localizaciones más lejanas. Esto es la máxima distancia calculada en el paso (2), o lo que es lo mismo, el último valor después del ordenamiento del paso anterior.

5.- Fijar una distancia h inicial conocida como paso o incremento del semivariograma, se recomienda la distancia promedio entre las muestras contiguas. Para los múltiplos de esta distancia será calculada g (h), por la expresión del semivariograma. Esto indica la cantidad de puntos a procesar en el semivariograma, el cual se puede obtener como Lmax / h

6.- Calcular la expresión del semivariograma para todos los pares almacenados en el paso (2) que cumplan las condiciones siguientes:

  1. La distancia d sea mayor que h-dh y menor que h+dh, es decir, h-dh £ d £ h+dh. Si esta condición se cumple examinar la condición b, de lo contrario continuar con la distancia siguiente.
  2. El ángulo a ´ formado entre las líneas que parten del primer punto del par en la dirección 0o y la que pasa por los dos puntos del par en la dirección positiva, es decir, en contra de las manecillas del reloj, sea mayor que a -da y menor que a +da , es decir, a -da £ a ´ £ a +da . Si esta condición se cumple examinar la condición c, de lo contrario continuar con la distancia siguiente
  3. La distancia entre el segundo punto del par y la línea que pasa por el primer punto en la dirección a no supere el ancho de banda.

Observaciones:

  • Note que como los datos almacenados en el paso (2) están ordenados ascendentemente por la distancia, este paso se interrumpe cuando la distancia siguiente sea mayor que h+dh, y aquí precisamente, comienza la próxima iteración.
  • Al interrumpir este paso calcular el semivariograma con los pares que cumplieron las condiciones a, b y c, así obtenemos un valor de g (h) correspondiente al incremento h actual.

7.- Incrementar la distancia h en su propio valor, es decir, h será el próximo múltiplo del h inicial. Si el nuevo valor de h no supera el valor de L. Regresar al paso (6) de lo contrario continuar el siguiente paso.

8.- Al finalizar el paso (7) debemos tener para cada valor transitado por h un valor calculado de g (h), los cuales serán representados en un gráfico X-Y donde en la abscisa representan los valores de h y en la ordenada los de g (h). Obteniendo así el semivariograma experimental o empírico para una dirección, incremento y tolerancias definidas.

  1. Para la construcción del semivariograma 3D es necesario incorporar a la dirección del cálculo un nuevo ángulo b que permita fijar unido al ángulo a una dirección en el espacio tridimensional. El ángulo b debe variar entre -90o y 90o, teniendo en cuenta que los valores extremos coinciden con la dirección vertical y son independientes de la dirección del ángulo a

    La construcción del semivariograma 3D es similar al 2D con cambios en dos de sus pasos presentados anteriormente:

    1.- En el paso 2: el cálculo de la distancia se sustituye por:

    Almacenar para cada i además: Otro ángulo b ´ que fija junto al ángulo a ´ la dirección de la recta que pasa por los dos puntos del par en tres dimensiones.

    2.- En el paso 6 punto b, la dirección que contiene a los dos puntos del par debe estar incluida en el ángulo sólido formado por la dirección del cálculo del semivariograma y la tolerancia da , con centro en el primer punto del par.

    En el caso del cálculo del semivariograma en tres dimensiones, aún cuando teóricamente pueden ser calculados, en la práctica nos encontramos una dirección que juega un rol diferente a la del resto (Armstrong y Carignan, 1997). En el caso minero las variaciones a través de los estratos es diferente a su comportamiento a lo largo de un estrato, esto unido a la forma en que se realiza la exploración, varios pozos distanciados decenas de metros y cada uno contiene un conjunto de muestras mineralizadas con una longitud del orden de 1 m. Es recomendable entonces analizar está dirección por separado y desarrollar un análisis de variabilidad espacial en la dirección vertical, es decir, perpendicular a la estructura geológica y otro análisis en la dirección horizontal, a lo largo de la estructura geológica, utilizando en este caso compósitos de la zona de interés, realizando además, un análisis de anisotropía. Elementos que permitirán describir la variabilidad en tres dimensiones.

  2. Construcción del semivariograma en tres dimensiones 3D
  3. Problemas más comunes encontrados en el cálculo de semivariograma

De lo expresado hasta aquí, además de lo planteado en muchos textos de geoestadística, se puede obtener la impresión de que es fácil el cálculo del semivariograma experimental (Armstrong y Carignan, 1997). La fuente de problemas que se pueden presentar en la realización del un análisis estructural es muy variada, lo que está en correspondencia con la variedad de casos que se presentan en la naturaleza. Algunos de los problemas más comunes discutidos en Armstrong y Carignan (1997) son:

El valor idóneo del incremento h: Una inadecuada selección de h puede proporcionar un semivariograma errático, aunque no se puede dar un criterio exacto o aproximado sobre cual el mejor valor de h, es recomendable recalcular g (h) para distintos valores de h, hasta encontrar una forma suavizada del mismo.

Distribuciones con valores extremos: La existencia de valores extremos, altos o bajos, en una distribución, puede conducir a la obtención de un variograma fuertemente errático. En este caso la solución puede ser simple, eliminar los datos extremos, porque pueden ser ocasionados por errores, en otros casos pueden encontrarse en zonas geográficamente distintas y pueden ser tratados de manera separada.

Una herramienta útil para la detección de valores extremos y encontrar el incremento adecuado puede ser, calculado la "Nube de Variogramas" (Armstrong y Carignan, 1997), el cual consiste en representar los valores de [Z(xi+h)-Z(xi)]2/2 contra h, para cada par posible de la información inicial.

La existencia de poblaciones mixtas: Existen datos que pueden mostrar diferentes poblaciones, los cuales pueden estar estadísticamente diferenciados. En muchos casos las poblaciones están geográficamente diferenciadas, donde se recomienda tratar las zonas por separado. En otros casos las poblaciones se presenten mezcladas geográficamente, en este caso una solución puede ser un cambio de escala, con lo que se logra reducir la diferencia de los valores extremos.

En Krajewski y Gibbs (1993) se presentan otras razones por los que los semivariogramas son erráticos, las cuales son: 1.- No hay suficientes muestras, 2.- Las muestras no son representativas del fenómeno, 3.- Las clasificaciones de las muestras no son válidas, 4.- El área estudiada es no homogénea, 5.- Pequeños o largos conjuntos de datos son necesarios, 6.- Pequeñas o largas distancia deben ser calculadas, 7.- Más o menos distancias deben ser calculadas, 8.- Pequeñas tolerancias son necesarias, 9.- Las muestras pueden tener localizaciones incorrectas, 10.- Los valores muestreados pueden ser erróneos.

El problema fundamental en la obtención de un semivariograma correcto es, la elección adecuada de los intervalos de distancias para los cuales será calculado el semivariograma, de modo que en éstos la cantidad de pares encontrados sea suficiente desde el punto de vista estadístico.

  1. El modelado de semivariogramas incluye dos etapas fundamentales (Xie y Myers, 1995a), una vez construido el semivariograma experimental o empírico es necesario ajustar a este un modelo teórico, con el objetivo de determinar los parámetros descriptivos del semivariograma que posteriormente serán usados en la estimación (ASCE Task, 1990; Journel y Huijbregts, 1978; David, 1977; Lamorey y Jacobsom, 1995; Pannatier, 1993; Arik, 1990; Dubrule, 1994).

    1. Los parámetros del semivariograma caracterizan tres elementos importantes en la variabilidad de un atributo que son: la discontinuidad en el origen (existencia de efecto de pepita), el valor máximo de variabilidad (meseta), y el área de influencia de la correlación (alcance), (figura 8). como se presentan en Krajewski y Gibbs (1993), Journel y Huijbregts (1978), David (1977), Echaabi (1995), Lamorey y Jacobsom (1995), Wallace y Hawkims (1994), Pannatier (1993), Arik (1990), Pitard (1994), y se describen a continuación.

        Para ver el gráfico seleccione la opción "Descargar" del menú superior

      El Efecto Pepita (Nugget): El semivariograma por definición es nulo en el origen, pero en la práctica las funciones obtenidas pueden presentar discontinuidad en el origen, a esta discontinuidad se le llama efecto de pepita, en ingles (Nugget effect). Puede ser obtenido trazando una línea recta entre los primeros puntos del semivariograma empírico y extender ésta hasta que se intercepte con el eje Y. Si esta intersección ocurre por debajo de cero, el valor asumido por este efecto es cero, pues valores negativos de g (0) no tienen significado y no es común. El efecto pepita se representa como Co.

      La Meseta (Sill): Es el valor de g (h) para el cual con el aumento de h su valor permanece constante, se representa como (CT = C + Co) y se denomina meseta. Puede obtenerse trazando una línea paralela a la abscisa y que se ajuste a los puntos de mayor valor del semivariograma y su valor se lee en la intersección de esta línea con la ordenada.

      El Alcance (Range): La distancia h para la cual las variables Z(x) y Z(x+h) son independientes, se denomina alcance y se representa por (a), es decir, las distancias para la cual los valores de la variable dejan de estar correlacionados, o lo que es lo mismo, la distancia para la cual el semivariograma alcanza su meseta.

      El alcance siempre tiene valor positivo y puede ser obtenido a partir de la intersección de las líneas descritas en los puntos anteriores, ese punto leído en la abscisa es una fracción del propio alcance, fracción que se detallara posteriormente en la explicación de los modelos teóricos

    2. Parámetros del semivariograma

      Los modelos teóricos de semivariogramas admisible o autorizados más utilizados en la práctica se presentan en Journel y Huijbregts (1978) en los que coinciden Krajewski y Gibbs (1993), Deutsch y Journel (1998), Bacchi y Kottegoda (1995), Wackernagel (1995), Armstrong y Carignan (1997), Myers (1991c), Kiyono y Suzuki (1996). Atendiendo a las dos características más importantes en el modelado de semivariogramas que son según Journel y Huijbregts (1978): 1.- Su comportamiento en el origen, el cual puede ser linear, parabólico y con Efecto de Pepita y 2.- La presencia o ausencia de meseta. Estos modelos son:

      Efecto de Pepita: Corresponde a un fenómeno puramente aleatorio (ruido blanco), sin correlación entre las muestras, cualquiera sea la distancia que las separe, (figura 9), donde C representa el valor de la meseta.

      g (h) = 0 h = 0

      = C | h | > 0

        Para ver el gráfico seleccione la opción "Descargar" del menú superior

      Modelo Esférico: Este modelo es probablemente el más utilizado, es una expresión polinomial simple, en su forma representada en la figura 10, se puede observar un crecimiento casi lineal y después a cierta distancia finita del origen se alcanza una estabilización, la meseta. La tangente en el origen encuentra a la meseta en el punto de abscisa (2/3)a, donde a representa el valor del alcance.

      g (h) = C [ (3/2)(h/a) - ½(h/a)3 ]h £ a

      C h > a

      Modelo Exponencial: Este modelo a diferencia del esférico crece inicialmente más rápido y después se estabiliza de forma asintótica (figura 11). Como la meseta no se alcanza a una distancia finita, se usa con fines prácticos el "alcance efectivo" o "alcance práctico" a´, valor que se obtiene en el punto de abscisa para el cual el modelo obtiene el 95% de la meseta, con un valor a´=3a, donde a es el parámetro de escala. La tangente en el origen encuentra a la meseta en el punto a=(1/3)a´.

      g (h) = C [1 - Exp(-|h|/a)] |h| > 0

      Modelo Gaussiano: Este es un modelo extremadamente continuo (figura 12), inicialmente presenta un comportamiento parabólico en el origen, después al igual que en el modelo Exponencial se alcanza la meseta de forma asintótica. El alcance práctico tiene un valor de a´=1.73a, que es el valor de la abscisa donde se alcanza el 95% de la meseta.

      g (h)= C [ 1 - Exp(-|h|2/a2)] |h| > 0

      Modelo con función potencia: Este es un modelo sin meseta, su forma se representa en la figura 13, para valores de a correspondientes a 0.5, 1.0 y 1.5.

      g (h) = |h|a con a Î ]0, 2[

      Para el valor de a =1 en el modelo anterior se obtiene el modelo Lineal, al cual no tiene ni meseta ni alcance. Ahora por efectos prácticos, sin embargo, muchos programas informáticos denotan la pendiente del modelo lineal con la relación C/a (figura 14).

      g (h) = (C/a) |h|

      Se han presentado los modelos más usados en la práctica, aunque se debe señalar, existen otros modelos que son ampliamente descritos en el manual de referencias del sistema geoestadístico Isatis.

      Estos modelos pueden ser ajustados individualmente, aunque es posible encontrar en la práctica aplicaciones donde a los semivariogramas experimentales se les debe ajustar más de un modelo teórico, es decir, a través de superposición, nombrándose estructuras imbricadas (Krajewski y Gibbs, 1993; Journel y Huijbregts, 1978; David, 1977).

      La selección del modelo y los parámetros apropiados a las características del semivariograma empírico, para ser usados en la interpolación geoestadística que veremos posteriormente es el punto más importante en el proceso planteando (Arik, 1990), además, esta selección es fundamental en el caso particular de la minería donde se presentan yacimientos: con irregularidad en la densidad de barrenos; sin una adecuada perforación; con alta asimetría en la distribución o que carecen de un modelado geológico propio. Al respecto se refieren muchos autores sobre el efecto negativo que puede tener en la estimación el uso del krigeaje sin un estudio de estructura espacial y la selección adecuada del modelo de semivariograma y sus parámetros.

    3. Modelos teóricos de semivariogramas

      Como el ajuste de los modelos teóricos al semivariograma experimental, se realiza de forma visual o interactiva, variando los valores Co (efecto de pepita), C + Co (meseta) y a (alcance), hasta coincidir con los parámetros que mejor se ajustan, es conveniente validar el modelo seleccionado y los parámetros meseta y alcance escogidos. Al respecto se discute la validación cruzada en Journel y Huijbregts (1978), Armstrong y Carignan (1997), Bacchi y Kottegoda (1995), Myers (1991b), Deutsch y Journel (1998), Xie y Myers (1995b), Kiyono y Suzuki (1996), Host (1995), Lajaunie (1997), Madani (1998), Carr (1994).

      El método de validación cruzada ha sido ampliamente utilizado para evaluar el grado de bondad de un modelo de semivariograma y reconocido como un método óptimo de estimación de sus parámetros. La operación de validar un semivariograma teórico ajustado a uno experimental siempre toma mucho tiempo, éste se considera como el último de los pasos importantes del análisis de variabilidad, debido a que una vez obtenido este resultado será utilizado en la estimación por krigeaje en cualquiera de sus variantes.

      1. Validación cruzada
    4. Validación del modelo teórico
  2. Modelado de semivariogramas

Sea Z(x) una función aleatoria estacionaria con semivariograma g (h), su función de covarianza C(h) viene dada por C(h) = s 2 - g (h) donde s 2 es la varianza de Z(x). Sea Zx1, Zx2,...,Zxn los valores de Z(x) en n puntos medidos. La validación cruzada consiste en suprimir el i-ésimo valor medido Z(xi) y estimarlo a partir del resto de los datos. El valor estimado Z*(xi) se calcula por krigeaje, procedimiento explicado más adelante.

Si se repite este proceso para los N puntos, se pueden calcular n errores de validación:

E(xi) = Z*(xi)- Z(xi) i = 1, 2, . . . , N.

Así se van probando diferentes valores de los parámetros del semivariograma hasta que los errores de validación cumplen los siguientes criterios estadísticos: (Journel y Huijbregts, 1978; David, 1977; Armstrong y Carignan, 1997).

  1. El error medio, dado por T1 = (1/n) å i=1,n [Z(xi) - Z*(xi)], debe ser aproximadamente igual a cero.
  2. El error medio cuadrado, dado por T2 = (1/n) å i=1,n [Z(xi) - Z*(xi)]2, debe ser pequeño.
  3. La medida, T3 = (1/n) å i=1,n { [Z(xi) - Z*(xi)]/s } 2, debe ser igual a uno.
  4. La medida, T4 = Corr{ [Z(xi) - Z*(xi)]/s , Z*(xi)} , debe ser cero.
  5. La medida, T5 = Corr{ Z(xi), Z*(xi)} , debe ser uno.

Otros autores sólo plantean que las medidas fundamentales son la indicada por T1 y T3, (Lamorey y Jacobsom, 1995; Bacchi y Kottegoda, 1995).

  1. Ajuste automático

El ajuste de modelos de semivariogramas se puede realizar también de forma automática. Esta ha sido presentada por varios autores, en la que se sugieren una forma particular de aplicar el método de los mínimos cuadrados y así obtener el modelo y sus parámetros, teniendo en cuenta que el modelo obtenido sea definido positivo, como ya se ha indicado. La efectividad de estos se describe y argumenta en Gotway (1991) y Zhang (1995). Una comparación generalizadora se presenta en Zimmerman y Zimmerman (1991) donde se comparan varios métodos para estimar los parámetros del semivariograma entre visuales y automáticos.

Ahora, el ajuste realizado de forma automática no tiene porque reportar mejores resultados en el proceso de estimación, recomendándose en Journel y Huijbregts (1978) y Lantuéjoul (1997) y otros validar el modelo seleccionado de acuerdo al estimador a utilizar. Un criterio decisivo, independiente de la forma utilizada en la elección del modelo teórico y sus parámetros, es si lugar a dudas, emplear el método de la validación cruzada con el estimador a utilizar en el proceso de estimación, discutido anteriormente.

  1. Conviene aquí realizar un análisis sobre el comportamiento de la variabilidad del atributo en estudio. Se conoce que el semivariograma describe las características de continuidad espacial de la variable regionalizada en una dirección, pero este comportamiento pueden variar según la dirección que se analice, como se discute en Journel y Huijbregts (1978), David (1977), Zimmerman (1993), Krajewski y Gibbs (1993). Se exige por este motivo un análisis del comportamiento de la continuidad en distintas direcciones, el Análisis de Anisotropía.

    Cuando el semivariograma calculado en diferentes direcciones (norte-sur, este-oeste, y en direcciones intermedias de 45º o de 22.5º, con tolerancia de 22.5o), muestra similar comportamiento, se dice que el fenómeno es Isotrópico, cuando muestran diferentes comportamientos es Anisotrópico (Krajewski y Gibbs, 1993). Los tipos de anisotropías más comunes son la Geométrica y la Zonal. (Krajewski y Gibbs, 1993; Journel y Huijbregts, 1978; Armstrong y Carignan, 1997)

    Anisotropía Geométrica: Está presente cuando los semivariogramas en diferentes direcciones tiene la misma meseta pero distintos alcance (figura 15).

    Anisotropía Zonal: Está presente cuando los semivariogramas en diferentes direcciones tiene diferentes mesetas y alcances (figura 16).

    Al respecto en (Zimmerman, 1993), se hace un estudio profundo de los tipos de anisotropía, proponiendo una nueva terminología. En estos casos conviene realizar transformaciones de coordenadas con el objetivo de obtener modelos Isotrópicos (Journel y Huijbregts, 1978; Chica, 1987; Armstrong y Carignan, 1997).

    1. Cuando en el cálculo del semivariograma se detecta que existe una relación linear entre el valor medio de las muestras usadas en el cálculo de cada g (h) y la desviación estándar correspondiente, se dice que existe un efecto proporcional (heterosedasticidad). Este efecto se puede detectar ploteando los valores de Xm contra s , es decir, que el coeficiente de variación (s /Xm) sea aproximadamente constante, ocurre cuando los datos presentan una distribución lognormal (Journel y Huijbregts, 1978) (figura 17). La solución a este problema propuesta por David (1977) consiste en dividir cada valor del semivariograma local por el cuadrado de la media local, y obtener lo que se conoce como semivariograma relativo (David, 1977).

      F(h) = g (h)/Xm2(h)

      Puede ser calculado usando los pasos anteriormente presentados para el cálculo de los semivariogramas tradicionales.

      Existen otras medidas de la continuidad espacial descritas en Journel y Huijbregts (1978) y Pannatier (1993), las cuales permiten un análisis estructural detallado con diferentes objetivos.

    2. Efecto proporcional
    3. Problemas en el modelaje de semivariogramas
  2. Análisis de anisotropía

Los problemas más comunes al modelar semivariogramas que complican este proceso se presentan en Krajewski y Gibbs (1993). Se analizan los siguientes casos.

1.- La anisotropía geométrica está presente: Indica que los semivariogramas direccionales tienen la misma meseta pero diferentes alcances, ésta puede ser corregida a través de una transformación linear de coordenadas que permita reducir una elipse a un circulo.

2.- La anisotropía zonal está presente: indica que tanto las mesetas como los alcances son diferentes para los semivariogramas direccionales, puede ser corregido separando el semivariograma en sus componentes isotrópicos horizontal y anisotrópico vertical.

3.- La tendencia de los datos está presente: indica que los valores medidos aumentan o disminuyen dramáticamente en la zona estudiada con el aumento de la distancia. Esto puede ser resuelto aplicando polinomios a la ecuación del semivariograma, es decir un análisis de tendencia.

4.- El efecto proporcional está presente: Indica que la desviación estándar local es proporcional al cuadrado de la media local y que los datos presentan una distribución lognormal, puede ser resuelto dividiendo cada valor del semivariograma local por el cuadrado de la media local, es decir usando semivariogramas relativos.

5.- Existencia de estructuras anidadas: indica que diferentes procesos operan a diferentes escalas, como por ejemplo alguno o todos los siguientes: A muy pequeñas distancias la variabilidad puede estar presente debido a cambios de una composición mineral a otra. A pequeñas distancias la variabilidad puede estar presente debido a errores. A grandes distancia la variabilidad puede estar presente debido a casos transitorios de desgaste mineral. El cual puede ser resuelto aplicando varios modelos simultáneamente.

6.- Existencia de efecto hueco: indica que muy pocos pares están disponible para la comparación a una distancia específica. Y puede ser resuelto recuperando más casos para la distancia definida.

7.- La periodicidad está presente: indica que el comportamiento del semivariograma repite por sí mismo periodicidades, por ejemplo: El valor de la meseta puede aumentar o disminuir sistemáticamente, o un caso en que los valores son tomados alternativamente a través de diferentes estratos, como piedras areniscas, esquistos, etc. Esto puede ser resuelto si es un problema real y no un antifaz del análisis, la periodicidad puede ser también un fenómeno real mostrado por zonal ricas y pobres repetidas a espacios similares.

Partes: 1, 2

Página siguiente 

Comentarios


Trabajos relacionados

Ver mas trabajos de Estadistica

 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.


Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Iniciar sesión

Ingrese el e-mail y contraseña con el que está registrado en Monografias.com

   
 

Regístrese gratis

¿Olvidó su contraseña?

Ayuda