Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Apuntes sobre estimación de recursos y reservas (página 3)



Partes: 1, 2, 3, 4

El volumen del cuerpo representado
por las isolíneas de espesor (isopacas) se puede calcular
por el método de la red milimétrica. 

En esta variante es necesario trazar los mapas de isovalores del espesor,
ley de los componentes
útiles y masa volumétrica. Posteriormente se superpone
una malla o  matriz de bloques, cuyo
tamaño está en correspondencia con la escala de los trabajos y la
densidad de la red de
exploración. La matriz divide toda el área del
yacimiento en pequeños bloques cuadrados. Posteriormente a
partir del mapa de isopacas se interpola el valor de la potencia en el centro de cada
bloque lo cual permite determinar el volumen de cada celda
elemental. Por la adición de estos volúmenes
elementales (ΔV) se determina el volumen total del
yacimiento. Si se considera necesario para mejorar  la
precisión en los bloques limítrofes, se puede estimar
la proporción del bloque que se localiza dentro de  los
contornos del yacimiento.

ΔV=ΔS*mi

Donde ΔV -volumen elemental de la celda o bloque

mi – espesor del yacimiento en el centro del área parcial,
se determina por interpolación

Δs -área de la celda (valor constante)

El volumen total del cuerpo  se calcula:

De esta expresión queda claro  que el volumen de un
yacimiento se determina como el producto del área
elemental del bloque con la suma de los espesores parciales que
se determinan por interpolación lineal a partir de las
isolíneas.

El cálculo de las reservas de
menas del yacimiento es exactamente igual si la masa 
volumétrica es variable se construye el mapa de isovalores
de este parámetro y  a partir de aquí se interpola
el valor "d" en cada celda. 

Si d es constante entonces la formula queda de la siguiente
forma

De forma análoga se estima la cantidad de metal

Esta variante del método de isolíneas es
extremadamente importante pues contienen en esencia la idea
fundamental sobre la que descansan los métodos modernos asistidos
por computadoras. En ellos
también se subdivide o discretiza el yacimiento en
pequeños bloques y posteriormente se estima en cada celda el
valor de la variable de interés, con la única
diferencia que en los métodos actuales la interpolación
se basa en métodos de estimación espacial
(geoestadísticos y geomatemáticos). La comprensión
de esta variante es fundamental para poder entender los
métodos que serán discutidos en los próximos
capítulos.  

En resumen se puede decir que una de las ventajas del
método de isolíneas es su claridad pues las curvas de
isovalores brindan una idea clara sobre la constitución del yacimiento
y el comportamiento de los
espesores y contenidos del componente útil. Para trazar las
isopacas no es necesario emplear espesores reales sino que se
puede usar la componente vertical u horizontal de la potencia,
todo depende del plano en el que se proyecte el cuerpo. El
método permite realizar estimaciones locales (bloque a
bloque) lo cual facilita la utilización de los resultados
para fines de planificación minera.

Según la literatura la principal desventaja del
método radica en la complicación de las construcciones,
la cual ha sido superada con la introducción de los
ordenadores y el desarrollo de los métodos
geoestadísticos. El principal problema del método
está en la necesidad de contar con un grado de
exploración alto pues la construcción de las
isolíneas sobre la base de una red de exploración poco densa no es
confiable.

2.4.6 Métodos de los
perfiles

El método de estimación mediante cortes o perfiles
se puede usar si el yacimiento fue explorado en una red regular
que permite la construcción de cortes geológicos. Los
cortes geológicos de un yacimiento, según su
orientación, pueden ser horizontales, verticales o perfiles
no paralelos.   La distancia ente los cortes
particulares no es constante y corresponde a la distancia entre
las líneas de exploración en el caso de perfiles
verticales o la altura entre niveles de una mina en el caso de
cortes horizontales.

Figura 2.7 Cálculo de recursos usando el método de
perfiles paralelos. Para simplificar el esquema solo se
trazó el contorno externo.  1-Pozos positivos y
negativos  2-número de los perfiles geológicos
3-número de los bloques de cálculo 4-intercalación
de roca estéril, S – área  del cuerpo en los
perfiles L- distancia entre los perfiles

La sucesión de cálculo en este caso es la
siguiente.

·        
Contornear el cuerpo mineral (contorno interno y externo) en el
plano.

·         Se
dibujan los perfiles a una escala dada, incluyendo en los mismos
los resultados del contorneo (Fig. 2.7).

·         Se
calculan las áreas en los perfiles por su semejanza con
figuras geométricas sencillas

·         Se
calculan los volúmenes entre perfiles  utilizando las
siguientes fórmulas:

Cuando la diferencia entre las áreas calculadas no supera
el 40 % se utiliza la fórmula del trapezoide

Vi-ii = (S1+S2)/2  x  L

Si y Sii -áreas de los perfiles contiguos

L – distancia entre perfiles

Si la diferencia es mayor del 40 % se utiliza la fórmula
del cono truncado

Vi-ii = x L

El cálculo del volumen en los flancos se realiza por las
fórmulas de la cuña o el cono en dependencia de la
forma aproximada del bloque en los extremos. 

V cuña  =1/ 2 S*L

Vcono=1/3Sx L

·        
Estimación de los valores promedios de los
parámetros para cada bloque (ley del componente
útil)

Estimación de la ley media de cada perfil limítrofe
a partir de la media aritmética o media ponderada por la
potencia.

Ci = (C1*m1+C2*m2+
+Cnmn)/ (m1+ m2+
+mn)  (perfil I)

Cii= (C1*m1+C2*m2+
+Cnmn)/ (m1+ m2+
+mn) (perfil II)

 

Posteriormente se calcula el valor medio del bloque ponderando
por el área de cada perfil. 

Ci-ii = (Ci Si +CiiSii)/(Si+Sii)

Se calcula el valor promedio de la masa volumétrica para
cada bloque usando el mismo procedimiento

  • Cálculo de las reservas de menas y del componente
    útil en cada bloque

Qi-ii = Vi-ii*di-ii

Pi-ii = Qi-ii*Ci-ii

·        
Cálculo de las reservas totales del yacimiento  por la
sumatoria de las reservas de los bloques individuales

Qt = Qi-ii + Q ii-iii + 
······  +
Qn-1,n

Pt = Pi-ii + P ii-iii + 
·········· +
Pn-1,n

El método de las secciones en todas sus variantes permite
tener en cuenta de manera más completa las
particularidades  de la constitución geológica del
yacimiento, la morfología  y las
condiciones de yacencia de los cuerpos minerales (Lepin y Ariosa, 1986).
El método posee desventajas importantes. En primer lugar se
basa en la interpolación rectilínea de los datos de exploración entre
las secciones contiguas  y por eso es inaplicable si la
estructura tectónica del
objeto es compleja. Además si distancias entre los perfiles
son grandes se puede incurrir en errores groseros en la
determinación de los volúmenes. Por este motivo, no se
recomienda este  método    durante los
estadios iniciales del estudio geológico del yacimiento,
especialmente si se supone una constitución geológica
compleja. En segundo lugar, al calcular las reservas de mineral
útil mediante este método no se utilizan  los
datos de exploración obtenidos en los puntos  dentro
del bloque, sino solo los ubicados en las secciones principales
de  exploración.

3 Análisis exploratorio de
datos

3.1 Compositación o
regularización

Generalmente los intervalos de muestreo en los pozos de
exploración no coinciden con los intervalos de trabajo en la fase de
estimación de recursos. Los intervalos de muestreo son
siempre menores pues se busca revelar la variabilidad espacial de
las variables que se estudian. El
cálculo de los compósitos no es más que un
procedimiento mediante el cual
las muestras de los análisis se combinan en intervalos
regulares (igual longitud), que no coinciden con el tamaño
inicial de las muestras. La ley del nuevo intervalo se calcula
usando la media ponderada por la longitud de los testigos que
contribuyen a cada compósito y la masa volumétrica en
caso de ser variable.  El objetivo de la
regularización según Barnes, 1980 es obtener muestras
representativas de una unidad litológica o de
mineralización  particular las cuales pueden ser
usadas, a través de una función de extensión,
para  estimar la ley  de un volumen mucho mayor de la
misma unidad.

Entre las principales razones y beneficios de la
regularización tenemos:

El análisis geoestadístico exige muestras de igual
longitud (similar soporte).

La compositación reduce la cantidad de datos  y por
consiguiente el tiempo de cálculo o
procesamiento.

Se producen datos homogéneos y de más fácil
interpretación.

Se reduce las variaciones erráticas (alto efecto pepita)
producto de muestras con valores extremadamente
altos.

El proceso incorpora la
dilución  como la provocada por la explotación de
banco con altura constante en
la minería a cielo abierto.

Existen muchos tipos de yacimientos minerales cada uno de los
cuales  requiere de un tratamiento específico de los
datos de las muestras de manera que se logren los mejores
intervalos de compositación para la evaluación del los mismos
(Barnes, 1980). Básicamente existen 3 tipos principales de
compósitos y se usan en dependencia de la naturaleza de la
mineralización y el método de explotación:

Compósito de Banco (bench composite): Las muestras se
regularizan a intervalos que coinciden con la altura de los
bancos o una fracción de
esta. Se emplea para modelar los recursos de yacimientos grandes,
diseminados de baja ley que se explotan con minería a cielo
abierto (Yacimientos de Cobre
porfídico). 

Compósito de Pozo (down hole composite):  Las
muestras se combinan a intervalos regulares comenzando desde la
boca del pozo.

Compósito Geológico (geological composite): Las
muestras se combinan a intervalos regulares pero respetando los
contactos geológicos entre las distintas unidades. Este
método se emplea para prevenir la dilución del
compósito en el contacto estéril mineral y donde se
logra mayor control sobre el proceso de
regularización.

El empleo de compósito de
banco o de pozo en estos casos provoca una distorsión de la
distribución de la ley ya
que se puede adicionar mineral de baja ley a la zona mineral o
mineral de alta ley al estéril.

Para escoger la longitud de regularización se emplean las
siguientes reglas empíricas:

·         El
tamaño del compósito se selecciona  entre la
longitud media de las muestras y el tamaño del banco

·         Para el
caso de los cuerpos en los que su análisis se hace de forma
bidimensional, es necesario computar por pozos una media
ponderada de los valores de todas las variables de interés
que abarque todas las muestras positivas del intervalo
mineralizado.

·        
 No se debe regularizar muestras grandes en intervalos 
más pequeños pues se introduce una falsa idea de
continuidad espacial (fig. 3.1).

Figura 3.1 Impacto provocado al regularizar
muestras grandes en intervalos pequeños.

 3.2 Análisis
exploratorio de datos.

Antes de proceder con la estimación de reservas
propiamente dicha se debe, siempre que sea posible, realizar un
análisis estadístico de los datos disponibles o los
generados a partir del cálculo de los compósitos con el
objetivo de caracterizar el comportamiento estadístico de
las distintas variables en el depósito y en las unidades
geológicas (dominios)  que lo integran.

La organización de los datos
cuantitativos y su análisis pueden consumir el 50 % de
tiempo necesario para realizar la estimación de reservas. El
análisis exploratorio de datos está dirigido a resolver
las siguientes cuestiones:

·        
Identificar y eliminar los posibles errores

·        
Caracterización estadísticas de las
variables de interés

·        
Documentar y entender las relaciones entre las variables

·         Revelar
y caracterizar  la continuidad espacial de las variables
(potencia y contenido del componente útil)

·        
Identificar y definir los dominios geológicos que requieren
un tratamiento independiente durante la estimación de
recursos.

·        
Identificar y caracterizar las muestras con valores extremos
(outliers)

El cálculo de la estadística básica y
el estudio de la distribución de frecuencias de los 
parámetros constituyen las principales herramientas que posibilitan
el análisis estadístico de los datos. Los resultados de
esta etapa complementan el modelo geológico y se
emplean en la modelación de recursos.

La estadística básica se calcula para las muestras
originales y compositadas en cada dominio geológico, los
cuales incluyen distintos tipos litológicos, tipos de
alteración hidrotermal,  dominios estructurales y zonas
o sectores en las que se reconoce (o se sospecha) que la
distribución estadística de la variable es
diferente.

3.2.1
Estadística descriptiva

El análisis estadístico comienza con el estudio de
la distribución de frecuencia  la cual indica como se
distribuyen las muestras en intervalos regulares de los posibles
valores.  A partir de aquí se construyen los
histogramas y gráficos de frecuencia
cumulativa. El estudio del histograma  permite extraer
conclusiones sobre el tipo de distribución que siguen los
datos, la presencia de valores huracanados y la posible
existencia de poblaciones complejas (bimodalidad).

Al histograma calculado se le ajusta un modelo teórico de
distribución. En la práctica de la estimación de
recursos se emplean mayoritariamente el modelo de
distribución normal o gaussiana y el modelo lognormal de 2 y
tres parámetros.

Si el histograma del parámetro estudiado es
simétrico en forma de campana y la distribución de
frecuencia cumulativa se plotea como una línea recta en el
papel probabilístico normal entonces los datos se ajustan al
modelo de distribución gaussiano. Este tipo de modelo se
observa poco en los yacimientos minerales excepto en aquellos de
origen sedimentario.

 

La función de densidad de probabilidades  que
describe matemáticamente esta distribución  esta
dada por la siguiente ecuación

  Donde

f(x)-  función de densidad de probabilidad

m  – media 

σ- desviación estándar

El gráfico de la función  de densidad de
probabilidad, conocida como
curva normal, se muestra en la figura 3.2.

Figura 3.2 -Gráfico de la distribución normal

Una propiedad muy útil de la
distribución normal es que el área bajo la curva en un
intervalo específico puede ser fácilmente calculada.
Por ejemplo, el 68 % de los valores de la variable caen en el
intervalo μ±σ, el 95% en el intervalo
μ±2σ y el 99% en el intervalo
μ±3σ.

Si el histograma del parámetro estudiado es
asimétrico, formando una cola hacia la derecha y la
frecuencia cumulativa se grafica como una línea recta en el
papel probabilístico lognormal entonces los datos se ajustan
al modelo de distribución lognormal. Cuando los datos poseen
estás características la variable original se
transforma calculando el logaritmo natural de sus valores. El
histograma de la variable transformada se ajusta al modelo
gaussiano.

Este tipo de distribución se encuentra en muchos problemas de evaluación
de reservas, donde existe una gran cantidad de valores bajos y
unos pocos valores altos que definen el yacimiento.

La función de densidad de probabilidades que describe
matemáticamente la  distribución lognormal 
esta dada por la siguiente ecuación.

Donde a – media de los logaritmos de x

          b –
desviación estándar de los logaritmos de x

Los gráficos de probabilidad o frecuencia acumulada
(normal o lognormal) son también de mucha utilidad para este análisis.
En primer lugar permite corroborar el modelo de distribución
al que se ajusta la variable y también calcular los
principales parámetros estadísticos que describen la
distribución. En muchos casos los gráficos obtenidos al
representar la frecuencia acumulada no constituyen líneas
rectas sino múltiples segmentos y curvas con sus respectivos
puntos de inflexión. Estos puntos de cambios de pendiente se
emplean para separar poblaciones complejas, siempre y cuando las
subpoblaciones posean coherencia espacial y una lógica
explicación  geológica.. 

Una desviación típica de los gráficos de
probabilidad es una curva hacia abajo en el extremo inferior.
Esta curva representa un exceso de muestras con leyes bajas comparado con lo que
se debe esperar si la distribución fuese lognormal. En los
depósitos de cobre porfídico, por ejemplo, esto se
explica por intrusiones tardías  débilmente
mineralizadas o diques estériles posteriores a la
mineralización. Los datos deben ser examinados para
determinar la fuente de las muestras de bajo contenido y valorar
si esta población ha sido o puede
ser cartografiada  y estimada de forma independiente. Este
mismo comportamiento del gráfico de probabilidad puede
originarse al representar una distribución normal en un
papel probabilístico lognormal.

Otra desviación muy común de la línea recta en
el gráfico de probabilidades es una curva de mayor pendiente
en el extremo superior. Esto representa un exceso de muestras con
alto contenido lo cual puede ser causado por la
superposición de 2 poblaciones. Un ejemplo de esto puede ser
vetas de alta ley que cortan mineralización diseminada de
baja ley. Otras causas de muestras con valores muy altos pueden
ser los pequeños sectores dentro del cuerpo altamente
favorables para hospedar mineralización producto de su alta
permeabilidad, propiedades químicas favorables,
enriquecimiento secundario o removilización
metamórfica. Como la mineralización de alta ley
generalmente posee menor continuidad que la de baja ley  el
origen de estas zonas debe ser identificado y su estimación
realizada de forma independiente.

Una vez obtenidos los histogramas y gráficos de
probabilidades se calculan algunos parámetros de la estadística descriptiva que
caracterizan numéricamente la distribución
estadística. 

Los principales estadígrafos que deben ser
calculados para las distintas variables son:

Números de datos (muestras o compósitos)

Medidas de tendencia central (media, moda, mediana)

Medidas de dispersión (varianza, desviación
estándar, rango y coeficiente de variación)

Medidas de forma (asimetría y kurtosis)

3.2.1.1 Medidas de tendencia central

La media aritmética es el promedio de los n
valores medidos. Posee el inconveniente de que es muy sensible a
la presencia de valores extremos en los datos. La media o
esperanza matemática se calcula por la
fórmula siguiente

La moda es valor más probable o frecuente de la variable
estudiada

 La mediana es el punto central de los valores
observados si se organizan en orden ascendente. La mitad de los
valores caen por debajo de la mediana y la otra mitad por encima.

Cuando la variable se ajusta al modelo normal la moda, la
mediana y la media coinciden, si la distribución es
lognormal, la moda es mayor que la mediana y esta  a su vez
es mayor que la media.

Cuando la distribución es asimétrica los valores
medios de la ley u otro
parámetro estimados a partir de una simple media
aritmética están sesgados y no se confirma
posteriormente durante la producción. Si los datos
se distribuyen lognormalmente, la población se puede definir
como una población lognormal de dos parámetros (media y
la varianza de la población logarítmica), entonces el
valor  medio de este tipo de distribución se obtiene
por la fórmula siguiente:

m = e[a+
var/2]

Donde:

m = Valor medio estimado de la variable

a = Media de la distribución de los logaritmos de la
variable

var = varianza de la distribución de los logaritmos de
variable.

Los valores a y var pueden ser calculados por las
fórmulas anteriormente descritas o estimados a partir del
gráfico de probabilidad (fig. 3.5). La media de los
logaritmos coincide con el percentil 50 mientras que la
desviación estándar es SD
=0.5(X16-X84).

Puede ocurrir que al representar los datos logarítmicos
en un diagrama de probabilidad,
estos no se ajusten exactamente a una recta, mostrando una cierta
curvatura en el comportamiento, lo que es indicativo de la
presencia de una población lognormal de tres parámetros
(Fig. 3.5). Este tercer parámetro, denominado constante
aditiva (a), se puede calcular como:

a = [ x50 – ( x75 . x25 ) ] /
(x25 + x75 – 2.x50)

donde  x25, x50 y x75
los valores de los percentiles 25, 50 y 75.

Este valor a se añade a la población original de
datos. A continuación, se realiza la transformación
logarítmica obteniéndose una nueva población
ln(xi + a), la cual si  se ajusta a una 
distribución lognormal. El valor de a estimado por este
método es tentativo y puede ser modificado de modo que se
logre el mejor ajuste posible.

Figura 3.5 Gráficos de probabilidad de una
distribución lognormal a)población lognormal de 2
parámetros b) población lognormal de 3
parámetros.

Para calcular, en este caso, la media del parámetro se
aplica el procedimiento descrito para la población de dos
parámetros, sustrayéndose el valor de la constante
aditiva al resultado final.

3.2.1.2
Medidas de dispersión

Varianza: La varianza de los
datos,se
calcula de acuerdo a:

La varianza es la desviación cuadrática promedio de
los datos respecto a su valor central, esta medida es sensitiva a
valores extremos.

Desviación estándar: La desviación
estándar se calcula como la raíz cuadrada de la
varianza. Esta medida con frecuencia se prefiere en lugar de la
varianza debido a que sus unidades son las mismas que la variable
que se estudia.

Rango: Es la diferencia entre el máximo y el
mínimo.

3.2.1.3 Medidas de
forma

Coeficiente de simetría: El descriptor más
utilizado para medir la forma de la distribución es el
coeficiente de asimetría. Debido a la manera en que se
calcula este coeficiente los valores del mismo pueden estar 
afectados por la presencia de valores extremos en los datos. Un
sólo valor extremo puede influenciar notablemente este
coeficiente pues la diferencia entre cada valor y la media es
elevado al cubo. La distribución normal estándar es
perfectamente simétrica,  Sk = 0. Esta
medida se calcula como:

Sk < 0 Distribución asimétrica
negativa

Sk = 0 Distribución simétrica

Sk > 0 Distribución asimétrica
positiva

Coeficiente de variación: Este coeficiente se usa
como una alternativa al coeficiente de asimetría. Se emplea,
principalmente, para distribuciones en las cuales todos sus
valores son positivos y cuya asimetría es también
positiva.  Aunque puede ser utilizado para distribuciones
con asimetría negativa en ellas  su importancia como
índice de forma decrece considerablemente. Este coeficiente
es una medida de dispersión  adimensional, y no
está definido para el caso en que la media es cero. Se
calcula como la desviación estándar dividida por la
media de los datos.

Un coeficiente de variación mayor que uno indica la
presencia de algunos valores erráticos en la muestra 
los cuales pueden tener una gran influencia en la
estimación.

Según Finney (1941) una manera práctica de saber si
los datos se ajustan a una distribución normal o lognormal
es calcular el coeficiente de variación y verificar si este
es mayor o menor que 1.2; si es mayor que este valor (gran
dispersión de los valores) entonces la distribución es
lognormal, en caso contrario el modelo es normal. 

Noble, 2000 propone las siguientes reglas para interpretar el
coeficiente de variación.

Coeficiente de variación

Interpretación

0-25 %

Distribución simple y simétrica  de la
ley. La estimación de recursos es fácil y
cualquier método brinda buenos resultados.

25-100%

Distribución asimétrica. Dificultad moderada
para la estimación de recursos. La 
distribución es típicamente lognormal

100 – 200 %

Distribución marcadamente asimétrica con un
amplio rango de valores. Dificultad para la estimación
local de los recursos. 

> 200 %

Distribución asimétrica y muy errática o
presencia de poblaciones complejas. La estimación
local de la ley es difícil o imposible

Kurtosis: Es una medida de cuan "afilado" es el pico de
la distribución de los datos.  Tradicionalmente el
valor de este coeficiente se compara con cero, el cual es el
valor para el caso de una distribución normal.  Un
valor mayor que cero indica una distribución más picuda
que la normal y un valor menor que cero refleja una
distribución más achatada que la normal.  Sin un
número de muestras grandes, el uso de este coeficiente es de
dudoso valor.

Si el número de muestras es mayor que 25 entonces es
posible hacer comparaciones de la media y el coeficiente de
variación de las variables de interés entre los
distintos dominios geológicos presentes en el
yacimiento.

Noble, 2000 propone las siguientes reglas generales para
evaluar las diferencias entre las leyes medias:

Diferencia de la ley media entre dominios
geológicos (%)

Interpretación

0-25 %

La diferencia es mínima y no es necesario
diferenciar las poblaciones en el modelo de recursos

25-100%

Las poblaciones requieren ser diferenciadas en el modelo
de recursos si están separadas por
discontinuidades(fallas etc.) o el variograma en ambos
dominios es diferente

Mayor de 100 %

Las poblaciones  tienen que ser necesariamente
separadas. Diferencias mayores de 100 % pueden indicar
presencia de poblaciones estériles o de alta ley

4
Métodos de estimación de reservas asistido por
computadoras

Los métodos de estimación de recursos asistido por
computadoras se han desarrollado ampliamente en los últimos
años debido al desarrollo vertiginoso que han tenido los
ordenadores y los softwares de aplicación.  Los
primeros intentos estuvieron  dirigidos a informatizar los
métodos clásicos o geométricos (método de los
polígonos y de los
perfiles) posteriormente con el desarrollo de la
geoestadística aparecieron métodos más potentes y
con una filosofía totalmente
diferente de trabajo. 

Los métodos asistido por computadoras permiten realizar
estimaciones en bloques más pequeños (estimación
bloque a bloque, que idealmente deben ser del tamaño de la
unidad de selección minera) definidos
en función del objetivo de la estimación y la densidad
de la  red de exploración. En esto radica precisamente
la diferencia con los métodos clásicos o
geométricos los cuales, como se conoce, definen el
tamaño del bloque sobre la base de conceptos de área o
volumen de influencia que comúnmente son determinados
empíricamente, o también de acuerdo con la
disposición de las intersecciones de exploración. Estos
bloques así definidos son de grandes dimensiones y se
evalúan generalizando la variable estudiada a partir de la
media aritmética o la media ponderada según sea el
caso.

Los métodos computarizados para la estimación de
recursos se basan en procedimientos matemáticos de
interpolación local  y solamente emplean los datos de
los pozos vecinos al bloque para realizar la estimación de
la variable estudiada. Un esquema simplificado de la
estimación de recursos asistida por computadora se muestra en la
figura 4.1. El yacimiento  o la zona mineral definido por la
geología se discretiza en
una matriz de bloques bidimensional o tridimensional según
el caso y cada bloque se estima utilizando los datos localizados
dentro del área o volumen de búsqueda.

Los métodos de ventanas móviles (inverso de la
distancia y kriging) son las técnicas más empleadas
en la estimación de recursos  asistida  por
computadora.

El procedimiento general de los métodos computarizados es
el siguiente.

1.       Confección de la
base de datos con toda la
información relevante de la
exploración del yacimiento

2.       Análisis
exploratorio de datos y variografía

3.       Creación del
modelo geológico

4.       Modelo de recurso –
División del yacimiento mineral en una matriz de bloques
regulares -modelo de bloque o capa.

5.       Estimación en cada
bloque de las variables de  interés (contenido, masa
volumétrica etc.) empleando una técnica de
interpolación espacial  (funciones de extensión). El
valor estimado de la ley en cada celda se calcula por la
siguiente fórmula:

Z*(x) = åi=1,n
Wi Z (xi)   i= 1,2,3,…….n

Donde: Wi es el peso o coeficiente de
ponderación asociada a cada muestra y su valor depende del
método de estimación espacial empleado, n es la
cantidad de muestras seleccionadas  para hacer la
estimación.

Figura 4.1 Representación bidimensional del caso general
de la estimación de recursos asistida por

computadoras  (Según Sinclair y Blackwell, 2002)

A continuación se describe detalladamente cada una de
estas etapas. Mucho de los aspectos aquí discutidos para los
métodos asistidos por computadoras son igualmente
válidos para los tradicionales o geométricos

4.1 Confección de la base de
datos

La estimación  de recursos/reservas a partir de un
número limitado de pozos es una de las tareas más
complejas que enfrenta un geólogo explorador.  En la
medida que avanza la exploración y se van recopilando datos
relevantes del yacimiento estos se van organizando en una base de
datos. El geólogo debe garantizar la integridad de la misma
y tomar las medidas necesarias para evitar los errores de
trascripción o digitalización.

La precisión y exactitud de la estimación de
reservas depende de la confiabilidad de los datos sobre los
cuales se basa y ningún método de estimación, por
muy sofisticado que sea, puede compensar la mala calidad de los datos (Burn,
1981). Queda claro que contar con una buena base de datos es la
garantía de una correcta estimación de reservas. Por
esta razón, desde el mismo comienzo de los trabajos es
necesario implementar procedimientos que garanticen un muestreo
representativo y un estricto  control sobre la calidad de
los resultados del laboratorio

La base de datos debe integrar todo tipo de datos incluyendo
litología, documentación, resultados
de los análisis, registros de carotaje, datos
hidrogeológicos y geotécnicos.

Los datos de exploración (pozos, galerías,
trincheras etc.) generalmente se guarden en 3 o 4 tablas

Tabla 1 recoge la posición espacial del pozo y
está conformada por los siguientes campos: Nombre del pozo
(DDH;BH), coordenadas X;Y;Z de la boca del pozo (collar),
profundidad y otros datos adicionales como tipo de
perforación, año de la campaña etc.

Tabla 2 recoge los datos de inclinometría que
permiten determinar la posición de las muestras en el
espacio. Campos: Nombre del pozo, profundidad de la medición, azimut y
ángulo de inclinación o ángulo cenital

Tabla 3 recoge los datos referentes a las muestras
tomadas (testigos) su descripción (litología
codificada) y los resultados de los análisis químicos.
Campos: Nombre del pozo, desde, hasta, # de la muestra,
litología, análisis químicos. Esta tabla en
ocasiones se desdobla en dos, una para los análisis
químicos y otra para la litología, pues la longitud de
los intervalos generalmente no coincide.

Una vez que la base de datos ha sido compilada el geólogo
debe validarla e identificar y eliminar todos los posibles
errores. La mejor manera de comprobar la integridad de la base de
datos es mostrando la información en perfiles y comparar con
el modelo que se tiene del yacimiento. También se acostumbra
a comparar un porcentaje  (10%) de los registros con la
información original.

La etapa siguiente tiene como objetivo caracterizar
estadísticamente cada una de las variables estudiadas y
cuantificar su variabilidad espacial. Estos aspectos son tratados en capítulos
independientes (capítulos 3 y 5).

4.2 Creación del modelo
geológico

La experiencia ha demostrado que el problema principal en la
estimación de recursos no esta relacionado directamente con
el método de estimación empleado sino con la correcta
aplicación de los principios geológicos. La
cuestión medular a resolver antes de la estimación de
recursos propiamente dicha es establecer la continuidad de la
mineralización y la ley dentro del yacimiento. Un muestreo
representativo, análisis confiables y una coherente
interpretación geológica son los componentes
principales de la estimación de recursos (Arseneau y Roscoe,
1997)

La interpretación geológica siempre se basa en los
datos y en el conocimiento que posee el
geólogo sobre el yacimiento o del modelo de yacimiento que
se estudia. Esto conduce inevitablemente a que los mismos datos
sean interpretados de forma diferente por distintos
especialistas, y por consiguiente resultados diferentes de la
estimación de recursos.

La interpretación geológica tradicionalmente ha
descansado en la construcción de planos y secciones en los
cuales se representa la morfología, dimensiones y
propiedades del yacimiento (Popoff, 1966). La interpretación
de todos los datos recopilados  durante la exploración
se basa en 3 enfoques principales:

·        
Interpretación basada en perfiles y secciones

·        
Interpretación basada en planos de isolíneas

·        
Principio de analogía o inferencia geológica.

En la actualidad aunque el proceso se ha informatizado el
procedimiento continúa siendo el mismo y se basa en los
enfoques anteriormente descritos.

En los métodos de estimación asistidos por
computadora el conocimiento geológico
que posee el geólogo sobre la continuidad de la estructura y
la ley se traduce en la definición de zonas o dominios
geológicos que poseen una forma geométrica
única.

Los dominios geológicos no son más que zonas
geológicamente y estadísticamente homogéneas. Lo
que realmente se hace cuando se crea el modelo geológico del
yacimiento es subdividir el mismo en subpoblaciones que cumplan o
se aproximen a la hipótesis de
estacionaridad (ver capitulo 5). La división del yacimiento
en dominios siempre debe basarse en el conocimiento
geológico y el sentido común. Guibal (1997)
señala  que la selección de los dominios
geológicos debe estar respaldada y validada por la
estadística y la variografía.

La definición de los límites o contornos de los
dominios geológicos, los cuales determinan la geometría de los cuerpos y
zonas, es el método básico para aplicar control
geológico a la estimación durante la modelación de
recursos.

Los límites o contornos de los dominios
geológicos  se clasifican en difusos o gradacionales
y  físicos. En los yacimientos que están definidos
por limites físicos, (carbón, yacimientos
sedimentarios, filones de oro etc.), el trazado de los
contornos es relativamente fácil, pues estos coinciden con
los planos o contactos geológicos. En el caso de los
yacimientos gradacionales (Cobre porfirico) los límites se
definen sobre la base de una ley económica o
cutoff.

4.2.1 Métodos para
la definición de los contornos

Existen distintos métodos para correlacionar los
límites de los dominios y conformar las superficies o
sólido 3D que define la geometría de la unidad
geológica en el espacio tridimensional.

4.2.1.1 Sólidos a partir de los modelos de alambre o
wireframe.

El wireframe es la manera más versátil de definir
los límites de los dominios geológicos. Cualquier
límite o contorno interpretado en perfiles, planos o
directamente en 3D puede ser combinado para formar el modelo de
alambre y finalmente generar el sólido de la unidad
geológica.

Para generar el sólido a través de este método
se digitaliza interactivamente en la pantalla de la computadora los
límites o contornos de las unidades geológicas que
constituyen el depósito (fig. 4.2). La interpretación
de cada unidad en los perfiles es representada por un
polígono cerrado que posee una orientación y
posición espacial, un código que indica el
dominio geológico que encierra y una potencia o zona de
influencia lo que hace que cada perímetro englobe cierto
volumen.

Existen herramientas que garantizan que los contornos de
unidades contiguas en un perfil coincidan, de forma tal que no
queden huecos o espacios vacíos en el modelo
geológico.

Figura 4.2 Interpretación de los límites de los
dominios geológicos a partir de los datos mostrados en
perfiles.

Una vez que el mismo dominio geológico ha sido
interpretado en los distintos perfiles entonces se procede a
correlacionar  la unidad geológica  en perfiles
contiguos para lograr una representación 3D del cuerpo
geológico (fig. 4.3). Los perímetros (contornos)
digitalizados se van uniendo por los puntos de inflexión
correspondientes en los perfiles a través de líneas de
enlace (tie lines) hasta completar el wireframe  que
encierra el volumen geológico 3D. Esta correlación
sección a sección se requiere cuando los contornos son
irregulares (bifurcaciones, fallas, acuñamientos, etc.).
Si  las unidades geológicas muestran una clara
continuidad en 3D entonces no es necesaria la correlación
interactiva y se puede prescindir de las líneas de enlace,
en su lugar se usa un algoritmo de
interpolación lineal de los límites en las
secciones

Los modelos sólidos creados pueden ser cortados por
planos de cualquier orientación y espaciamiento, esto nos
permite corroborar nuestras interpretaciones en otra dirección cualquiera.

Figura 4.3 Creación del modelo sólido 3D a partir
del perfiles previamente interpretados.

Como toda la información en  los softwares de
modelación y estimación de recursos es manejada en el
espacio  no es necesario realizar la interpretación de
los limites a partir de perfiles y planos, esta puede hacerse
directamente en el espacio 3D.

4.2.1.2 Sólidos generados partir de
superficies (Método de superficies)

Muchas veces es posible confeccionar los sólidos
modelando las superficies estructurales que limitan por encima y
por abajo los cuerpos geológicos. Este enfoque puede ser
empleado en yacimientos estratiformes de poca complejidad
estructural

Este método se realiza en 3 pasos fundamentales:

§        
 Extracción de los puntos que yacen en las superficies
(techo y piso) a partir de la intercepción de la traza del
pozo con los planos estructurales)

§        
Modelación de las superficies (triangulación o
gridding)

§        
Combinación de las superficies y generación del
sólido

Existen 2 variantes de modelación  de
superficies:

Modelación de superficie por triangulación

La  superficie de contacto se modela usando una red
optimizada de triángulos irregulares
(TIN) que conectan los puntos con coordenadas conocidas. La
triangulación se realiza en un plano de referencia que debe
ser paralelo a la superficie considerada, el mosaico de
triángulos se genera sobre la base de la coordenadas
X;Y  mientras que la Z define la topología. Para generar
el TIN se utiliza el método de Delaunay (Voronoi,
Thiessen). 

Cualquier superficie puede ser modelada (superficie
topografica, planos de fallas etc.), interceptada con el plano
del perfil (viewplane) y ser utilizada para controlar la
interpretación geológica. La modelación de estas
superficies controladoras es el primer paso en la modelación
geológica en 3D.

Para la triangulación se debe tener el máximo de
información posible sobre la superficie a modelar. Esta
información debe estar libre de errores o inconsistencias
como pueden ser puntos con las mismas coordenadas, curvas de
nivel que se corten (strings) o puntos que no residan en la
superficie.

El método de triangulación  no suaviza y
respeta la información original, aspecto muy importante
cuando la Z del punto se conoce con bastante certidumbre
(superficie topográfica, planos de falla), puede ser
aplicado a superficies de cualquier orientación (horizontal,
inclinado o vertical), da la posibilidad de representar las
discontinuidades (breaklines) y no genera superficie más
allá  de los puntos extremos.

Modelación de superficie por interpolación (malla
-gridding)

Representa la superficie como un malla o matriz bidimensional
(formato RASTER) y requiere la interpolación de la cota en
los nodos de la red. El método tiene el inconveniente que la
representación es solo en el plano horizontal, lo que limita
su uso para modelar superficies inclinadas, además suaviza
los datos originales al tener que interpolar. Para generar la
malla se utilizan diferentes técnicas de interpolación
espacial (inverso de la distancia, kriging, vecino más
cercano, etc.).

La combinación de las superficies controladoras permite
el sólido que representa el dominio geológico
estudiado.

4.3 Modelo de
recursos

Una vez obtenido el modelo geológico entonces resta
establecer la variación espacial de las distintas variables
de interés (leyes), además de determinar los recursos,
ley media y cantidad de metal en cada dominio geológico y en
el yacimiento en general.  

4.3.1 Método de bloques

El método más usado en la modelación de
recursos  consiste en la discretización del espacio 3D
en bloques o celdas tridimensionales (voxels) (fig.4.5). Cada
celda contiene los atributos (litología, tipo de
mineralización etc.) y las mediciones (leyes, propiedades
físico mecánicas) del dominio geológico en que se
encuentra. Los atributos de los bloques se determinan sobre la
base de la intersección con el modelo geológico o su
posición respecto a una superficie triangulada y las leyes a
través de la estimación con técnicas de
interpolación espacial.

 

 

Figura 4.5 Modelo de bloque

El primer modelo de bloque fue utilizado a comienzos de los
años 60 por la Kennecott Koper Corporation en un
depósito de pórfido cuprífero. Se empleó para
describir la distribución espacial de las leyes y no la
geometría  de los dominios geológicos.

Cada bloque debe contener toda la información disponible
en las fases de desarrollo de un proyecto:
litología-mineralogía, contenidos de metales, calidades en el caso del
carbón y rocas industriales, contenidos de
contaminantes, parámetros geomecánicos, datos
hidrogeológicos, etc.

Para definir el modelo de bloque es necesario establecer los
siguientes parámetros (Fig.4.6)

§        
Posición del modelo: se especifica a partir de las
coordenadas del centroide  del bloque llave (key block).

§        
Extensión del modelo en las distintas direcciones X, Y, Z
(debe ser lo suficientemente grande para enmarcar la región
de interés)

§        
Dimensiones de las celdas o bloques por la X, Y y Z.

§        
Orientación del modelo definido  (ángulo de
inclinación y el azimut)

§        
Conjunto de variables a almacenar en el modelo con sus
correspondientes formatos: ley de los distintos metales, peso
volumétrico, litología, tipo tecnológico de mena
etc.

Con el objetivo de alcanzar una mayor resolución del
modelo de bloque en los límites de los cuerpos minerales se
utilizan bloques (sub bloques) con dimensiones menores que los
originales. También se pueden utilizar voxels con
tamaños variables en distintas partes del depósito (Ej.
 zonas con diferente grado de estudio o continuidad
espacial). El modelo de bloques puede ser rotado y orientado de
manera que se ajuste a la estructura geológica y respete los
elementos de yacencia del yacimiento estudiado.

Figura 4.6 Parámetros que definen el modelo de bloque:
Posición del bloque llave (Xmorg, Ymorg, Zmorg), dimensiones
del bloque (dx, dy, dz), extensión del modelo (X (nx), Y
(ny), Z (nz). 

Un aspecto de  primordial importancia en el modelo de
bloque lo constituye la selección de  las dimensiones
del bloque. Lo ideal en este caso es que el tamaño del mismo
coincida con la unidad de selección minera que será
empleada durante la explotación del yacimiento, sin embargo
en muchas ocasiones esto no es posible pues no se cuenta con la
densidad suficiente de información. Cabe destacar
también que al disminuir el tamaño del bloque  se
aumenta el error de estimación, es decir, su ley se
determina con un alto grado de incertidumbre. Ahora bien, al
aumentar el tamaño del bloque las leyes son emparejadas
artificialmente. Según la teoría
geoestadística por lo menos un tramo del pozo debe quedar
dentro de cada bloque, y que estos tramos estén uno del otro
a una distancia menor que el alcance del variograma, o sea,
dentro de la distancia que se estima que una muestra tiene
influencia sobre la otra.

Este enfoque teórico en muchos casos  no es
práctico desde el punto de vista técnico (demasiados
subbloques para poder respetar los límites del modelo
geológico y lograr una buena precisión en el
cálculo del volumen, distintas redes de exploración etc.) y
generalmente se prefiere examinar el yacimiento en unidades de
selección más pequeñas. Por esta razón se
asume la siguiente regla ampliamente manejada en la literatura:
el tamaño del bloque puede ser tan grande como el
espaciamiento medio de la red y no debe ser menor  a
¼  o 1/3  del espaciamiento de esta
 
(Houlding, 1994; Duke et. al., 1991).

La determinación de las dimensiones óptimas del
bloque depende principalmente de:

  • Variabilidad de las leyes.
  • Continuidad geológica de la mineralización.
  • Tamaño de las muestras y espaciamientos entre
    ellas.
  • Capacidades de los equipos mineros.
  • Taludes de diseño de la
    explotación.

 4.3.2 Modelo de
capa

Aunque el modelo de bloques es el más empleado en la
práctica este es más apropiado para depósitos de
forma isométrica. Para yacimientos relativamente planos como
pueden ser los yacimientos estratiformes y tabulares, es
preferible estimar las reservas en 2D, para lo cual se proyecta
el cuerpo en un plano, se contornea y delimitan los dominios
geológicos, se superpone una matriz de bloque 2d  y
finalmente se estima en cada bloque las variables de interés
empleando el método de inverso de la distancia o kriging. Un
procedimiento similar a este fue explicado en el método de
isolineas en el capítulo referente a los métodos
clásicos, con la diferencia de que en este caso se emplea un
método más sofisticado para la interpolación
espacial de las variables de interés.

Otra variante para este tipo de yacimiento es continuar
trabajando en 3D y emplear un modelo de capa  o de
lámina, el cual es muy similar al modelo de bloque pero la Z
de los bloques es variable y depende de la  altura ente el
piso y el techo  del cuerpo.

Se emplea en yacimientos donde su extensión horizontal es
mucho mayor  que su dimensión transversal (espesor) y
donde la variación de la ley en esa dimensión es
despreciable o no se puede determinar (Filones, vetas,
yacimientos lateríticos y aluviales).

Partes: 1, 2, 3, 4
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter