Coeficiente de variación | Interpretación | |
0-25 % | Distribución simple y simétrica de la ley. La estimación de recursos es fácil y cualquier método brinda buenos resultados. | |
25-100% | Distribución asimétrica. Dificultad moderada para la estimación de recursos. La distribución es típicamente lognormal | |
100 – 200 % | Distribución marcadamente asimétrica con un amplio rango de valores. Dificultad para la estimación local de los recursos. | |
( 200 % | Distribución asimétrica y muy errática o presencia de poblaciones complejas. La estimación local de la ley es difícil o imposible |
Kurtosis: Es una medida de cuan ¨afilado¨ es el pico de la distribución de los datos. Tradicionalmente el valor de este coeficiente se compara con cero, el cual es el valor para el caso de una distribución normal. Un valor mayor que cero indica una distribución más picuda que la normal y un valor menor que cero refleja una distribución más achatada que la normal. Sin un número de muestras grandes, el uso de este coeficiente es de dudoso valor.
Si el número de muestras es mayor que 25 entonces es posible hacer comparaciones de la media y el coeficiente de variación de las variables de interés entre los distintos dominios geológicos presentes en el yacimiento.
Noble, 2000 propone las siguientes reglas generales para evaluar las diferencias entre las leyes medias:
Diferencia de la ley media entre dominios geológicos (%) | Interpretación |
0-25 % | La diferencia es mínima y no es necesario diferenciar las poblaciones en el modelo de recursos |
25-100% | Las poblaciones requieren ser diferenciadas en el modelo de recursos si están separadas por discontinuidades(fallas etc.) o el variograma en ambos dominios es diferente |
Mayor de 100 % | Las poblaciones tienen que ser necesariamente separadas. Diferencias mayores de 100 % pueden indicar presencia de poblaciones estériles o de alta ley |
Métodos de estimación de reservas asistido por computadoras
Los métodos de estimación de recursos asistido por computadoras se han desarrollado ampliamente en los últimos años debido al desarrollo vertiginoso que han tenido los ordenadores y los softwares de aplicación. Los primeros intentos estuvieron dirigidos a informatizar los métodos clásicos o geométricos (método de los polígonos y de los perfiles) posteriormente con el desarrollo de la geoestadística aparecieron métodos más potentes y con una filosofía totalmente diferente de trabajo.
Los métodos asistido por computadoras permiten realizar estimaciones en bloques más pequeños (estimación bloque a bloque, que idealmente deben ser del tamaño de la unidad de selección minera) definidos en función del objetivo de la estimación y la densidad de la red de exploración. En esto radica precisamente la diferencia con los métodos clásicos o geométricos los cuales, como se conoce, definen el tamaño del bloque sobre la base de conceptos de área o volumen de influencia que comúnmente son determinados empíricamente, o también de acuerdo con la disposición de las intersecciones de exploración. Estos bloques así definidos son de grandes dimensiones y se evalúan generalizando la variable estudiada a partir de la media aritmética o la media ponderada según sea el caso.
Los métodos computarizados para la estimación de recursos se basan en procedimientos matemáticos de interpolación local y solamente emplean los datos de los pozos vecinos al bloque para realizar la estimación de la variable estudiada. Un esquema simplificado de la estimación de recursos asistida por computadora se muestra en la figura 4.1. El yacimiento o la zona mineral definido por la geología se discretiza en una matriz de bloques bidimensional o tridimensional según el caso y cada bloque se estima utilizando los datos localizados dentro del área o volumen de búsqueda.
Los métodos de ventanas móviles (inverso de la distancia y kriging) son las técnicas más empleadas en la estimación de recursos asistida por computadora.
El procedimiento general de los métodos computarizados es el siguiente.
Confección de la base de datos con toda la información relevante de la exploración del yacimiento
Análisis exploratorio de datos y variografía
Creación del modelo geológico
Modelo de recurso – División del yacimiento mineral en una matriz de bloques regulares –modelo de bloque o capa.
Estimación en cada bloque de las variables de interés (contenido, masa volumétrica etc.) empleando una técnica de interpolación espacial (funciones de extensión). El valor estimado de la ley en cada celda se calcula por la siguiente fórmula:
Z*(x) = (i=1,n Wi Z (xi) i= 1,2,3,…….n
Donde: Wi es el peso o coeficiente de ponderación asociada a cada muestra y su valor depende del método de estimación espacial empleado, n es la cantidad de muestras seleccionadas para hacer la estimación.
Figura 4.1 Representación bidimensional del caso general de la estimación de recursos asistida por computadoras (Según Sinclair y Blackwell, 2002)
A continuación se describe detalladamente cada una de estas etapas. Mucho de los aspectos aquí discutidos para los métodos asistidos por computadoras son igualmente válidos para los tradicionales o geométricos
4.1 Confección de la base de datos
La estimación de recursos/reservas a partir de un número limitado de pozos es una de las tareas más complejas que enfrenta un geólogo explorador. En la medida que avanza la exploración y se van recopilando datos relevantes del yacimiento estos se van organizando en una base de datos. El geólogo debe garantizar la integridad de la misma y tomar las medidas necesarias para evitar los errores de trascripción o digitalización.
La precisión y exactitud de la estimación de reservas depende de la confiabilidad de los datos sobre los cuales se basa y ningún método de estimación, por muy sofisticado que sea, puede compensar la mala calidad de los datos (Burn, 1981). Queda claro que contar con una buena base de datos es la garantía de una correcta estimación de reservas. Por esta razón, desde el mismo comienzo de los trabajos es necesario implementar procedimientos que garanticen un muestreo representativo y un estricto control sobre la calidad de los resultados del laboratorio.
La base de datos debe integrar todo tipo de datos incluyendo litología, documentación, resultados de los análisis, registros de carotaje, datos hidrogeológicos y geotécnicos.
Los datos de exploración (pozos, galerías, trincheras etc.) generalmente se guarden en 3 o 4 tablas
Tabla 1 recoge la posición espacial del pozo y está conformada por los siguientes campos: Nombre del pozo (DDH;BH), coordenadas X;Y;Z de la boca del pozo (collar), profundidad y otros datos adicionales como tipo de perforación, año de la campaña etc.
Tabla 2 recoge los datos de inclinometría que permiten determinar la posición de las muestras en el espacio. Campos: Nombre del pozo, profundidad de la medición, azimut y ángulo de inclinación o ángulo cenital
Tabla 3 recoge los datos referentes a las muestras tomadas (testigos) su descripción (litología codificada) y los resultados de los análisis químicos. Campos: Nombre del pozo, desde, hasta, # de la muestra, litología, análisis químicos. Esta tabla en ocasiones se desdobla en dos, una para los análisis químicos y otra para la litología, pues la longitud de los intervalos generalmente no coincide.
Una vez que la base de datos ha sido compilada el geólogo debe validarla e identificar y eliminar todos los posibles errores. La mejor manera de comprobar la integridad de la base de datos es mostrando la información en perfiles y comparar con el modelo que se tiene del yacimiento. También se acostumbra a comparar un porcentaje (10%) de los registros con la información original.
La etapa siguiente tiene como objetivo caracterizar estadísticamente cada una de las variables estudiadas y cuantificar su variabilidad espacial. Estos aspectos son tratados en capítulos independientes (capítulos 3 y 5).
4.2 Creación del modelo geológico
La experiencia ha demostrado que el problema principal en la estimación de recursos no esta relacionado directamente con el método de estimación empleado sino con la correcta aplicación de los principios geológicos. La cuestión medular a resolver antes de la estimación de recursos propiamente dicha es establecer la continuidad de la mineralización y la ley dentro del yacimiento. Un muestreo representativo, análisis confiables y una coherente interpretación geológica son los componentes principales de la estimación de recursos (Arseneau y Roscoe, 1997)
La interpretación geológica siempre se basa en los datos y en el conocimiento que posee el geólogo sobre el yacimiento o del modelo de yacimiento que se estudia. Esto conduce inevitablemente a que los mismos datos sean interpretados de forma diferente por distintos especialistas, y por consiguiente resultados diferentes de la estimación de recursos.
La interpretación geológica tradicionalmente ha descansado en la construcción de planos y secciones en los cuales se representa la morfología, dimensiones y propiedades del yacimiento (Popoff,1966). La interpretación de todos los datos recopilados durante la exploración se basa en 3 enfoques principales:
Interpretación basada en perfiles y secciones
Interpretación basada en planos de isolíneas
Principio de analogía o inferencia geológica.
En la actualidad aunque el proceso se ha informatizado el procedimiento continúa siendo el mismo y se basa en los enfoques anteriormente descritos.
En los métodos de estimación asistidos por computadora el conocimiento geológico que posee el geólogo sobre la continuidad de la estructura y la ley se traduce en la definición de zonas o dominios geológicos que poseen una forma geométrica única.
Los dominios geológicos no son más que zonas geológicamente y estadísticamente homogéneas. Lo que realmente se hace cuando se crea el modelo geológico del yacimiento es subdividir el mismo en subpoblaciones que cumplan o se aproximen a la hipótesis de estacionaridad (ver capitulo 5). La división del yacimiento en dominios siempre debe basarse en el conocimiento geológico y el sentido común. Guibal (1997) señala que la selección de los dominios geológicos debe estar respaldada y validada por la estadística y la variografía.
La definición de los límites o contornos de los dominios geológicos, los cuales determinan la geometría de los cuerpos y zonas, es el método básico para aplicar control geológico a la estimación durante la modelación de recursos.
Los límites o contornos de los dominios geológicos se clasifican en difusos o gradacionales y físicos. En los yacimientos que están definidos por limites físicos, (carbón, yacimientos sedimentarios, filones de oro etc.), el trazado de los contornos es relativamente fácil, pues estos coinciden con los planos o contactos geológicos. En el caso de los yacimientos gradacionales (Cobre porfirico) los límites se definen sobre la base de una ley económica o cutoff.
4.2.1 Métodos para la definición de los contornos
Existen distintos métodos para correlacionar los límites de los dominios y conformar las superficies o sólido 3D que define la geometría de la unidad geológica en el espacio tridimensional.
4.2.1.1 Sólidos a partir de los modelos de alambre o wireframe.
El wireframe es la manera más versátil de definir los límites de los dominios geológicos. Cualquier límite o contorno interpretado en perfiles, planos o directamente en 3D puede ser combinado para formar el modelo de alambre y finalmente generar el sólido de la unidad geológica.
Para generar el sólido a través de este método se digitaliza interactivamente en la pantalla de la computadora los límites o contornos de las unidades geológicas que constituyen el depósito (fig. 4.2). La interpretación de cada unidad en los perfiles es representada por un polígono cerrado que posee una orientación y posición espacial, un código que indica el dominio geológico que encierra y una potencia o zona de influencia lo que hace que cada perímetro englobe cierto volumen.
Existen herramientas que garantizan que los contornos de unidades contiguas en un perfil coincidan, de forma tal que no queden huecos o espacios vacíos en el modelo geológico.
Figura 4.2 Interpretación de los límites de los dominios geológicos a partir de los datos mostrados en perfiles.
Una vez que el mismo dominio geológico ha sido interpretado en los distintos perfiles entonces se procede a correlacionar la unidad geológica en perfiles contiguos para lograr una representación 3D del cuerpo geológico (fig. 4.3). Los perímetros (contornos) digitalizados se van uniendo por los puntos de inflexión correspondientes en los perfiles a través de líneas de enlace (tie lines) hasta completar el wireframe que encierra el volumen geológico 3D. Esta correlación sección a sección se requiere cuando los contornos son irregulares (bifurcaciones, fallas, acuñamientos, etc.). Si las unidades geológicas muestran una clara continuidad en 3D entonces no es necesaria la correlación interactiva y se puede prescindir de las líneas de enlace, en su lugar se usa un algoritmo de interpolación lineal de los límites en las secciones
Los modelos sólidos creados pueden ser cortados por planos de cualquier orientación y espaciamiento, esto nos permite corroborar nuestras interpretaciones en otra dirección cualquiera.
Figura 4.3 Creación del modelo sólido 3D a partir del perfiles previamente interpretados.
Como toda la información en los softwares de modelación y estimación de recursos es manejada en el espacio no es necesario realizar la interpretación de los limites a partir de perfiles y planos, esta puede hacerse directamente en el espacio 3D.
4.2.1.2 Sólidos generados partir de superficies (Método de superficies)
Muchas veces es posible confeccionar los sólidos modelando las superficies estructurales que limitan por encima y por abajo los cuerpos geológicos. Este enfoque puede ser empleado en yacimientos estratiformes de poca complejidad estructural
Este método se realiza en 3 pasos fundamentales:
Extracción de los puntos que yacen en las superficies (techo y piso) a partir de la intercepción de la traza del pozo con los planos estructurales)
Modelación de las superficies (triangulación o gridding)
Combinación de las superficies y generación del sólido
Existen 2 variantes de modelación de superficies:
Modelación de superficie por triangulación
La superficie de contacto se modela usando una red optimizada de triángulos irregulares (TIN) que conectan los puntos con coordenadas conocidas. La triangulación se realiza en un plano de referencia que debe ser paralelo a la superficie considerada, el mosaico de triángulos se genera sobre la base de la coordenadas X;Y mientras que la Z define la topología. Para generar el TIN se utiliza el método de Delaunay (Voronoi, Thiessen).
Cualquier superficie puede ser modelada (superficie topografica, planos de fallas etc.), interceptada con el plano del perfil (viewplane) y ser utilizada para controlar la interpretación geológica. La modelación de estas superficies controladoras es el primer paso en la modelación geológica en 3D.
Para la triangulación se debe tener el máximo de información posible sobre la superficie a modelar. Esta información debe estar libre de errores o inconsistencias como pueden ser puntos con las mismas coordenadas, curvas de nivel que se corten (strings) o puntos que no residan en la superficie.
El método de triangulación no suaviza y respeta la información original, aspecto muy importante cuando la Z del punto se conoce con bastante certidumbre (superficie topográfica, planos de falla), puede ser aplicado a superficies de cualquier orientación (horizontal, inclinado o vertical), da la posibilidad de representar las discontinuidades (breaklines) y no genera superficie más allá de los puntos extremos.
Modelación de superficie por interpolación (malla –gridding)
Representa la superficie como un malla o matriz bidimensional (formato RASTER) y requiere la interpolación de la cota en los nodos de la red. El método tiene el inconveniente que la representación es solo en el plano horizontal, lo que limita su uso para modelar superficies inclinadas, además suaviza los datos originales al tener que interpolar. Para generar la malla se utilizan diferentes técnicas de interpolación espacial (inverso de la distancia, kriging, vecino más cercano, etc.).
La combinación de las superficies controladoras permiten el sólido que representa el dominio geológico estudiado.
4.3 Modelo de recursos
Una vez obtenido el modelo geológico entonces resta establecer la variación espacial de las distintas variables de interés (leyes), además de determinar los recursos, ley media y cantidad de metal en cada dominio geológico y en el yacimiento en general.
4.3.1 Método de bloques
El método más usado en la modelación de recursos consiste en la discretización del espacio 3D en bloques o celdas tridimensionales (voxels) (fig.4.5). Cada celda contiene los atributos (litología, tipo de mineralización etc.) y las mediciones (leyes, propiedades físico mecánicas) del dominio geológico en que se encuentra. Los atributos de los bloques se determinan sobre la base de la intersección con el modelo geológico o su posición respecto a una superficie triangulada y las leyes a través de la estimación con técnicas de interpolación espacial.
Figura 4.5 Modelo de bloque
El primer modelo de bloque fue utilizado a comienzos de los años 60 por la Kennecott Koper Corporation en un depósito de pórfido cuprífero. Se empleó para describir la distribución espacial de las leyes y no la geometría de los dominios geológicos.
Cada bloque debe contener toda la información disponible en las fases de desarrollo de un proyecto: litología-mineralogía, contenidos de metales, calidades en el caso del carbón y rocas industriales, contenidos de contaminantes, parámetros geomecánicos, datos hidrogeológicos, etc.
Para definir el modelo de bloque es necesario establecer los siguientes parámetros (Fig.4.6)
Posición del modelo: se especifica a partir de las coordenadas del centroide del bloque llave (key block).
Extensión del modelo en las distintas direcciones X, Y, Z (debe ser lo suficientemente grande para enmarcar la región de interés)
Dimensiones de las celdas o bloques por la X, Y y Z.
Orientación del modelo definido (ángulo de inclinación y el azimut)
Conjunto de variables a almacenar en el modelo con sus correspondientes formatos: ley de los distintos metales, peso volumétrico, litología, tipo tecnológico de mena etc.
Con el objetivo de alcanzar una mayor resolución del modelo de bloque en los límites de los cuerpos minerales se utilizan bloques (sub bloques) con dimensiones menores que los originales. También se pueden utilizar voxels con tamaños variables en distintas partes del depósito (Ej. zonas con diferente grado de estudio o continuidad espacial). El modelo de bloques puede ser rotado y orientado de manera que se ajuste a la estructura geológica y respete los elementos de yacencia del yacimiento estudiado.
Figura 4.6 Parámetros que definen el modelo de bloque: Posición del bloque llave (Xmorg, Ymorg, Zmorg), dimensiones del bloque (dx, dy, dz), extensión del modelo (X (nx), Y (ny), Z (nz).
Un aspecto de primordial importancia en el modelo de bloque lo constituye la selección de las dimensiones del bloque. Lo ideal en este caso es que el tamaño del mismo coincida con la unidad de selección minera que será empleada durante la explotación del yacimiento, sin embargo en muchas ocasiones esto no es posible pues no se cuenta con la densidad suficiente de información. Cabe destacar también que al disminuir el tamaño del bloque se aumenta el error de estimación, es decir, su ley se determina con un alto grado de incertidumbre. Ahora bien, al aumentar el tamaño del bloque las leyes son emparejadas artificialmente. Según la teoría geoestadística por lo menos un tramo del pozo debe quedar dentro de cada bloque, y que estos tramos estén uno del otro a una distancia menor que el alcance del variograma, o sea, dentro de la distancia que se estima que una muestra tiene influencia sobre la otra.
Este enfoque teórico en muchos casos no es práctico desde el punto de vista técnico (demasiados subbloques para poder respetar los límites del modelo geológico y lograr una buena precisión en el cálculo del volumen, distintas redes de exploración etc.) y generalmente se prefiere examinar el yacimiento en unidades de selección más pequeñas. Por esta razón se asume la siguiente regla ampliamente manejada en la literatura: el tamaño del bloque puede ser tan grande como el espaciamiento medio de la red y no debe ser menor a ¼ o 1/3 del espaciamiento de esta (Houlding, 1994; Duke et. al., 1991).
La determinación de las dimensiones óptimas del bloque depende principalmente de:
Variabilidad de las leyes.
Continuidad geológica de la mineralización.
Tamaño de las muestras y espaciamientos entre ellas.
Capacidades de los equipos mineros.
Taludes de diseño de la explotación.
4.3.2 Modelo de capa
Aunque el modelo de bloques es el más empleado en la práctica este es más apropiado para depósitos de forma isométrica. Para yacimientos relativamente planos como pueden ser los yacimientos estratiformes y tabulares, es preferible estimar las reservas en 2D, para lo cual se proyecta el cuerpo en un plano, se contornea y delimitan los dominios geológicos, se superpone una matriz de bloque 2d y finalmente se estima en cada bloque las variables de interés empleando el método de inverso de la distancia o kriging. Un procedimiento similar a este fue explicado en el método de isolineas en el capítulo referente a los métodos clásicos, con la diferencia de que en este caso se emplea un método más sofisticado para la interpolación espacial de las variables de interés.
Otra variante para este tipo de yacimiento es continuar trabajando en 3D y emplear un modelo de capa o de lámina, el cual es muy similar al modelo de bloque pero la Z de los bloques es variable y depende de la altura ente el piso y el techo del cuerpo.
Se emplea en yacimientos donde su extensión horizontal es mucho mayor que su dimensión transversal (espesor) y donde la variación de la ley en esa dimensión es despreciable o no se puede determinar (Filones, vetas, yacimientos lateríticos y aluviales).
Al igual que en el caso anterior hay que definir la posición del modelo, su extensión, dimensiónes de las celdas (X,Y) y las variables a almacenar. La altura de la celda se define por la diferencia de las cotas (Z) de las superficies trianguladas que definen el la unidad geológica.
Una vez definido el modelo de bloque que ocupa toda la región de interés entonces se procede a estimar la variación espacial de las distintas variables definidas en el modelo, para lo cual se usa una amplia gama de técnicas de interpolación que serán discutidas a continuación.
Métodos de estimación espacial
5.1 Método del Inverso de la distancia
Este fue posiblemente el primer método analítico para la interpolación de los valores de la variable de interés en puntos no muestreados. Esta técnica se ha convertido en una de las más populares gracias a la aparición de las computadoras y relativa sencillez. En principio se adopta la hipótesis de que importancia de un dato aislado responde a una función inversa de la distancia. El objetivo del método es asignar un valor a un punto o bloque mediante la combinación lineal de los valores de las muestras próximas.
Z*(x) = ( (i Z(xi)
En la que (i son los pesos o coeficientes de ponderación proporcionales a la distancia euclidiana entre las localizaciones muestreadas y la que se desea estimar, estos pesos son calculados por:
(i = (1/doi)/ (1/doj
Donde: doi es la distancia entre la localización a estimar y la localización de la muestra i.
Generalizando obtenemos:
Z*(x) = [(i=1,n 1/doi Z(xi)] / (i=1,n1/doj
Se pueden obtener distintos estimadores si escribimos la ecuación anterior como:
Z*(x) = [(i=1,n (1/doi)( Z(xi)] / (i=1,n(1/doj)(
Z*(x) = [(i=1,n Z(xi)/ (XDi2 + YDi2)(/2 /] / (i=1,n1/ (XDi2 + YDi2)(/2
Note que si el exponente de la distancia ( = 1 obtenemos la ecuación anterior.
Es intuitivo suponer que la influencia potencial del valor de una muestra sobre un punto o bloque a estimar decrece cuando este se aleja de dicho punto. El atributo estimado cambiará como función inversa de la distancia. En otras palabras, se asigna mayor peso a los valores de las muestras más próximas y menor peso a las más alejadas del punto de estimación.
Para aplicar el método es necesario en primer lugar escoger el valor del exponente del inverso de la distancia. Por la fórmula queda claro que en la medida que este aumenta disminuye la influencia de los valores de las muestras más alejadas, en esa misma medida aumenta la de las más próximas. Con el incremento de la potencia, la interpolación de las leyes entre 2 puntos pasa del principio de los cambios graduales ((=1) al principio de los vecinos más cercanos (( ( ().
Se debe resaltar que difícilmente en la naturaleza la concentración de un elemento químico se subordine a la ley de la línea recta y mucho menos al principio de las zonas de influencia. Un exponente igual a dos produce una interpolación intermedia (solución de compromiso) entre ambos principios. Por esta razón, el método se conoce también como inverso de la distancia al cuadrado. Los exponentes más usados en la práctica son 2, 3 y1.
Para seleccionar el valor que se va a emplear se puede utilizar la validación cruzada. Si el exponente es cero el método del inverso de la distancia se reduce a una media aritmética dentro de la vecindad de búsqueda o sea a todas las muestras se le asigna un mismo peso independientemente de la distancia que la separa del punto a estimar.
5.1.1 Área o vecindad de búsqueda
Para decidir cuales son las muestras que se emplearan para estimar el valor del bloque o punto dentro del yacimiento se define la vecindad o área de búsqueda. La vecindad de búsqueda bidimensional se emplea cuando la estimación de reservas se realiza en un plano de proyección.
El área de búsqueda 2D puede ser circular o elíptica. La vecindad circular se emplea cuando la mineralización en el yacimiento se considera isotrópica o sea cuando la variabilidad de la ley y la potencia es la misma en todas direcciones. El radio del círculo se argumenta sobre la base del conocimiento geológico del yacimiento o los resultados de la variografía (ver métodos geoestadísticos).
Una vez seleccionado el radio de búsqueda se calcula la distancia entre el centro del bloque que se desea estimar y cada una de las muestras vecinas. Todas aquellas muestras que se localizan a una distancia mayor que el radio se excluyen y no participan en la estimación del bloque.
Figura 5.1 Ponderación por el método del inverso de la distancia empleando una vecindad de búsqueda circular
El procedimiento general se puede observar en la figura 5.1. Como los 3 pozos caen dentro del círculo de búsqueda todos son utilizados para estimar el valor de la ley del bloque. El peso asignado a la muestra más próxima aumenta con el incremento de valor de (. En este caso concreto esto provoca una disminución de la ley pues la muestra más cercana es la de menor concentración. La ley del bloque fue estimada ponderando simplemente por el inverso de la distancia, si la potencia es variable entonces la ecuación se modifica de la siguiente manera:
Z*(x) = [(i=1,n 1/doi Z(xi)*mi] / (i=1,nmi/doj
Si la mineralización es anisotrópica entonces se utiliza una vecindad de búsqueda elíptica. La elipse debe orientarse de forma tal que el eje mayor (a) coincide con la dirección de máxima continuidad y el eje menor (b) con la dirección de mayor variabilidad o mínima continuidad.
En estos casos el método del inverso de la distancia puede ser modificado para acomodar la anisotropía del fenómeno y asignar mayor peso a las muestras ubicadas en la dirección de máxima continuidad o en las cercanías de esta. Esta modificación permite acercar los resultados de este método de estimación a los obtenidos por kriging (ver Annels,1991) .
Si la estimación de recursos se realiza en el espacio 3D entonces para la selección de las muestras se emplea una volumen de búsqueda tridimensional que puede ser una esfera (cubo) si el yacimiento es isotrópico o un elipsoide (paralelepípedo) si es anisotrópico. En este caso se necesita definir 3 ejes (mayor, intermedio y menor) y orientar correctamente el volumen de búsqueda en el espacio. El procedimiento de selección de las muestras es similar al caso 2D.
Una vez determinada las dimensiones y la orientación del volumen de búsqueda es posible aplicar otras restricciones a la vecindad pues no todas las muestras que caen dentro de ellas tienen necesariamente que ser empleadas en la interpolación. Generalmente se fija un número máximo y mínimo por volumen de búsqueda. Si dentro del área existen más muestras que el máximo fijado entonces el algoritmo selecciona entre las más cercanas un número que coincide con el máximo definido, si la cantidad de muestras no sobrepase el mínimo requerido entonces el bloque no se estima. Este tipo de restricciones permite simplificar los cálculos al no considerar aquellas muestras, que a priori se conoce tienen poca influencia sobre el bloque que se desea estimar.
Como regla el número máximo de muestras dentro del volumen puede variar entre 4-18 dependiendo de la red y las dimensiones de la vecindad de búsqueda que a su vez es función de la continuidad espacial de la mineralización definida con la ayuda del variograma.
El volumen de búsqueda alrededor del bloque se puede dividir en sectores (1, 4 u 8) y posteriormente se procede a escoger de cada sector un número determinado de las muestras más cercanas al bloque. La búsqueda por cuadrante (4 sectores) u octantes (8 sectores) permite reducir el sesgo provocado por la aglomeración de los pozos o muestras en ciertas áreas del yacimiento.
Figura 5.2 Impacto del empleo de la vecindad de búsqueda por sectores en la selección de las muestras a) búsqueda sin restricción (1 sector) todas las muestras seleccionadas proceden de un solo pozo b) búsqueda por octantes (8 sectores) se selecciona 2 muestras de cada pozo.
La figura 5.2 muestra una situación hipotética donde se tienen 4 pozos de exploración con 8 muestras regularizadas cada uno. Si se establece un volumen de búsqueda (global) y un máximo de 8 muestras para estimar el bloque, entonces se seleccionan las 8 muestras pertenecientes al pozo F1 que es el más cercano al centro del bloque. Esto lógicamente no es lo ideal pues se está descartando la información brindada por el resto de los pozos.
Ahora bien, si la búsqueda se realiza por octantes en lugar de un solo sector y se establece un máximo de una muestra por sector entonces se logra seleccionar las muestras más cercanas de cada uno de los 4 pozos (2 muestras por pozos) lo cual garantiza una mejor representatividad espacial de la selección realizada.
Este ejemplo demuestra que en la estimación de reservas la selección de las muestras dentro del volumen de búsqueda debe realizarse por sectores para lograr un buen muestreo espacial, en caso contrario se corre el riesgo de evaluar un bloque empleando solamente las muestras del pozo más próximo.
5.1.2 Consideraciones finales sobre el método del inverso de la distancia
Esta técnica suaviza los valores de la variable estimada por lo cual el método brinda mejores resultados en aquellos yacimientos en los que la ley varía de forma gradual (yacimientos de cobre porfírico, yacimientos de calizas etc.)
La principal crítica que se le hace a esta técnica de interpolación espacial es que da los mismos resultados independientemente del tamaño del bloque que se desea estimar (Annels,1991). Esto es motivado poque lo que realmente se estima es el centro del bloque (estimador puntual).
Para revertir este problema Yamamoto, 1992 propone dividir los bloques en subloques, estimar puntualmente cada uno de ello por el método del inverso de la distancia y posteriormente combinar los estimados parciales para calcular el valor medio del bloque. Esto es un procedimiento muy similar al empleado por el Kriging de bloque. Según este autor la combinación de los estimados de los subloques a partir del cálculo del promedio de los estimados parciales es equivalente a la estimación de los coeficientes de ponderación medios de las muestras en los subloques, lo cual permite realizar una estimación directa de la ley del bloque por este método.
Se debe destacar que todas las modificaciones introducidas al método para que pueda considerar la anisotropía de la mineralización, la posibilidad de emplear búsqueda por sectores lo cual permite desagrupar las muestras y la variante de estimar directamente la ley del bloque hacen que los resultados obtenidos por este método se aproximen mucho a lo brindados por los métodos geoestadísticos.
En resumen el método es muy potente y se utiliza ampliamente en la práctica de la estimación de recursos en sustitución de los métodos geoestadísticos cuando no es posible obtener modelos matemáticos que describan la variabilidad espacial de la mineralización en el yacimiento.
5.2 Métodos geoestadísticos
5.2.1 Geoestadística, concepto.
La Geoestadística se define como la aplicación de la Teoría de Funciones Aleatorias al reconocimiento y estimación de fenómenos naturales [Journel, A, G. and Huijbregts, C.J., 1978], o simplemente, el estudio de las variables numéricas distribuidas en el espacio [Chauvet, P., 1994 Los fenómenos distribuidos en el espacio, la mineralización en un yacimiento mineral por ejemplo, presenta un carácter mixto, un comportamiento caótico o aleatorio a escala local, pero a la vez estructural a gran escala. Se puede entonces sugerir la idea de interpretar este fenómeno en términos de Función Aleatoria (FA), es decir, a cada punto x del espacio se le asocia una Variable Aleatoria (VA) Z(x), para dos puntos diferentes x e y, se tendrán dos VAs Z(x) y Z(y) diferentes pero no independientes, y es precisamente su grado de correlación el encargado de reflejar la continuidad de la mineralización, o de cualquier otro fenómeno en estudio, de modo que el éxito de esta técnica es la determinación de la función de correlación espacial de los datos [Zhang, R., 1992].
Su estimador, El Kriging, tiene como objetivo encontrar el Mejor Estimador Lineal Insesgado a partir de la información disponible, y en efecto, el valor estimado obtenido Z*(x) de un valor real y desconocido Z(x), consiste en una combinación lineal de pesos asociados a cada localización donde fue muestreado un valor Z(xi) (i = 1,…n) del fenómeno estudiado, observando dos condiciones fundamentales:
1.- que el estimador sea insesgado. E[Z* – Z] = 0,
2.- que la varianza Var[Z* – Z] sea mínima, consiguiéndose de este modo minimizar la varianza del error de estimación.
5.2.4 El Análisis Estructural.
El Análisis Estructural o estudio variográfico según [Armstrong, M., y Carignan, J.,1997] está compuesto por:
El cálculo del semivariograma experimental.
El ajuste a este de un modelo teórico conocido.
El cálculo del semivariograma experimental es la herramienta Geoestadística más importante en la determinación de las características de variabilidad y correlación espacial del fenómeno estudiado [Chica-Olmo, M., 1987], es decir, tener conocimiento de como la variable cambia de una localización a otra [Lamorey, G., and Jacobsom, E.,1995], [Issaks & Co.,1999], representando el útil más importante de que dispone el geoestadístico para el análisis del fenómeno mineralizado o de la variable de distribución espacial en estudio.
5.2.4.1 El semivariograma experimental
El variograma se define como la media aritmética de todos los cuadrados de las diferencias entre pares de valores experimentales separados una distancia h. [Journel, A, G. and Huijbregts, C. J.,1978], o lo que es lo mismo la varianza de los incrementos de la variable regionalizada en las localizaciones separadas una distancia h.
Var{Z(x+h)-Z(x)} = 2((h)
La función ((h) se denomina semivariograma, el cual puede ser obtenido por la expresión.
donde: Np(h) es el número de pares a la distancia h.
h es el incremento.
Z(xi) son los valores experimentales.
xi localizaciones donde son medidos los valores z(xi).
Aunque la función ((h) por definición es un semivariograma (la mitad del promedio de las diferencias al cuadrado) en la literatura científica se ha arraigado el término variograma (por definición es 2((h)), esto ha provocado que ambos términos se empleen indistintamente. Su cálculo no consiste en una simple evaluación de su expresión, según se plantea en [Krajewski, S. A. and Gibbs, B.L., 1993], [Journel, A, G. and Huijbregts, C. J.,1978], [David, M.,1977], [Xie, T., and Myers, D.E.,1995a] y [Pannatier, Y.,1993] esta operación está relacionada con los elementos siguientes:
La dirección en la que será calculado el semivariograma, uno o dos ángulos que definen una dirección en el espacio ( (azimuth) y/o ( (inclinación) con tolerancias angulares d( y/o d(. El semivariograma calculado usando tolerancia angular de 90º se denomina "semivariograma medio" u "omnidireccional".
El incremento o paso en el cálculo del semivariograma h y su tolerancia lineal dh, se recomienda que el valor de dh sea la mitad del incremento inicial.
Una distancia, que representa la distancia máxima a que pueden estar alejados los segundos puntos del par con respecto a la línea que define la dirección de cálculo, conocido como Ancho de Banda.
La distancia Lmáx hasta la cual será calculado el semivariograma, se recomienda que ésta sea la mitad de la distancia entre las muestras más alejadas [Armstrong, M., y Carignan, J.,1997] [Krajewski, S. A. and Gibbs, B.L.,1993], aunque dependiendo de la geometría del fenómeno regionalizado en algunos casos puede ser calculado hasta una distancia superior.
En la mayor parte de los casos ((h) crece hasta cierto límite llamado meseta, en otros casos puede crecer indefinidamente. El comportamiento en el origen puede tener diferentes formas como son según [Armstrong, M., y Carignan, J.,1997], [Journel, A, G. and Huijbregts, C. J.,1978], [Chica-Olmo, M., 1987] (Figura 5.7).
Parabólico: Caracteriza a una variable muy regular, siendo continua y diferenciable.
Lineal: Caracteriza a una variable continua, pero no diferenciable, es decir menos regular.
Discontinuidad en el origen: "Efecto de pepita", es el caso en que ((h) no tiende a cero cuando h tiende a cero. Representa a una variable muy irregular.
Discontinuo puro: Llamado también ruido blanco, representa el caso de mayor discontinuidad o ausencia de estructura espacial, donde los valores de dos puntos cualesquiera no tienen correlación alguna.
El variograma experimental es calculado en diversas direcciones. Inicialmente se estima el semivariograma medio, global u "omnidireccional", como su nombre lo indica no depende de la dirección solamente de la magnitud de h, el cual proporcionando una idea inicial de la variabilidad espacial de los datos, siendo el más idóneo para representar u obtener una estructura clara y definida. Posteriormente deben ser calculados los semivariogramas en diferentes direcciones, puede ser calculado en 4 direcciones separadas 45º con tolerancia angular de 22.5º, comenzando por 0º (fig. 5.8) hasta encontrar la dirección de máxima o mínima variabilidad, pueden ser calculados también, más específicamente, en 8 direcciones separadas por 22.5. También se calcula el variograma vertical (down hole), el cual se estima en la dirección ortogonal a la superficie del yacimiento mineral esto es en la dirección en la que fueron perforados los pozos.
El variograma vertical (down hole) es de singular importancia pues es calculado en la dirección en la cual se posee mayor cantidad de datos. Esto hace que habitualmente se emplee el variograma calculado en la dirección de los pozos para evaluar la forma o comportamiento del variograma en el origen y determinar el efecto pepita (nugget).
5.2.5 Modelado de Semivariogramas.
El modelado de semivariogramas consiste de dos etapas fundamentales [Xie, T., and Myers, D.E.,1995a], una vez construido el semivariograma experimental o empírico es necesario ajustar a este un modelo teórico, con el objetivo de determinar los parámetros descriptivos del semivariograma que posteriormente serán usados en la estimación.
5.2.5.1 Parámetros del semivariograma.
Los parámetros del semivariograma caracterizan tres elementos importantes en la variabilidad de un atributo que son: la discontinuidad en el origen (existencia de Efecto de Pepita), el valor máximo de variabilidad (Meseta), y el área de influencia de la correlación (Alcance), (fig. 5.9).
El Efecto Pepita (Nugget): El semivariograma por definición es nulo en el origen, pero en la práctica las funciones obtenidas pueden presentar discontinuidad en el origen, a esta discontinuidad se le llama Efecto de Pepita, en ingles (Nugget effect). Puede ser obtenido trazando una línea recta entre los primeros puntos del semivariograma empírico y extender ésta hasta que se intercepte con el eje Y. Si esta intersección ocurre por debajo de cero, el valor asumido por este efecto es cero, pues valores negativos de ((0) no tiene significado y no es común. El Efecto Pepita se representa como Co.
La Meseta (Sill): Es el valor de ((h) para el cual con el aumento de h su valor permanece constante, se representa como (CT = C + Co) y se denomina Meseta. Puede obtenerse trazando una línea paralela a la abscisa y que se ajuste a los puntos de mayor valor del semivariograma y su valor se lee en la intersección de esta línea con la ordenada.
El Alcance (Range): La distancia h para la cual las variables Z(x) y Z(x+h) son independientes, se denomina Alcance y se representa por (a), es decir, las distancias para la cual los valores de la variable dejan de estar correlacionados, o lo que es lo mismo, la distancia para la cual el semivariograma alcanza su Meseta.
El alcance siempre tiene valor positivo y puede ser obtenido a partir de la intersección de las líneas descritas en los puntos anteriores, ese punto leído en la abscisa es una fracción del propio Alcance, fracción que se detallara posteriormente en la explicación de los modelos teóricos
Los modelos de variograma teórico utilizado en el proceso de estimación o simulación deben satisfacer ciertas condiciones, es decir tienen que ser "definido positivo" o de "tipo positivo". En general el ajuste de modelos teóricos al variograma empírico se realiza de forma visual.
Atendiendo a las dos características más importantes en el modelado de semivariogramas que son según [Journel, A, G. and Huijbregts, C. J.,1978]: 1.- Su comportamiento en el origen, el cual puede ser linear, parabólico y con Efecto de Pepita y 2.- La presencia o ausencia de Meseta. Estos modelos son:
5.2.5.2 Modelos Teóricos de Semivariogramas.
Los modelos de variograma teórico utilizado en el proceso de estimación o simulación deben satisfacer ciertas condiciones, es decir tienen que ser "definido positivo" o de "tipo positivo". En general el ajuste de modelos teóricos al variograma empírico se realiza de forma visual.
Atendiendo a las dos características más importantes en el modelado de semivariogramas que son según [Journel, A, G. and Huijbregts, C. J.,1978]: 1.- Su comportamiento en el origen, el cual puede ser linear, parabólico y con Efecto de Pepita y 2.- La presencia o ausencia de Meseta. Estos modelos son:
Efecto de Pepita: Corresponde a un fenómeno puramente aleatorio (ruido blanco), sin correlación entre las muestras, cualquiera sea la distancia que las separe, (fig.5.10a), donde C representa el valor de la meseta.
((h) = 0 h = 0
= C | h | > 0
Modelo Esférico: Este modelo es probablemente el más utilizado, es una expresión polinomial simple, en su forma representada en la figura 5.10b, se puede observar un crecimiento casi lineal y después a cierta distancia finita del origen se alcanza una estabilización, la Meseta. La tangente en el origen encuentra a la Meseta en el punto de abscisa (2/3)a, donde a representa el valor del alcance.
((h) = C [ (3/2)(h/a) – ½(h/a)3 ] h ( a
C h > a
Modelo Exponencial: Este modelo a diferencia del esférico crece inicialmente más rápido y después se estabiliza de forma asintótica (fig. 5.10c). Como la Meseta no se alcanza a una distancia finita, se usa con fines prácticos el "alcance efectivo" o "alcance práctico" a´, valor que se obtiene en el punto de abscisa para el cual el modelo obtiene el 95% de la Meseta, con un valor a´=3a, donde a es el parámetro de escala. La tangente en el origen encuentra a la meseta en el punto a=(1/3)a´.
((h) = C [1 – Exp(-|h|/a)] h ( a
C h > a
Modelo Gaussiano: Este es un modelo extremadamente continuo (fig. 5.10d), inicialmente presenta un comportamiento parabólico en el origen, después al igual que en el modelo Exponencial se alcanza la meseta de forma asintótica. El alcance práctico tiene un valor de a´=1.73a, que es el valor de la abscisa donde se alcanza el 95% de la Meseta.
((h)= C [ 1 – Exp(-|h|2/a2)] h ( a
C h > a
Modelo con función potencia: Este es un modelo sin meseta, su forma se representa en la figura 5.10e, para valores de ( correspondientes a 0.5, 1.0 y 1.5.
((h) = |h|( con ( (]0, 2[
Para el valor de (=1 en el modelo anterior se obtiene el modelo Lineal, al cual no tiene ni Meseta ni Alcance. Ahora por efectos prácticos, sin embargo, muchos programas informáticos denotan la pendiente del modelo lineal con la relación C/a, Figura 5.10f.
((h) = (C/a) |h|
Estos modelos pueden ser ajustados individualmente, aunque es posible encontrar en la práctica aplicaciones donde a los semivariogramas experimentales se les debe ajustar más de un modelo teórico, es decir, a través de superposición, nombrándose estructuras imbricadas. [Krajewski, S. A. and Gibbs, B.L.,1993], [Journel, A, G. and Huijbregts, C. J.,1978], [David, M.,1977]
5.2.9 Métodos geoestadísticos de estimación
Todo lo expresado hasta aquí tiene un único objetivo, conocer la información disponible para realizar estimaciones [Journel, A, G. and Huijbregts, C. J.,1978], [David, M.,1977], [Armstrong, M., y Carignan, J.,1997], es decir, estimar valores desconocidos a partir, no sólo de los conocidos, sino también de su estructura de continuidad espacial.
Inicialmente, Matheron denominó a esta técnica Krigeage (en francés) que en ingles se convierte en Kriging y en español se escribe Kriging. Este término que tiene su origen en el apellido de D.G. Krige, reconociendo de esta forma su aporte.
5.2.9.1 Ecuaciones del Krigeage.
Se dispone de los valores muestreados Z(xi), i=1,…,n, y deseamos estimar un valor de la característica observada en el panel Z(v) por una combinación lineal de Z(xi).
Z*(v) = ( (i Z(xi),
donde Z*(v) es el valor estimado y (i son los peso de Kriging, de modo que los (i sean obtenidos de tal forma que proporcione un estimador: Insegado: E[Z*(v) – Z(v)] = 0 y de varianza mínima: Var[Z*(v) – Z(v)].
Teniendo en cuenta las hipótesis de la Geoestadística se pueden obtener las ecuaciones del Kriging para los siguientes casos: Función Aleatoria Estacionaria de Esperanza Nula o Conocida, método conocido como Kriging Simple. Para una Función Aleatoria Estacionaria de Esperanza Desconocida, y una Función Aleatoria Intrínseca, método conocido como Kriging Ordinario.
A continuación se presenta el sistema Kriging para estos casos:
Kriging Simple.
Estimador: Z*(v) = ( (i Z(xi) + m(1- ((i).
Sistema: ( (i C(xi, xj) = C(xj, v) j = 1,…,n
Varianza de Kriging: (2 = C(v,v) – ( (i C(xi, v)
Kriging Ordinario.
En términos de la Covarianza.
Estimador: Z*(v) = ( (i Z(xi)
Sistema: ( (i C(xi, xj) – ( = C(xj, v) i,j = 1,…,n
( (i = 1
Varianza de Kriging: (2 = C(v,v) – ( (i C(xi, v) + (
En términos del Semivariograma.
Estimador: Z*(v) = ( (i Z(xi)
Sistema: ( (i ((xi, xj) + ( = ((xj, v) j = 1,…,n
( (i = 1
Varianza de Kriging: (2 = ( (i ( (xi, v) – ((v,v) + (
Sobre el sistema Kriging es necesario hacer algunas observaciones según [Journel, A, G. and Huijbregts, C. J.,1978]:
1.- El sistema Kriging tiene una solución única si y solo sí la matriz de K es definida estrictamente positiva, es decir:
(i=1,n(j=1,n (i(j C(xi, xj) ( 0
o en términos de variograma:
– (i=1,n(j=1,n (i(j ((xi, xj) ( 0
y no existen datos con las mismas coordenadas.
2.- El Kriging, el cual es un estimador insesgado, es también un interpolador exacto, es decir, para iguales soportes de observación v( ((=1,…,n) y de estimación V, Los valores real Z( y estimado Z* son iguales, además de que la varianza de Kriging (2k es cero.
3.- Las expresiones del sistema Kriging y de la Varianza de Kriging son completamente generales, es decir, son aplicables cualquiera sean los soportes de observación y estimación y el modelo estructural empleado.
4.- El Sistema Kriging y la Varianza de Kriging dependen sólo: del modelo estructural C(h) o ((h) obtenido y de la geometría del soporte de observación. Esta característica da la posibilidad de que la Varianza de Kriging sea usada cuidadosamente para el estudio de redes y la clasificación de reservas.
Es importante tener en mente que aunque la asignación de pesos que hace el kriging, sobre la base del modelo de variograma, es óptima, en el sentido que minimiza la varianza de estimación, puede asignar pesos negativos y positivos lo cual implica que se pueden obtener valores de contenido negativos. Por esto los resultados obtenidos por estos métodos siempre tienen que ser chequeados contra el modelo geológico y los valores de las muestras que conforman la base de datos.
5.3 Modelación del contenido y otras variables de interés
En esta etapa el geólogo debe decidir cual método empleará para modelar en el modelo de bloque la variación espacial de la ley y de otras variables cuantitativas de interés para el proyecto. Esta decisión no tiene una respuesta única y estará condicionada fundamentalmente por las características de la mineralización y el tipo de distribución al que se ajustan las variables estudiadas.
Durante la estimación se emplean técnicas de control que obligan al interpolador a respetar la interpretación geológica. El primer método para aplicar control geológico a la estimación se conoce como método de control por dominios y consiste en estimar los bloques de un determinado sector del yacimiento con las muestras que pertenecen únicamente a dicha unidad geológica, esto se logra asignándole el mismo código a las muestras y bloques que pertenecen al dominio geológico. El otro método de controlar la estimación es a través de estrategias de búsqueda este punto ya fue ampliamente abordado.
Una vez que se han estimado las leyes y el resto de las variables se procede a chequear el modelo de bloque construyendo perfiles y planos, que permitan visualizar los resultados obtenidos, y comparando los valores de las muestras originales con los valores estimados para cada variable. También se recurre a la estadística descriptiva para caracterizar los estimados y hacer las comparaciones pertinentes. De esta forma se pueden detectar errores en la estimación. Una pésima práctica es esta etapa es asumir los resultados de la estimación como ciertos sin someterlos al juicio de la duda y el sentido común.
A partir de la integración de los distintos parámetros estimados en cada una de las celdas del modelo de bloque se calcula el tonelaje, ley media y cantidad de metal en todo el depósito y se generan los reportes de recurso.
Hasta aquí hemos discutido de forma crítica los principales métodos de estimación de recursos desde los geométricos o tradicionales hasta los más modernos que se apoyan en el empleo de ordenadores. Se presentaron los principales criterios empleados para la categorización de reservas y los esfuerzos por lograr un sistema internacional de clasificación de recursos y reservas que sea reconocido por todas las partes involucradas en la actividad. Se discutió la filosofía general de trabajo de los métodos asistidos por computadora.
Por último se abordaron las principales bondades y deficiencias de los métodos geoestadísticos, así como las principales modificaciones realizadas al método de estimación inverso de la distancia, dirigidas a disminuir sus limitaciones y acercarlo lo más posible al interpolador kriging.
Para finalizar este trabajo se enumeran las principales limitaciones de los métodos asistidos por computadoras y los errores más frecuentes que se cometen.
1. El principal problema muchas veces es no chequear los resultados y aceptar tácitamente las soluciones brindados por la computadora. Es muy fácil y rápido crear un modelo computarizado pero es necesario que este responda al modelo geológico del yacimiento y que respete los datos originales.
2. Muchas veces no es fácil combinar en un mismo modelo de recurso zonas con distinto grado de conocimiento geológico
3. Empleo de bloques muy pequeños para la densidad de datos disponible y que falsean la variabilidad real de la ley en el yacimiento.
4. Demasiado suavizamiento de los datos producto al empleo de vecindades de búsqueda inapropiadas
5. Modelos de bloques de recursos construidos sin la participación del geólogo del proyecto que es quien conoce realmente los datos y comprende la geología del yacimiento
6. Datos insuficientes o inapropiados para modelar la naturaleza de la mineralización y su continuidad espacial. Lo que impide la obtención de variogramas confiables.
7. Insuficiente control geológico en la estimación
8. Incorrecta modelación del variograma.
Annels, A. E., 1991. Mineral deposit Evaluation: A Practical Approch. London: Chapman ( Hall, 436p.
Armstrong, M., y Carignan, J., 1997, "Géostatistique Linéaire, Application au Domaine Minier.", École de Mines de Paris, 112 p., "Géostatistique Linéaire, Application au Domaine Minier.", École de Mines de Paris, 112 p.
Arseneau, G. J. y Roscoe, W. E. Practical Applications of Geology to Resource/Reserve Estimation
Barnes, M.P. 1980. Computer-Assisted Mineral Appraisal and Feasibility. New York, Soe. Min. Eng. 167p.
Bum, R G, 1981. Data Reliability in Ore Reserve Assessments, Mining Magazine, Oct, pp289-299. Hellsten, K, Wegmann, D and Giles, D, 1994. Union Reefs.
Chica-Olmo, M., 1987, Análisis Geoestadístico en el Estudio de la Explotación de Recursos Minerales, Tesis Doctoral, Universidad de Granada, España, 387 p.
David, M., 1977, Geostatistical Ore Reserve Estimation, Elsevier, Amsterdam, 364 p.
Deutsch, C.V., y Journel, A.G., 1998, "GSLIB: Geostatistical Software Library and User"s Guide", Second Edition, Oxford University Press, 369p.
Diehl, P. ( David , M., 1982 Classification of Ore Reserve/Resource based on Geostatistical Methods. The Canadian Mining and Metallurgical Bulletin, Vol. 75, No338, p127-136.
Duke, J.H. and Hanna, P.J. 1997a "Geological Interpretation for Resource Estimation". Proceeding of The Resource Database Towards 2000 AusIMM Seminar, May 1997, Wollongong, NSW, Australia.
Duke, J.H. and Hanna, P.J. 1997b "Computer-based Resource Estimation In Accordance With The 1999 JORC Code" Proceeding of The Resource Database Towards 2000 AusIMM Seminar, May 1997, Wollongong, NSW, Australia.
Finney, D. J. 1941 On the distribution of avariate whose logarithm is normally distributed. J. Royal Sat. Soc., Supp. 7(2) : 155-161.
Froidevaux, R. 1982. Geostatistics and Ore Reserve Classification. The Canadian Mining and Metllurgical Bulletin, Vol. 75, No 843, p. 77-83
Guibal, D. 1997 "Variography, A Tool For The Resource Geologist". Proceeding of the The Resource Database Towards 2000 AusIMM Seminar, May 1997, Wollongong, NSW, Australia.
Houlding, S. W., 1994, 3D Geoscience Modelling. Springer-Verlag Berlin Heidelberg, Hong Kong, 309 Pp.
Isaaks, E.H., and Srivastava, R.M., An Introduction To Applied Geostatistics" Oxford University Press (New York).
Journel, A.G., and Huijbregts, C. J., 1978. Mining Geostatistics. Academic Press
(London), 600pp.
JORC, 1996. Australasian Code for Reporting of Identified Mineral Resources and Ore Reserves (1996 Edition with attached Guidelines). Joint Committee of the Australasian Institute of Mining and Metallurgy, Australian Institute of Geoscientists and Minerals Council of Australia
Krajewski, S. A. y Gibbs, B.L., 1993, A Variaogram Primer, Gibbs Associates, 93 p.
Kreiter, V. M., 1968 Prospecting and exploration, Moscow, 1968.
Lepin, O. V., y Ariosa, J. D., 1986, Búsqueda, Exploración y Evaluación Geólogo Económica de Yacimientos Minerales Sólidos, Editorial Pueblo y Educación, Ciudad de La Habana, Primera Parte, 348 p, Segunda Parte, 191 p
Myers, D. E., 1991, Interpolation and Estimation with Spatially Located Data, Chemometrics and Intelligent Laboratory Systems, 11, Elsevier Science Publishers B.V., p.209-228.
Noble, A. C., 1992, Ore reserve/resource estimation. Chapter 5.6 SME Mining Engineering Handbook.
ONU, 1996, Marco Internacional de las Naciones Unidas Para la Clasificación de Reservas/Recursos, Combustibles Sólidos y Sustancias Minerales, Versión Definitiva. Establecida y Presentada por el Equipo Especial de las Naciones Unidad. p. 77-88.
Pannatier, Y., 1993, Ms-Windows Program for exploratory variography and variogram modelling in 2D, International Workshop on Statistics of Spatial Processes-Theory and Applications, Bari, Italy 27-30 September 1993.
Popoff, C.C. Computing reserves of Mineral deposits: principles and conventional methods. Washinton , Bureau of Mines. 113p.
Sinclair, A. y Blakwell, H. B., 2002. Applied mineral Inventory. Cambrige University, 377 p.
Xie, T., y Myers, D.E., 1995a, Fitting Matrix-Valued Variogram Models by Simultaneous Diagonalization (Part I: Theory), Mathematical Geology, Vol. 27, No. 7, p. 867-875
Valente, J.M.G. P, 1982 Geomatematica –Lições de Geoestadística. Ouro Preto, Fundação Gorceix, Vol. 4, p. 714-1062
Vallée, M., 1999 Toward Resource/reserveestimation, Inventory and Reporting Standards. Proceeding , 28th International Symposium on Computer Application in the Mineral Industries (APCOM´99), Colorado School of Miness, Golden , Colorado USA, p.69-76.
Wellmer, F. W. 1983. Clasification of Ore Reserve by Geostatistical Methods, ERZmetall, 36(7/8):315-321.
Yamamoto , J. K. , 1989 Novo método para modelagem de jazidas e avaaliação de reservas. Brasil Mineral, 68:52-56.
Zhang, R., Myers, D. E., y Warrick, A. W., 1992, Estimation of the Spatial Distribution of Soil Chemical Using Pseudo Cross-Variograms, Soil Science Society of America Journal, Vol. 56, No. 5, p.1444-1452.
Autor:
MSc. Elmidio Est?vez Cruz
DEPARTAMENTO DE GEOLOG?A.
UNIVERSIDAD DE PINAR EL R?O.
Página anterior | Volver al principio del trabajo | Página siguiente |