USO DE BASES DE DATOS GEOGRAFICAS PARA EL PROCESAMIENTO Y ASEGURAMIENTO DE CALIDAD DE RESULTADOS GEOQUIMICOS EN MUESTREOS DE SUPERFICIE. Autor: Rubén Leguizamón Bejarano. Proyecto Aplicado de Geomática. Especialización en Geomática. Facultad de ingeniería. Universidad Militar Nueva Granada. Junio de 2016. USO DE BASES DE DATOS GEOGRAFICAS PARA EL PROCESAMIENTO Y ASEGURAMIENTO DE CALIDAD DE RESULTADOS GEOQUIMICOS EN MUESTREOS DE SUPERFICIE. Rubén Leguizamón Bejarano, Geólogo. 04 de junio de 2016 Resumen. Constitución de base de datos geográfica para almacenar y administrar datos geoquímicos, relacionados a exploración minera, contemplando diversos parámetros relevantes para el aseguramiento de la calidad de los datos, permitiendo una administración eficiente y despliegue funcional de la información usando vistas con información específica para usuarios con diferentes necesidades o intereses. Con capacidad de gestionar datos QAQC. Palabras clave: Dase de datos geográfica, geoquímica, minería, calidad, QAQC. Abstract. Creation of geographic database to store and manage geochemical data related to mining exploration, contemplating relevant parameters for quality assurance of data, allowing efficient management and functional display of information using views with specific information for users with different needs or interests. With the ability to manage QAQC data. Keywords: Geographic database, geochemical, mining, quality, QAQC. 1. Introducción Los procesos de exploración minera adquieren y analizan grandes volúmenes de datos geoquímicos en un proceso dividido en diferentes etapas en las que se incluye toma de muestras en campo, análisis geoquímicos de laboratorio, compilación y análisis de resultados. Cada uno de estos pasos requiere procedimientos y estándares que garanticen la calidad de esta información, más aun teniendo en cuenta que el valor dado a un proyecto en el mercado depende no solo de buenos resultados, desde el punto de vista económico, sino que estos también sean confiables y corroborables. Es común encontrar errores en códigos o símbolos usados, omisión de información o inclusive modificaciones drásticas de los datos producto de malas prácticas a la hora de procesar los datos, sumado a la falta de procedimientos, estándares o parámetros dentro de algunos proyectos de la industria minera, que derivan en bases de datos que no aseguran la calidad y están sujetas a potenciales errores humanos por procesamientos manuales. Las consecuencias de no tener una base de datos confiable y estandarizada pueden ir desde re muestreos con alto costo en recursos y tiempo, hasta descartar un proyecto con potencial por completo. “Muchas de las tareas realizadas con SIG requieren repetición del trabajo y esto crea la necesidad de contar con métodos para automatizar, documentar y compartir procesos realizados en varios pasos conocidos como flujos de trabajo” Fernández, (2012), basado en este concepto se planteó la construcción de una base de datos geográfica (BDG) que busca compilar de forma automatizada los datos geológicos obtenidos desde campo en la etapa de muestreo y los resultados geoquímicos relacionados, dados por el laboratorio o laboratorios. De tal manera que se eviten errores producto de la manipulación de los formatos en los cuales es obtenida la información y garantice que los resultados geoquímicos no serán alterados. Conexiones realizadas a software SIG posibilitan la visualización y análisis de los resultados geológicos y geoquímicos. El Producto generado contempla el almacenamiento de resultados QAQC, los cuales son necesarios para establecer la calidad en cada lote de muestras analizado por los laboratorios contratados, facilitando el análisis de estos y la toma de decisiones en caso de encontrar inconsistencias. 2. Datos y Métodos 2.1 Datos usados. La BDG almacena datos derivados de un muestreo en superficie de sedimentos fluviales y rocas del Proyecto El Dorado realizado por la empresa minera IAMGOLD Corp, en el pie de monte llanero colombiano, esto incluye observaciones de campo y análisis de laboratorio. Los datos han sido desclasificados por la compañía y fueron entregados a la Agencia Nacional de Minerales (ANM), por lo cual constituyen información pública. Estos son requeridos para probar y ejemplificar los productos expuestos en este trabajo, mas no son fundamentales para el mismo y pueden ser remplazados por otro paquete de datos de la misma naturaleza. En la tabla 1 se mencionan los datos utilizados y algunas de sus características: Objeto Cantidad Características Formato Original Muestras Sedimento Fluvial 375 Coordenadas x,y,z donde fue colectado el sedimento, está vinculado a atributos capturados en campo propios de la naturaleza de la muestra. Excel Muestras Roca 90 Coordenadas x,y,z donde fue colectada la roca, está vinculado a atributos capturados en campo propios de la naturaleza de la muestra. Cuencas Hidrográficas 375 Entidad geográfica (polígono) que delimita la cuenca hidrográfica donde fue tomada la muestra de sedimento. Shape File Muestras QA-QC Duplicad os 5 Muestra de control de calidad, donde se duplica una muestra para comparar que los resultados entre estas sean semejantes Excel Estándar es 14 Muestra de control de calidad, con un valor geoquímico conocido para determinado elemento, la cual es insertada en el lote de muestras y analizada en conjunto. Certificados 12 Contienen los resultados obtenidos del análisis geoquímico para 53 elementos, realizado por él o los laboratorios contratados. Además de otros datos de interés general. Tabla 1: Resumen de los datos empleados en el proyecto. A fin de evitar al máximo cambios de origen en los sistemas de coordenadas planas usados en campo, se optó por levantar la información en el sistema UTM 18N (Fernández, 2001), el cual comparado con otros existentes para Colombia, tiene mayor cubrimiento en el territorio nacional. Esto permite trabajar con datos de proyectos distantes geográficamente en caso de requerirse. El sistema de coordenadas geográficas WGS-84 fue descartado debido a que su uso aumenta la posibilidad de errores de trascripción por parte del personal al usar formatos físicos del muestreo, debido al uso indebido de cifras decimales. 2.2 Métodos empleados. 2.2.1 Análisis y selección de atributos: La recolección de muestras en campo y su análisis en laboratorio derivan en la generación de diversos tipos de datos, estos fueron evaluados con el fin de establecer atributos relevantes para crear las tablas que conformaran la BDG. Para su estructuración se generó el modelo entidad - relación mostrado en la figura 1. Figura 1: Modelo entidad relación en la que se basa el diseño de tablas para BDG en Postgres. (Entidades azules contienen datos obtenidos en campo, verdes datos provenientes de laboratorio y rojas datos propios de procesos QA-QC. 2.2.2 Estandarización de datos: Para una adecuada gestión de la BDG fue necesario establecer una codificación de ciertos datos, ejemplo: Tipo de muestra, nombre del proyecto, código de los estándares QAQC, tipos de roca y alteración. Para esto se establecieron librerías que alimentan listas desplegables en formatos Excel donde son compilados los datos por el personal técnico, la necesidad de esto se fundamenta en evitar al máximo errores de escritura sobre estos códigos, lo que asegura el correcto funcionamiento de querys y vistas donde se llaman datos de determinadas características. Estandarización de la información base es necesaria para ser ingresada al sistema, esto incluye campos básicos como fechas, formatos de coordenadas, sistemas de referencia, códigos de muestreo. 2.2.3 Generación de formatos fuente: Los datos recolectados en campo son inicialmente compilados en formatos físicos (fichas técnicas o libretas de campo), después fueron consignados en tabas de Excel, la estructura de estas fue modificada para incluir parámetros y códigos antes establecidos. Debido a que los formatos Excel entregados por el laboratorio tienen múltiples encabezados que no son compatibles para ser ingresados en una BDG, también fue necesario implementar nuevos formatos para migrar esta información y poder implementarla dentro del proyecto. 2.2.4 Creación de BDG en Postgres: Formatos fuente que contienen la data estandarizada fueron usados para crear en el software postgres la BDG denominada “geochemsample”, donde las tablas samples y ss_basins tienen el componente geográfico por el cual es posible vincular atributos de otras tablas a través de la clave principal simple_id. Este aspecto es fundamental para generar diversas vistas que contengan información específica dependiendo de las necesidades del usuario final, estas fueron creadas con sentencias SQL que pueden ser modificadas para ampliar o delimitar la visualización de los datos. 2.2.5 Conexiones y visualización es software SIG: Se creó una conexión a ArcGIS con ayuda de la extensión Data Interoperability, con el fin de visualizar las diferentes vistas creadas. A las capas obtenidas se aplicaron las herramientas: analisis de puntos calientes y aplicar simbologia, que facilitan la interpretación de los resultados geoquímicos obtenidos, visualizados en un contexto espacial. 3. Resultados 3.1 Formatos para la alimentación de la BDG: Formatos en Excel fueron establecidos para recolectar la información y poder alimentar la BDG si se llegan a obtener nuevos datos. Estas plantillas están conectadas a librerías que contienen los códigos especificados para el proyecto, los cuales pueden ser modificables en caso de que la BDG sea implementada en otro proyecto que así lo requiera. 3.2 BDG: Como producto principal se obtuvo una BDG creada en el software Postgres, denominada “Geochemsamples”, la cual está diseñada para almacenar y administrar datos de muestreos geoquímicos en superficie, en este caso puntual son los provenientes del proyecto El Dorado. Está constituida por 11 tablas (dos de ellas con componente geográfico), las tablas están vinculadas entre si usando una clave principal recurrente en ellas, denominada sample_id. Para suministrar al usuario final un acercamiento eficiente a los datos, fueron desarrolladas 9 vistas que permiten llamar datos de interés concatenados al componente geográfico, también es posible con estas validar información QAQC mostrando estándares y duplicados e identificando aquellos que no cumplan con requisitos establecidos. En la figura 2 se muestran un resumen de las tablas y vistas generadas. Figura 2: Tablas y vistas que conforman la BDG (geochemsamples), se resaltan aquellas con un componente geográfico. 3.3 visualización en ArcGIS: Al generar una conexión con la base de datos Postgres, es posible consumir las vistas generadas, tanto para obtener visualizaciones espaciales de la información, como para crear gráficas de validación de datos QA-QC. 3.3.1 Visualización y análisis: Las vistas con componente geográfico fueron tratadas usando la herramienta Análisis de puntos calientes optimizado, además de ser simbolizadas con rangos de datos par Au, frecuentemente utilizados para detectar anomalías de interés. Para facilitar este proceso se creó un model builder compilando estas herramientas, en la figura 3 se muestra los resultados del proceso mencionado, aplicado a las cuencas fluviales que están ligadas a datos geoquímicos de Au, Ag y Cu. Este proceso es reproducible para rocas y sedimentos puntuales ligados a cualquier resultado geoquímico. Figura 3: Simbolización obtenida al correr el model builder mostrado en la parte superior de la imagen, analizando valores de Au. 3.3.2 Graficas de validación de datos QA-QC: Las vistas Duplicate y Standarts fueron cargadas en Arcmap como tablas y basado en estas se generaron graficas con el fin de evidenciar datos fuera de los parámetros establecidos, en el caso de los estándares se encontró una muestra fuera de los limites permitidos (0805100500), para los duplicados se hallaron 2 inconsistencias que superan el limite establecido sobre un valor de ratio mayor a 20, (0805101471 y 0808110231). Figura 4: Graficas obtenidas en ArcGIS usando las tablas duplicate (izq) y standarts (der), las lineas rojas representan los límites permitidos para cada temática. Los ID de muestras en recuadro rojo, tienen valores fuera de limite. 4. Discusión El ingreso de información geológica y geoquímica a bases de datos es sujeta frecuentemente a errores por parte del operario debido a la manipulación indebida de los formatos dados por el personal en campo y por el laboratorio, generalmente Excel con un respaldo en pdf. Entre las faltas más comunes se encuentran: • Intercambio de encabezados de columnas. • Cambios en las unidades de medida como: porcentaje, partes por millón (ppm) o partes por billón (ppb) etc. • Modificación de los valores puntuales de un resultado. • Mezcla de varios tipos de ensayo de laboratorio con diferentes alcances para un mismo elemento analizado. • Desconocimiento de códigos de identificación para muestras de control de calidad como duplicados, estándares y blancos. • Omisión de datos básicos como responsable en campo; fechas de muestreo, análisis, entrega de resultados y códigos del lote asignado por el laboratorio. Información que es relevante para establecer búsquedas y consolidar un historial de muestreo. • Manejo de varios tipos de sistemas de referencia en un mismo muestreo. • Mezcla de muestras de diferente naturaleza, como suelos rocas y o sedimentos fluviales. Compañías y particulares que realizan trabajos de exploración, frecuentemente basan la compilación y análisis de los datos exclusivamente en herramientas como Excel o Access que no son ideales para la automatización de procesos o almacenamiento de datos geográficos, lo cual abre la puerta a los errores antes mencionados. En muchos casos la falta de definición de parámetros mínimos para realizar el procesamiento de datos, que tengan en cuenta la naturaleza del muestro y los resultados obtenidos, hacen que la información carezca de una estructura clara que permita un flujo trabajo organizado. Problema que se agudiza cuando el proyecto se desarrolla en diferentes campañas separadas en el tiempo con parámetros y responsables diferentes en cada una de ellas. Las repercusiones de esta problemática son traducidas en sobrecostos, pérdidas de recursos y tiempo, ya que la suma de errores resta confiabilidad a las bases de datos, que son el soporte principal a la hora de tomar decisiones por parte de compañías interesadas en desarrollar los proyectos. Autores como Simon recomiendan acciones para reducir el efecto de estos errores, tales como planificar adecuadamente la estructura y el flujo de la información, establecer filtros y mecanismos de contra chequeo, minimizar la digitación manual de datos, utilizar la doble entrada para los parámetros más sensibles, mantener una disciplina estricta en el completamiento de la base de datos, etc. (Simon, 2011). La BDG construida contempla la problemática mencionada, estructurando los datos de manera tal que se preserve la integridad de los mismos, pero que a su vez constituya una herramienta para la visualización y análisis de los datos. Entre las ventajas que se obtienen al implementar este procedimiento se tiene que al ser necesario introducir los datos a formatos pre-establecidos, se controla que los parámetros y códigos determinados sean respetados y usados debidamente. Una vez estos sean importados a Postgres los valores no estarán sujetos a modificaciones por parte del usuario final, evitando manipulaciones innecesarias. Las bases de datos generadas en Postgres ofrecen una ventaja sobre otros gestores de datos como geodatabases y es la generación de vistas donde es posible concatenar y calcular datos entre tablas (geográficas y no geográficas) y al mismo tiempo generar querys en la información. De esta manera la entrega de un producto final se flexibiliza, pudiendo adaptar una vista a ciertas necesidades específicas, puesto que no siempre es útil tener todos los datos ligados a una muestra en una sola visualización. Bajo este mismo principio se generaron las secuencias SQL que delimitan los datos que cumplen con requerimientos QAQC y los que no, facilitando la evaluación en la calidad del trabajo realizado por el laboratorio. Las plantillas, códigos y estandarización utilizados pueden sufrir modificaciones varias con el fin de adaptar esta estructura a datos derivados de otros proyectos, que por ser desarrollados en otro contexto geográfico - geológico o por otras empresas con objetivos o enfoques variables, puedan tener atributos o códigos distintos a los expuestos en este trabajo. Sin embargo los principios en los que se basa la BDG funcionan igual para proyectos de la misma naturaleza que El Dorado. 5. Conclusiones • La evaluación de los parámetros, atributos y códigos derivados de los trabajos de muestreo en campo y análisis de laboratorio, permitió reconocer las necesidades que debía suplir una adecuada BDG que conservara la integridad y totalidad de los datos y a su vez permitiera su visualización y consumo por parte de usuarios finales. • Tanto los formatos en Excel como la BDG homogenizan la forma de captura y presentación de los datos usando estándares y parámetros, que minimizan errores de trascripción, modificaciones voluntarias o involuntarias por parte de usuarios finales y manipulaciones indebidas • Una vez implementada la BDG es posible mejorar los tiempos de procesamiento de los datos. • La BDG brinda una herramienta que permite almacenar y analizar los datos QAQC del muestreo, facilitando la toma de decisiones en caso de encontrar inconsistencias. • La visualización de los resultados obtenidos a través de vínculos que conectan la BDG con un ambiente SIG, en este caso ArcGIS, facilita la interpretación de resultados aplicando herramientas estadísticas y simbologías predeterminadas, todo con el fin de establecer anomalías geoquímicas de interés. 6. Agradecimientos Es importante resaltar el apoyo de la empresa IAMGOLD Corp. Sucursal Colombia, la cual no solo proveyó los datos base para este trabajo, si no que financio en gran parte los costos económicos de la especialización Geomatica en la Universidad Militar Nueva Granada, en cuyo marco se desarrolló este trabajo. También es grato para mí resaltar el apoyo de todos mis compañeros de estudio que brindaron constantemente su solidaridad y colaboración en todas las actividades académicas realizadas, facilitando y amenizando el aprendizaje. 7. Bibliografìa.  Davis, J., 1973. Statistics And Data Analysis In Geology .Jhon Wiley & Sons.  Fernández, E., 2012. Ejemplos de Aplicación de Model Builder de ArcGIS 10 en la Gestión Forestal. Universidad de Oviedo. Página 8  Fernández, I., 2001. Localizaciones Geográficas. La Proyección UTM (Universal Transversa Mercator). Departamento de Ingenieria Agricola y Forestal Universidad de Valladolid.  Radilla, F., 2008. Modelado De Datos Para Base De Datos Espaciales. Caso De Estudio: Sistemas De Información Geográfica. Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional Departamento de Computación.  Scott D. Long., 2000. Assay Quality Assurance-Quality Control Program for Drilling Projects at the Pre- Feasibility to Feasibility Report Level .Mineral Resources Development Inc.  Sinclair, A., 1986. Exploration Geochemistry: Design And Interpretation of Soil Surveys .Society Of Economic Geologits.  Simon, A & Gosson, G., 2008. Considerations on Quality Assurance/Quality Control and Sample Security. AusIMM.  Simon, A., 2011. Aseguramiento y Control de la Calidad en la Exploración Geológica. Página 3.  Sinclair, A & Bentzen, A., 2004. Quality Control of Assay Data. EduMine.  Tang, B & Rajeev, S., 2011. An Introduction to Evaluation of Junior Mining Companies for Investment Purposes.