753 resultados para Aritmética intervalar


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un nuevo ímpetu por la recolección de información parece estar ganando terreno, tal vez heredero del "movimiento de los indicadores sociales". Este movimiento fue un legado de quienes apoyaban la cuantificación en las Ciencias Sociales, en la medida que los números se creían objetivos y científicos per se y la información se consideraba un derecho ciudadano. El estudio de la sociedad en sus múltiples dimensiones ha estimulado la búsqueda y construcción de indicadores e índices estadísticos. Sin embargo, el interés por contar con mejores formas de estudiar el progreso social ha conducido, muchas veces, a un uso inadecuado de indicadores y medidas. El PBI, por ejemplo, ha sido frecuentemente tomado como un indicador de bienestar. Pero la carencia de un marco conceptual para el estudio del bienestar no es el único problema, ni siquiera el más importante. Una significación similar -o aun mayor- la tiene la escasa competencia estadística de periodistas, hacedores de políticas públicas y -en general- la ciudadanía. En conjunto, estos elementos coadyuvan a limitar el uso de los datos en el debate público. En este artículo abordo el cambio desde la aritmética política hacia los modernos reportes sociales (par. 1); el éxito de la cuantificación en la administración del Estado (par. 2); los usos inadecuados de la cuantificación (par. 3); la actual no utilización de la cuantificación y la búsqueda de condiciones contextuales que interfieren en la transformación de la información en conocimiento (par. 4)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un nuevo ímpetu por la recolección de información parece estar ganando terreno, tal vez heredero del "movimiento de los indicadores sociales". Este movimiento fue un legado de quienes apoyaban la cuantificación en las Ciencias Sociales, en la medida que los números se creían objetivos y científicos per se y la información se consideraba un derecho ciudadano. El estudio de la sociedad en sus múltiples dimensiones ha estimulado la búsqueda y construcción de indicadores e índices estadísticos. Sin embargo, el interés por contar con mejores formas de estudiar el progreso social ha conducido, muchas veces, a un uso inadecuado de indicadores y medidas. El PBI, por ejemplo, ha sido frecuentemente tomado como un indicador de bienestar. Pero la carencia de un marco conceptual para el estudio del bienestar no es el único problema, ni siquiera el más importante. Una significación similar -o aun mayor- la tiene la escasa competencia estadística de periodistas, hacedores de políticas públicas y -en general- la ciudadanía. En conjunto, estos elementos coadyuvan a limitar el uso de los datos en el debate público. En este artículo abordo el cambio desde la aritmética política hacia los modernos reportes sociales (par. 1); el éxito de la cuantificación en la administración del Estado (par. 2); los usos inadecuados de la cuantificación (par. 3); la actual no utilización de la cuantificación y la búsqueda de condiciones contextuales que interfieren en la transformación de la información en conocimiento (par. 4)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los modelos clásicos de formación docente inicial y continua, es frecuente que se conciban a priori las propuestas para llevar al aula, sin tener en cuenta que el contexto en el que se desarrollan es cambiante, por lo que necesariamente se deben tomar decisiones, en función de los emergentes que surjan de la práctica. Los trabajos desarrollados en esta línea promueven prescripción más que negociación, impidiendo, en muchos casos, que los docentes se apropien de herramientas que les permitan gestionar tales incertidumbres. El trabajo que presentamos pretendió superar la dificultad señalada, mediante una propuesta de formación inicial y continua orientada a los alumnos practicantes y a los Profesores a cargo de los cursos donde se desarrollaron las prácticas. En el marco de dicha propuesta se diseñaron las secuencias de actividades para llevar al aula y se organizaron las clases a desarrollar, atendiendo a las particularidades institucionales y áulicas. Se seleccionó trabajar en el pasaje de la aritmética al Álgebra, problemática central de la Enseñanza de la Matemática en la Escuela Secundaria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo se enmarca en el proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: colegir (erraten), interpretar, construir'. En esta oportunidad nos interesa delimitar la categoría de enunciación, en la dirección de establecer algunas de las particularidades que presenta en el campo de la lingüística y el campo del psicoanálisis. Por su parte, esto nos permitirá pensar si la articulación entre enunciación e interpretación presenta diferencias entre los dos campos mencionados Comenzamos entonces situando la categoría de enunciación en psicoanálisis a partir de la reformulación hecha por J. Lacan a la categoría de signo lingüístico presentado por Saussure, en cuanto a sus componentes y a su modo de operación. Ya que es a partir de estas reformulaciones que es posible pensar la articulación entre la significación y el sentido. Luego haremos un breve rastreo, vale decir, no exhaustivo de la noción de sentido o enunciación en Lingüística, intentando establecer sus particularidades en el terreno de este campo de la ciencia. Inevitablemente haremos una, también breve, mención a algunos de los problemas que en la lingüística surgen al intentar delimitarla dicha noción. A través de diferentes referencias bibliográficas se trabajaran las propuestas que al respecto presentan O. Ducrot, E. Benveniste, C. Kebrat Orechioni, G. Reyes y A. Bertorello. Se recortan así los problemas de 'intención enunciativa' y 'subjetividad' en la Lingüística. Estos serán contrastados y/o comparados con la noción de sujeto que se desprende de la enseñanza de Lacan, al menos en un período de la misma. Esta noción, entendida como sujeto intervalar se anuda a la re conceptualización mencionada en primer lugar del signo lingüístico y su operatoria. Nos referimos a la elaboración realizada por J. Lacan en su Seminario 11 'Los Cuatro Conceptos Fundamentales' respecto a lo que allí denomina las operaciones de 'Alienación' y 'Separación'. Es en torno a estas operaciones que puede pensarse al sujeto como el efecto del intervalo entre dos significantes. La operación de 'Separación' permitirá una dimensión de rescate de la dimensión 'no yo' de la 'Alienación' primera. Allí se juega para el sujeto la posibilidad de incluirse y hacerse representar en el lenguaje, mostrando al mismo tiempo los límites del campo de lo simbólico para otorgar identidad. Es en esta dirección que se piensa también la eficacia de la interpretación en Psicoanálisis. De este modo, llegamos al último tramo de nuestro recorrido donde intentaremos precisar a partir de estos desarrollos cuál es la articulación entre interpretación y enunciación en Psicoanálisis lo que nos llevará al problema de la convicción en un análisis o al problema de la producción de 'Efectos de verdad'. Tomando como herramienta la noción de verdad que allí se pone en juego, la diferenciaremos de otros modos de entender esta categoría. Para esto la referencia bibliográfica a la que hemos recurrido es el Seminario 17 'El revés del Psicoanálisis' de J. Lacan. Será entonces el lugar de la verdad en la articulación entre interpretación y enunciación, lo que nos permitirá delimitar la especificidad de estas categorías en el campo del Psicoanálisis. El presente trabajo se enmarca en el proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: colegir (erraten), interpretar, construir' En esta oportunidad nos interesa delimitar la categoría de enunciación, en la dirección de establecer algunas de las particularidades que presenta en el campo de la lingüística y el campo del psicoanálisis. Por otro lado, la categoría de enunciación convoca a la de interpretación. Es por esto, que nuestra exploración sobre la primera nos ha llevado a preguntarnos por las diferencias en la articulación entre enunciación e interpretación entre los campos lingüístico y psicoanalítico. Estos entrecruzamientos delimitarán problemas para ambos campos que nos permitirán definir especificidades. Por un lado, nos saldrá al cruce desde la lingüística la noción de intención enunciativa y de subjetividad, las que diferentes autores recorren en términos de lo incognosible, o como disfuncionamiento lingüístico o como el 'aparato formal de la enunciación en el enunciado'. Por otro lado, desde el psicoanálisis, la noción de sujeto como sujeto intervalar, nos llevará a pensar la articulación clínica de la enunciación y la interpretación. Será entonces luego de pensar la noción de sujeto que cada campo articula con las categorías de enunciación e interpretación que les compete, que podremos avanzar en algunas delimitaciones especificas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un nuevo ímpetu por la recolección de información parece estar ganando terreno, tal vez heredero del "movimiento de los indicadores sociales". Este movimiento fue un legado de quienes apoyaban la cuantificación en las Ciencias Sociales, en la medida que los números se creían objetivos y científicos per se y la información se consideraba un derecho ciudadano. El estudio de la sociedad en sus múltiples dimensiones ha estimulado la búsqueda y construcción de indicadores e índices estadísticos. Sin embargo, el interés por contar con mejores formas de estudiar el progreso social ha conducido, muchas veces, a un uso inadecuado de indicadores y medidas. El PBI, por ejemplo, ha sido frecuentemente tomado como un indicador de bienestar. Pero la carencia de un marco conceptual para el estudio del bienestar no es el único problema, ni siquiera el más importante. Una significación similar -o aun mayor- la tiene la escasa competencia estadística de periodistas, hacedores de políticas públicas y -en general- la ciudadanía. En conjunto, estos elementos coadyuvan a limitar el uso de los datos en el debate público. En este artículo abordo el cambio desde la aritmética política hacia los modernos reportes sociales (par. 1); el éxito de la cuantificación en la administración del Estado (par. 2); los usos inadecuados de la cuantificación (par. 3); la actual no utilización de la cuantificación y la búsqueda de condiciones contextuales que interfieren en la transformación de la información en conocimiento (par. 4)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los modelos clásicos de formación docente inicial y continua, es frecuente que se conciban a priori las propuestas para llevar al aula, sin tener en cuenta que el contexto en el que se desarrollan es cambiante, por lo que necesariamente se deben tomar decisiones, en función de los emergentes que surjan de la práctica. Los trabajos desarrollados en esta línea promueven prescripción más que negociación, impidiendo, en muchos casos, que los docentes se apropien de herramientas que les permitan gestionar tales incertidumbres. El trabajo que presentamos pretendió superar la dificultad señalada, mediante una propuesta de formación inicial y continua orientada a los alumnos practicantes y a los Profesores a cargo de los cursos donde se desarrollaron las prácticas. En el marco de dicha propuesta se diseñaron las secuencias de actividades para llevar al aula y se organizaron las clases a desarrollar, atendiendo a las particularidades institucionales y áulicas. Se seleccionó trabajar en el pasaje de la aritmética al Álgebra, problemática central de la Enseñanza de la Matemática en la Escuela Secundaria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo se enmarca en el proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: colegir (erraten), interpretar, construir'. En esta oportunidad nos interesa delimitar la categoría de enunciación, en la dirección de establecer algunas de las particularidades que presenta en el campo de la lingüística y el campo del psicoanálisis. Por su parte, esto nos permitirá pensar si la articulación entre enunciación e interpretación presenta diferencias entre los dos campos mencionados Comenzamos entonces situando la categoría de enunciación en psicoanálisis a partir de la reformulación hecha por J. Lacan a la categoría de signo lingüístico presentado por Saussure, en cuanto a sus componentes y a su modo de operación. Ya que es a partir de estas reformulaciones que es posible pensar la articulación entre la significación y el sentido. Luego haremos un breve rastreo, vale decir, no exhaustivo de la noción de sentido o enunciación en Lingüística, intentando establecer sus particularidades en el terreno de este campo de la ciencia. Inevitablemente haremos una, también breve, mención a algunos de los problemas que en la lingüística surgen al intentar delimitarla dicha noción. A través de diferentes referencias bibliográficas se trabajaran las propuestas que al respecto presentan O. Ducrot, E. Benveniste, C. Kebrat Orechioni, G. Reyes y A. Bertorello. Se recortan así los problemas de 'intención enunciativa' y 'subjetividad' en la Lingüística. Estos serán contrastados y/o comparados con la noción de sujeto que se desprende de la enseñanza de Lacan, al menos en un período de la misma. Esta noción, entendida como sujeto intervalar se anuda a la re conceptualización mencionada en primer lugar del signo lingüístico y su operatoria. Nos referimos a la elaboración realizada por J. Lacan en su Seminario 11 'Los Cuatro Conceptos Fundamentales' respecto a lo que allí denomina las operaciones de 'Alienación' y 'Separación'. Es en torno a estas operaciones que puede pensarse al sujeto como el efecto del intervalo entre dos significantes. La operación de 'Separación' permitirá una dimensión de rescate de la dimensión 'no yo' de la 'Alienación' primera. Allí se juega para el sujeto la posibilidad de incluirse y hacerse representar en el lenguaje, mostrando al mismo tiempo los límites del campo de lo simbólico para otorgar identidad. Es en esta dirección que se piensa también la eficacia de la interpretación en Psicoanálisis. De este modo, llegamos al último tramo de nuestro recorrido donde intentaremos precisar a partir de estos desarrollos cuál es la articulación entre interpretación y enunciación en Psicoanálisis lo que nos llevará al problema de la convicción en un análisis o al problema de la producción de 'Efectos de verdad'. Tomando como herramienta la noción de verdad que allí se pone en juego, la diferenciaremos de otros modos de entender esta categoría. Para esto la referencia bibliográfica a la que hemos recurrido es el Seminario 17 'El revés del Psicoanálisis' de J. Lacan. Será entonces el lugar de la verdad en la articulación entre interpretación y enunciación, lo que nos permitirá delimitar la especificidad de estas categorías en el campo del Psicoanálisis. El presente trabajo se enmarca en el proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: colegir (erraten), interpretar, construir' En esta oportunidad nos interesa delimitar la categoría de enunciación, en la dirección de establecer algunas de las particularidades que presenta en el campo de la lingüística y el campo del psicoanálisis. Por otro lado, la categoría de enunciación convoca a la de interpretación. Es por esto, que nuestra exploración sobre la primera nos ha llevado a preguntarnos por las diferencias en la articulación entre enunciación e interpretación entre los campos lingüístico y psicoanalítico. Estos entrecruzamientos delimitarán problemas para ambos campos que nos permitirán definir especificidades. Por un lado, nos saldrá al cruce desde la lingüística la noción de intención enunciativa y de subjetividad, las que diferentes autores recorren en términos de lo incognosible, o como disfuncionamiento lingüístico o como el 'aparato formal de la enunciación en el enunciado'. Por otro lado, desde el psicoanálisis, la noción de sujeto como sujeto intervalar, nos llevará a pensar la articulación clínica de la enunciación y la interpretación. Será entonces luego de pensar la noción de sujeto que cada campo articula con las categorías de enunciación e interpretación que les compete, que podremos avanzar en algunas delimitaciones especificas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present paper the influence of the reference system with regard to the characterization of the surface finishing is analyzed. The effect of the reference system’s choice on the most representative surface finishing parameters (e.g. roughness average Ra and root mean square values Rq) is studied. The study can also be applied to their equivalent parameters in waviness and primary profiles. Based on ISO and ASME standards, three different types of regression lines (central, mean and orthogonal) are theoretically and experimentally analyzed, identifying the validity and applicability fields of each one depending on profile’s geometry. El presente trabajo realiza un estudio de la influencia que supone la elección del sistema de referencia en la determinación los valores de los parámetros más relevantes empleados en la caracterización del acabado superficial tales como la rugosidad media aritmética Ra o la rugosidad media cuadrática Rq y sus equivalentes en los perfiles de ondulación y completo. Partiendo de la definición establecida por las normas ISO y ASME, se analizan tres tipos de líneas de regresión cuadrática (línea central, línea media y línea ortogonal), delimitando los campos de validez y de aplicación de cada una de ellas en función de la geometría del perfil. Para ello se plantean diversos tipos de perfiles y se desarrolla un estudio teórico y experimental de los mismos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Generalmente los elementos estructurales metálicos de las aeronaves se ubican en zonas de carga crítica, en la mayoría de los casos, estos elementos son conformados mediante procesos de mecanizado. La vida a fatiga de estos componentes es una propiedad dinámica muy importante que puede verse intensamente afectada por las condiciones superficiales producidas durante el proceso de mecanizado. En este trabajo se lleva a cabo un primer estudio de la influencia de los parámetros de corte en la resistencia a la fatiga de piezas torneadas de la aleación de aluminio aeronáutico UNS A92024-T351. Se ha prestado especial atención a la relación con el acabado superficial evaluado a partir de la rugosidad media aritmética

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In current communication systems, there are many new challenges like various competitive standards, the scarcity of frequency resource, etc., especially the development of personal wireless communication systems result the new system update faster than ever before, the conventional hardware-based wireless communication system is difficult to adapt to this situation. The emergence of SDR enabled the third revolution of wireless communication which from hardware to software and build a flexible, reliable, upgradable, reusable, reconfigurable and low cost platform. The Universal Software Radio Peripheral (USRP) products are commonly used with the GNU Radio software suite to create complex SDR systems. GNU Radio is a toolkit where digital signal processing blocks are written in C++, and connected to each other with Python. This makes it easy to develop more sophisticated signal processing systems, because many blocks already written by others and you can quickly put them together to create a complete system. Although the main function of GNU Radio is not be a simulator, but if there is no RF hardware components,it supports to researching the signal processing algorithm based on pre-stored and generated data by signal generator. This thesis introduced SDR platform from hardware (USRP) and software(GNU Radio), as well as some basic modulation techniques in wireless communication system. Based on the examples provided by GNU Radio, carried out some related experiments, for example GSM scanning and FM radio station receiving on USRP. And make a certain degree of improvement based on the experience of some investigators to observe OFDM spectrum and simulate real-time video transmission. GNU Radio combine with USRP hardware proved to be a valuable lab platform for implementing complex radio system prototypes in a short time. RESUMEN. Software Defined Radio (SDR) es una tecnología emergente que está creando un impacto revolucionario en la tecnología de radio convencional. Un buen ejemplo de radio software son los sistemas de código abierto llamados GNU Radio que emplean un kit de herramientas de desarrollo de software libre. En este trabajo se ha empleado un kit de desarrollo comercial (Ettus Research) que consiste en un módulo de procesado de señal y un hardaware sencillo. El módulo emplea un software de desarrollo basado en Linux sobre el que se pueden implementar aplicaciones de radio software muy variadas. El hardware de desarrollo consta de un microprocesador de propósito general, un dispositivo programable (FPGA) y un interfaz de radiofrecuencia que cubre de 50 a 2200MHz. Este hardware se conecta al PC por medio de un interfaz USB de 8Mb/s de velocidad. Sobre la plataforma de Ettus se pueden ejecutar aplicaciones GNU radio que utilizan principalmente lenguaje de programación Python para implementarse. Sin embargo, su módulo de procesado de señal está construido en C + + y emplea un microprocesador con aritmética de coma flotante. Por lo tanto, los desarrolladores pueden rápida y fácilmente construir aplicaciones en tiempo real sistemas de comunicación inalámbrica de alta capacidad. Aunque su función principal no es ser un simulador, si no puesto que hay componentes de hardware RF, Radio GNU sirve de apoyo a la investigación del algoritmo de procesado de señales basado en pre-almacenados y generados por los datos del generador de señal. En este trabajo fin de máster se ha evaluado la plataforma de hardware de DEG (USRP) y el software (GNU Radio). Para ello se han empleado algunas técnicas de modulación básicas en el sistema de comunicación inalámbrica. A partir de los ejemplos proporcionados por GNU Radio, hemos realizado algunos experimentos relacionados, por ejemplo, escaneado del espectro, demodulación de señales de FM empleando siempre el hardware de USRP. Una vez evaluadas aplicaciones sencillas se ha pasado a realizar un cierto grado de mejora y optimización de aplicaciones complejas descritas en la literatura. Se han empleado aplicaciones como la que consiste en la generación de un espectro de OFDM y la simulación y transmisión de señales de vídeo en tiempo real. Con estos resultados se está ahora en disposición de abordar la elaboración de aplicaciones complejas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Universidad Politécnica de Madrid (UPM) y la Università degli Studi di Firenze (UniFi), bajo la coordinación técnica de AMPHOS21, participan desde 2009 en el proyecto de investigación “Estrategias de Monitorización de CO2 y otros gases en el estudio de Análogos Naturales”, financiado por la Fundación Ciudad de la Energía (CIUDEN) en el marco del Proyecto Compostilla OXYCFB300 (http://www.compostillaproject.eu), del Programa “European Energy Program for Recovery - EEPR”. El objetivo principal del proyecto fue el desarrollo y puesta a punto de metodologías de monitorización superficiales para su aplicación en el seguimiento y control de los emplazamientos donde se realice el almacenamiento geológico de CO2, analizando técnicas que permitan detectar y cuantificar las posibles fugas de CO2 a la atmósfera. Los trabajos se realizaron tanto en análogos naturales (españoles e italianos) como en la Planta de Desarrollo Tecnológico de Almacenamiento de CO2 de Hontomín. Las técnicas analizadas se centran en la medición de gases y aguas superficiales (de escorrentía y manantiales). En cuanto a la medición de gases se analizó el flujo de CO2 que emana desde el suelo a la atmósfera y la aplicabilidad de trazadores naturales (como el radón) para la detección e identificación de las fugas de CO2. En cuanto al análisis químico de las aguas se analizaron los datos geoquímicos e isotópicos y los gases disueltos en las aguas de los alrededores de la PDT de Hontomín, con objeto de determinar qué parámetros son los más apropiados para la detección de una posible migración del CO2 inyectado, o de la salmuera, a los ambientes superficiales. Las medidas de flujo de CO2 se realizaron con la técnica de la cámara de acúmulo. A pesar de ser una técnica desarrollada y aplicada en diferentes ámbitos científicos se estimó necesario adaptar un protocolo de medida y de análisis de datos a las características específicas de los proyectos de captura y almacenamiento de CO2 (CAC). Donde los flujos de CO2 esperados son bajos y en caso de producirse una fuga habrá que detectar pequeñas variaciones en los valores flujo con un “ruido” en la señal alto, debido a actividad biológica en el suelo. La medida de flujo de CO2 mediante la técnica de la cámara de acúmulo se puede realizar sin limpiar la superficie donde se coloca la cámara o limpiando y esperando al reequilibrio del flujo después de la distorsión al sistema. Sin embargo, los resultados obtenidos después de limpiar y esperar muestran menor dispersión, lo que nos indica que este procedimiento es el mejor para la monitorización de los complejos de almacenamiento geológico de CO2. El protocolo de medida resultante, utilizado para la obtención de la línea base de flujo de CO2 en Hontomín, sigue los siguiente pasos: a) con una espátula se prepara el punto de medición limpiando y retirando el recubrimiento vegetal o la primera capa compacta de suelo, b) se espera un tiempo para la realización de la medida de flujo, facilitando el reequilibrio del flujo del gas tras la alteración provocada en el suelo y c) se realiza la medida de flujo de CO2. Una vez realizada la medición de flujo de CO2, y detectada si existen zonas de anomalías, se debe estimar la cantidad de CO2 que se está escapando a la atmósfera (emanación total), con el objetivo de cuantificar la posible fuga. Existen un amplio rango de metodologías para realizar dicha estimación, siendo necesario entender cuáles son las más apropiadas para obtener el valor más representativo del sistema. En esta tesis se comparan seis técnicas estadísticas: media aritmética, estimador insegado de la media (aplicando la función de Sichel), remuestreo con reemplazamiento (bootstrap), separación en diferentes poblaciones mediante métodos gráficos y métodos basados en criterios de máxima verosimilitud, y la simulación Gaussiana secuencial. Para este análisis se realizaron ocho campañas de muestreo, tanto en la Planta de Desarrollo Tecnológico de Hontomón como en análogos naturales (italianos y españoles). Los resultados muestran que la simulación Gaussiana secuencial suele ser el método más preciso para realizar el cálculo, sin embargo, existen ocasiones donde otros métodos son más apropiados. Como consecuencia, se desarrolla un procedimiento de actuación para seleccionar el método que proporcione el mejor estimador. Este procedimiento consiste, en primer lugar, en realizar un análisis variográfico. Si existe una autocorrelación entre los datos, modelizada mediante el variograma, la mejor técnica para calcular la emanación total y su intervalo de confianza es la simulación Gaussiana secuencial (sGs). Si los datos son independientes se debe comprobar la distribución muestral, aplicando la media aritmética o el estimador insesgado de la media (Sichel) para datos normales o lognormales respectivamente. Cuando los datos no son normales o corresponden a una mezcla de poblaciones la mejor técnica de estimación es la de remuestreo con reemplazamiento (bootstrap). Siguiendo este procedimiento el máximo valor del intervalo de confianza estuvo en el orden del ±20/25%, con la mayoría de valores comprendidos entre ±3,5% y ±8%. La identificación de las diferentes poblaciones muestrales en los datos de flujo de CO2 puede ayudar a interpretar los resultados obtenidos, toda vez que esta distribución se ve afectada por la presencia de varios procesos geoquímicos como, por ejemplo, una fuente geológica o biológica del CO2. Así pues, este análisis puede ser una herramienta útil en el programa de monitorización, donde el principal objetivo es demostrar que no hay fugas desde el reservorio a la atmósfera y, si ocurren, detectarlas y cuantificarlas. Los resultados obtenidos muestran que el mejor proceso para realizar la separación de poblaciones está basado en criterios de máxima verosimilitud. Los procedimientos gráficos, aunque existen pautas para realizarlos, tienen un cierto grado de subjetividad en la interpretación de manera que los resultados son menos reproducibles. Durante el desarrollo de la tesis se analizó, en análogos naturales, la relación existente entre el CO2 y los isótopos del radón (222Rn y 220Rn), detectándose en todas las zonas de emisión de CO2 una relación positiva entre los valores de concentración de 222Rn en aire del suelo y el flujo de CO2. Comparando la concentración de 220Rn con el flujo de CO2 la relación no es tan clara, mientras que en algunos casos aumenta en otros se detecta una disminución, hecho que parece estar relacionado con la profundidad de origen del radón. Estos resultados confirmarían la posible aplicación de los isótopos del radón como trazadores del origen de los gases y su aplicación en la detección de fugas. Con respecto a la determinación de la línea base de flujo CO2 en la PDT de Hontomín, se realizaron mediciones con la cámara de acúmulo en las proximidades de los sondeos petrolíferos, perforados en los ochenta y denominados H-1, H-2, H-3 y H-4, en la zona donde se instalarán el sondeo de inyección (H-I) y el de monitorización (H-A) y en las proximidades de la falla sur. Desde noviembre de 2009 a abril de 2011 se realizaron siete campañas de muestreo, adquiriéndose más de 4.000 registros de flujo de CO2 con los que se determinó la línea base y su variación estacional. Los valores obtenidos fueron bajos (valores medios entre 5 y 13 g•m-2•d-1), detectándose pocos valores anómalos, principalmente en las proximidades del sondeo H-2. Sin embargo, estos valores no se pudieron asociar a una fuente profunda del CO2 y seguramente estuvieran más relacionados con procesos biológicos, como la respiración del suelo. No se detectaron valores anómalos cerca del sistema de fracturación (falla Ubierna), toda vez que en esta zona los valores de flujo son tan bajos como en el resto de puntos de muestreo. En este sentido, los valores de flujo de CO2 aparentemente están controlados por la actividad biológica, corroborado al obtenerse los menores valores durante los meses de otoño-invierno e ir aumentando en los periodos cálidos. Se calcularon dos grupos de valores de referencia, el primer grupo (UCL50) es 5 g•m-2•d-1 en las zonas no aradas en los meses de otoño-invierno y 3,5 y 12 g•m-2•d-1 en primavera-verano para zonas aradas y no aradas, respectivamente. El segundo grupo (UCL99) corresponde a 26 g•m-2•d- 1 durante los meses de otoño-invierno en las zonas no aradas y 34 y 42 g•m-2•d-1 para los meses de primavera-verano en zonas aradas y no aradas, respectivamente. Flujos mayores a estos valores de referencia podrían ser indicativos de una posible fuga durante la inyección y posterior a la misma. Los primeros datos geoquímicos e isotópicos de las aguas superficiales (de escorrentía y de manantiales) en el área de Hontomín–Huermeces fueron analizados. Los datos sugieren que las aguas estudiadas están relacionadas con aguas meteóricas con un circuito hidrogeológico superficial, caracterizadas por valores de TDS relativamente bajos (menor a 800 mg/L) y una fácie hidrogeoquímica de Ca2+(Mg2+)-HCO3 −. Algunas aguas de manantiales se caracterizan por concentraciones elevadas de NO3 − (concentraciones de hasta 123 mg/l), lo que sugiere una contaminación antropogénica. Se obtuvieron concentraciones anómalas de of Cl−, SO4 2−, As, B y Ba en dos manantiales cercanos a los sondeos petrolíferos y en el rio Ubierna, estos componentes son probablemente indicadores de una posible mezcla entre los acuíferos profundos y superficiales. El estudio de los gases disueltos en las aguas también evidencia el circuito superficial de las aguas. Estando, por lo general, dominado por la componente atmosférica (N2, O2 y Ar). Sin embargo, en algunos casos el gas predominante fue el CO2 (con concentraciones que llegan al 63% v/v), aunque los valores isotópicos del carbono (<-17,7 ‰) muestran que lo más probable es que esté relacionado con un origen biológico. Los datos geoquímicos e isotópicos de las aguas superficiales obtenidos en la zona de Hontomín se pueden considerar como el valor de fondo con el que comparar durante la fase operacional, la clausura y posterior a la clausura. En este sentido, la composición de los elementos mayoritarios y traza, la composición isotópica del carbono del CO2 disuelto y del TDIC (Carbono inorgánico disuelto) y algunos elementos traza se pueden considerar como parámetros adecuados para detectar la migración del CO2 a los ambientes superficiales. ABSTRACT Since 2009, a group made up of Universidad Politécnica de Madrid (UPM; Spain) and Università degli Studi Firenze (UniFi; Italy) has been taking part in a joint project called “Strategies for Monitoring CO2 and other Gases in Natural analogues”. The group was coordinated by AMPHOS XXI, a private company established in Barcelona. The Project was financially supported by Fundación Ciudad de la Energía (CIUDEN; Spain) as a part of the EC-funded OXYCFB300 project (European Energy Program for Recovery -EEPR-; www.compostillaproject.eu). The main objectives of the project were aimed to develop and optimize analytical methodologies to be applied at the surface to Monitor and Verify the feasibility of geologically stored carbon dioxide. These techniques were oriented to detect and quantify possible CO2 leakages to the atmosphere. Several investigations were made in natural analogues from Spain and Italy and in the Tecnchnological Development Plant for CO2 injection al Hontomín (Burgos, Spain). The studying techniques were mainly focused on the measurements of diffuse soil gases and surface and shallow waters. The soil-gas measurements included the determination of CO2 flux and the application to natural trace gases (e.g. radon) that may help to detect any CO2 leakage. As far as the water chemistry is concerned, geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of the PDT of Hontomín were analyzed to determine the most suitable parameters to trace the migration of the injected CO2 into the near-surface environments. The accumulation chamber method was used to measure the diffuse emission of CO2 at the soil-atmosphere interface. Although this technique has widely been applied in different scientific areas, it was considered of the utmost importance to adapt the optimum methodology for measuring the CO2 soil flux and estimating the total CO2 output to the specific features of the site where CO2 is to be stored shortly. During the pre-injection phase CO2 fluxes are expected to be relatively low where in the intra- and post-injection phases, if leakages are to be occurring, small variation in CO2 flux might be detected when the CO2 “noise” is overcoming the biological activity of the soil (soil respiration). CO2 flux measurements by the accumulation chamber method could be performed without vegetation clearance or after vegetation clearance. However, the results obtained after clearance show less dispersion and this suggests that this procedure appears to be more suitable for monitoring CO2 Storage sites. The measurement protocol, applied for the determination of the CO2 flux baseline at Hontomín, has included the following steps: a) cleaning and removal of both the vegetal cover and top 2 cm of soil, b) waiting to reduce flux perturbation due to the soil removal and c) measuring the CO2 flux. Once completing the CO2 flux measurements and detected whether there were anomalies zones, the total CO2 output was estimated to quantify the amount of CO2 released to the atmosphere in each of the studied areas. There is a wide range of methodologies for the estimation of the CO2 output, which were applied to understand which one was the most representative. In this study six statistical methods are presented: arithmetic mean, minimum variances unbiased estimator, bootstrap resample, partitioning of data into different populations with a graphical and a maximum likelihood procedures, and sequential Gaussian simulation. Eight campaigns were carried out in the Hontomín CO2 Storage Technology Development Plant and in natural CO2 analogues. The results show that sequential Gaussian simulation is the most accurate method to estimate the total CO2 output and the confidential interval. Nevertheless, a variety of statistic methods were also used. As a consequence, an application procedure for selecting the most realistic method was developed. The first step to estimate the total emanation rate was the variogram analysis. If the relation among the data can be explained with the variogram, the best technique to calculate the total CO2 output and its confidence interval is the sequential Gaussian simulation method (sGs). If the data are independent, their distribution is to be analyzed. For normal and log-normal distribution the proper methods are the arithmetic mean and minimum variances unbiased estimator, respectively. If the data are not normal (log-normal) or are a mixture of different populations the best approach is the bootstrap resampling. According to these steps, the maximum confidence interval was about ±20/25%, with most of values between ±3.5% and ±8%. Partitioning of CO2 flux data into different populations may help to interpret the data as their distribution can be affected by different geochemical processes, e.g. geological or biological sources of CO2. Consequently, it may be an important tool in a monitoring CCS program, where the main goal is to demonstrate that there are not leakages from the reservoir to the atmosphere and, if occurring, to be able to detect and quantify it. Results show that the partitioning of populations is better performed by maximum likelihood criteria, since graphical procedures have a degree of subjectivity in the interpretation and results may not be reproducible. The relationship between CO2 flux and radon isotopes (222Rn and 220Rn) was studied in natural analogues. In all emissions zones, a positive relation between 222Rn and CO2 was observed. However, the relationship between activity of 220Rn and CO2 flux is not clear. In some cases the 220Rn activity indeed increased with the CO2 flux in other measurements a decrease was recognized. We can speculate that this effect was possibly related to the route (deep or shallow) of the radon source. These results may confirm the possible use of the radon isotopes as tracers for the gas origin and their application in the detection of leakages. With respect to the CO2 flux baseline at the TDP of Hontomín, soil flux measurements in the vicinity of oil boreholes, drilled in the eighties and named H-1 to H-4, and injection and monitoring wells were performed using an accumulation chamber. Seven surveys were carried out from November 2009 to summer 2011. More than 4,000 measurements were used to determine the baseline flux of CO2 and its seasonal variations. The measured values were relatively low (from 5 to 13 g•m-2•day-1) and few outliers were identified, mainly located close to the H-2 oil well. Nevertheless, these values cannot be associated to a deep source of CO2, being more likely related to biological processes, i.e. soil respiration. No anomalies were recognized close to the deep fault system (Ubierna Fault) detected by geophysical investigations. There, the CO2 flux is indeed as low as other measurement stations. CO2 fluxes appear to be controlled by the biological activity since the lowest values were recorded during autumn-winter seasons and they tend to increase in warm periods. Two reference CO2 flux values (UCL50 of 5 g•m-2•d-1 for non-ploughed areas in autumn-winter seasons and 3.5 and 12 g•m-2•d-1 for in ploughed and non-ploughed areas, respectively, in spring-summer time, and UCL99 of 26 g•m-2•d-1 for autumn-winter in not-ploughed areas and 34 and 42 g•m-2•d-1 for spring-summer in ploughed and not-ploughed areas, respectively, were calculated. Fluxes higher than these reference values could be indicative of possible leakage during the operational and post-closure stages of the storage project. The first geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of Hontomín–Huermeces (Burgos, Spain) are presented and discussed. The chemical and features of the spring waters suggest that they are related to a shallow hydrogeological system as the concentration of the Total Dissolved Solids approaches 800 mg/L with a Ca2+(Mg2+)-HCO3 − composition, similar to that of the surface waters. Some spring waters are characterized by relatively high concentrations of NO3 − (up to 123 mg/L), unequivocally suggesting an anthropogenic source. Anomalous concentrations of Cl−, SO4 2−, As, B and Ba were measured in two springs, discharging a few hundred meters from the oil wells, and in the Rio Ubierna. These contents are possibly indicative of mixing processes between deep and shallow aquifers. The chemistry of the dissolved gases also evidences the shallow circuits of the Hontomín– Huermeces, mainly characterized by an atmospheric source as highlighted by the contents of N2, O2, Ar and their relative ratios. Nevertheless, significant concentrations (up to 63% by vol.) of isotopically negative CO2 (<−17.7‰ V-PDB) were found in some water samples, likely related to a biogenic source. The geochemical and isotopic data of the surface and spring waters in the surroundings of Hontomín can be considered as background values when intra- and post-injection monitoring programs will be carried out. In this respect, main and minor solutes, the isotopic carbon of dissolved CO2 and TDIC (Total Dissolved Inorganic Carbon) and selected trace elements can be considered as useful parameters to trace the migration of the injected CO2 into near-surface environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los modelos promovidos por las normativas internacionales de análisis de riesgos en los sistemas de información, los activos están interrelacionados entre sí, de modo que un ataque sobre uno de ellos se puede transmitir a lo largo de toda la red, llegando a alcanzar a los activos más valiosos para la organización. Es necesario entonces asignar el valor de todos los activos, así como las relaciones de dependencia directas e indirectas entre estos, o la probabilidad de materialización de una amenaza y la degradación que ésta puede provocar sobre los activos. Sin embargo, los expertos encargados de asignar tales valores, a menudo aportan información vaga e incierta, de modo que las técnicas difusas pueden ser muy útiles en este ámbito. Pero estas técnicas no están libres de ciertas dificultades, como la necesidad de uso de una aritmética adecuada al modelo o el establecimiento de medidas de similitud apropiadas. En este documento proponemos un tratamiento difuso para los modelos de análisis de riesgos promovidos por las metodologías internacionales, mediante el establecimiento de tales elementos.Abstract— Assets are interrelated in risk analysis methodologies for information systems promoted by international standards. This means that an attack on one asset can be propagated through the network and threaten an organization’s most valuable assets. It is necessary to valuate all assets, the direct and indirect asset dependencies, as well as the probability of threats and the resulting asset degradation. However, the experts in charge to assign such values often provide only vague and uncertain information. Fuzzy logic can be very helpful in such situation, but it is not free of some difficulties, such as the need of a proper arithmetic to the model under consideration or the establishment of appropriate similarity measures. Throughout this paper we propose a fuzzy treatment for risk analysis models promoted by international methodologies through the establishment of such elements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Autor consta en preliminares