812 resultados para ANÁLISIS DE DATOS DE TIEMPO DE FALLA


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente investigación tiene como objetivo principal determinar la existencia de una relación de causalidad entre Fecundidad y Pobreza en el Ecuador a partir del análisis de datos provinciales para los años 2006 y 2014. Para evaluar la relación de estas variables, se hizo uso de dos modelos econométricos: el Modelo de Regresión Poisson para evaluar el impacto de la Pobreza sobre la Fecundidad; y el Modelo de Regresión Probit para analizar el impacto que tiene la Fecundidad sobre la pobreza. Los modelos mencionados fueron estimados para un total de 13.580 hogares en el año 2006 y 28.399 hogares en el año 2014, datos que fueron obtenidos a partir de la cuarta y quinta versión de la Encuesta de Condiciones de Vida del Ecuador (ECV) realizadas por el INEC. Se encontró una fuerte relación positiva entre las variables mencionadas en ambos años de estudio, sin embargo,debido a la falta de información y a la estructuración de la base de datos empleada no se pudo determinar de forma precisa la existencia de una relación causal entre ambas variables. A pesar de no haberse determinado la dirección de la causalidad es importante mencionar que la influencia que ejerce la Pobreza sobre los niveles de Fecundidad en el Ecuador es mucho mayor a la que se encontró al analizar el impacto que tiene la Fecundidad sobre la Pobreza, es decir, elevados niveles de pobreza causan un mayor número de hijos en los hogares.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El desarrollo de las habilidades para un conocimiento estadístico necesario es posible desarrollarlo y fortalecerlo por medio de variados recursos didácticos dispuestos para la enseñanza y aprendizaje. Dentro de los recursos disponibles es el texto de matemática el más utilizado por profesores y estudiantes. El texto debe entregar herramientas que permita a los estudiantes desarrollar una alfabetización matemática, realizando una focalización más explícita en los conocimientos, comprensión y habilidades requeridas para funcionar efectivamente en la vida diaria (PISA Chile, 2009).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La categorización jurídica de los mal llamados “falsos positivos” en Colombia es un tema controversial: en algunas ocasiones se habla de ejecuciones extrajudiciales, otras veces de homicidio en persona protegida y en otros casos de desapariciones forzadas, dependiendo de la institución que juzgue los casos. Ahora bien, al no existir unidad de criterios en la categorización jurídica de los “falsos positivos”, se hace imprescindible la integración de conceptos en torno a entender dichos hechos ilícitos inequívocamente como tales, toda vez que esto permitiría generar seguridad jurídica al interior del derecho administrativo colombiano. Precisamente, en lo a referente a la responsabilidad extracontractual del Estado. De igual manera, el concepto de reparación adoptado en los estamentos de Derecho Administrativo Colombiano, no siempre coincide con los estándares delineados por el Sistema interamericano de protección de Derechos Humanos, lo cual repercute de manera negativa en el tratamiento dado a las víctimas de los “falsos positivos” que encuadran en la categoría de desapariciones forzadas, lo que hace necesario el estudio detallado de las decisiones propias de cada sistema y compararlas, para buscar un mejoramiento de los estándares nacionales de reparación. Para dar un aporte teórico importante, esta investigación partirá del análisis sistemático de la Convención Interamericana sobre Desaparición Forzada de Personas, y la jurisprudencia de la Corte Interamericana de Derechos Humanos, y después inspeccionará los elementos fácticos y la reparación de los “falsos positivos”, determinando el grado de aplicación que se ha dado del sistema interamericano en los fallos proferidos por el Consejo de Estado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estudiar la evolución del lenguaje en niños bilingües que hablan euskera y castellano. Hipótesis: se encontrarán pocas marcas gramaticales en las frases. En euskera aparecerán ciertos sufijos de declinación; se espera encontrar el determinante 'A', marca de los casos locativo y posesivo y posiblemente algunos dativos. En castellano se espera no encontrar marcas gramaticales con preposiciones y artículos y sí en los casos locativo y posesivo. No se hallarán marcas formales y sí algunas construcciones lingüísticas por categorías ya que parece que los sistemas gramaticales funcionan de manera autónoma. Un niño en su período entre un año y once meses hasta dos años y tres meses, que se desenvuelve en euskera en el ambiente familiar y en castellano en su ambiente social. Se trata de un estudio descriptivo que está dividido en cuatro apartados: relato del ambiente familiar y social en el que se desenvuelve el niño. Diferencias entre el castellano y el euskera. Teorías que explican este tipo de problemas. Análisis de datos recogidos en las cintas. Las marcas gramaticales en castellano y euskera se clasifican en dos grupos: prefijos y unidades aisladas que preceden al nombre como artículos, pseudoartículos. Sufijos, incluyendo las marcas de casos, y calificativos. Grabaciones en vídeo sobre la producción en castellano y en euskera en situaciones familiares espontáneas. Cada sesión de grabación dura 30 minutos para cada idioma. Análisis de los datos recogidos en la grabación después de haber realizado la transcripción. En este caso, el artículo castellano no aparece inmediatamente. Los artículos indefinidos son más frecuentes que los definidos. Las formas masculinas predominan sobre las femeninas. Los artículos en castellano y los nombres en castellano y euskera son las unidades gramaticales más numerosas. Hay pocos ejemplos de sufijos locativos y posesivos. Aparecen pocas marcas de plural en los nombres. Se usan otras cuantificaciones como números, palabras 'otro', 'más'. A este nivel gramatical no hay fusión de marcas de los dos idiomas: no hay terminaciones 'A' en palabras castellanas usadas en contexto hispano y no hay artículos castellanos delante de nombres vascos usados en contexto vasco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Exponer la realidad de la práctica físico-deportiva (comportamientos, demanda y motivaciones) del alumnado almeriense. Se exponen una serie de objetivos: 1) Indagar sobre el tiempo libre de que disponen los estudiantes almerienses y a que lo dedican preferentemente. 2) Obtener información sobre la práctica real de la actividad físico-deportiva, motivaciones y preferencia de los jóvenes. 3) Valorar la influencia que tiene o ha tenido, la Educación Física recibida como asignatura obligatoria en el colegio e instituto. 4) Estimar la influencia que tiene o ha tenido la actitud de los padres-madres, con respecto a la actividad físico-deportiva realizada fuera del horario docente. 5) Establecer perfiles diferenciadores en función del lugar de residencia, edad, tipos y niveles de estudio, expediente académico, curso, sexo, estado civil, en relación con el tiempo libre disponible, los comportamientos, las motivaciones y las preferencias de la actividad físico-deportiva. Paralelamente se realizan dos estudios, uno longitudinal entre el colectivo que en el curso 1996-1997 estaban en primer ciclo y el alumnado de segundo ciclo y otro análisis comparativo entre los que están en disposición de acceder a la universidad a pasar al mundo laboral y los que finalizan sus estudios universitarios. Serán abordados con una metodología cuantitativa siendo mediante encuestas (cuestionario autoadministrativo con aplicación masiva y presencia de un aplicador) y observación documental. El error muestral asumido es del 3 por cien y un nivel de confianza del 95,5 por cien, utilizándose la técnica de muestreo polietápico estratificado con fijación proporcional. Las técnicas cuantitativas de análisis de datos, serán realizadas informáticamente con el SPSS/PC+ (V 7.52), presentando análisis descriptivos de las diferentes variables planteadas, así como análisis inferenciales con las correspondientes tablas de contingencias, índice de Pearson y nivel de significación. En conclusión, pretende detectar las demandas de actividades físico-deportivas de tiempo libre analizando la literatura existente entorno a los motivos expresados por la juventud para realizar práctica físico-deportiva, haber abandonado o no haber practicado nunca, cómo éstas actividades varían en función del nivel educativo en que se encuentren y el grado en el que el sistema educativo y otros organismos públicos responden adecuadamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Situa y analiza las medidas de atención a la diversidad que se proponen y se desarrollan en los centros de Galicia desde los diferentes ámbitos de la vida escolar, desde dentro (centrada en la práctica educativa) y desde fuera (contribuciones externas); abordando la problemática conceptual, curricular, organizativa y didáctica que envuelve la atención de la diversidad en la etapa de primaria. En el marco teórico se realiza un análisis histórico, conceptual y legislativo de atención a la diversidad y se aborda la situación contextual actual y las respuestas educativas que se pueden y deben trabajar en los centros de educación primaria. En el marco empírico se realiza una investigación empírica a través de un estudio para identificar las actuaciones que se estén realizando en los centros de primaria en la Comunidad Autónoma de Galicia. Finalmente se describe la aproximación metodológica que compone el estado de la investigación, la delimitación del problema (objetivos, variables, hipótesis) y la sistematización (población y muestra, instrumento de evaluación: elaboración de un cuestionario, procedimiento: metodología bimetódica, análisis de datos y diseño de la investigación). Como conclusiones finales: 1) El sistema educativo gallego tiene una clara preocupación por la diversidad con una ligera tendencia de valoración de las diferencias fentre a la exclusión y a la discriminación. 2) El concepto de atención a la diversidad no se tiene claro y se construye sobre los presupuestos teóricos y prácticas preexistentes en el campo de la educación especial. 3) La atención educativa al alumnado diverso es casi siempre llevada a cabo por tutores con la ayuda de los especialistas a tiempo parcial. 4) La diversidad es diferente según el tipo de necesidad y la integración del alumnado diverso en el sistema ordinario es prácticamente total con la provisión de resursos en función del tipo y grado de necesidad específica del alumno. 5) Es evidente el predominio de los diagnósticos, informes psicopedagógicos y refuerzos y adaptaciones curriculares, frente a una menor colaboración en los programas con familias y asesoramiento en la organización de las aulas. 6) Las medidas de atención a ladiversidad en los centros dependen de la etapa y del tipo de alumnado. 7) Las medidas ordinarias son mejor valoradas que las extraordinarias.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cualquier sistema está constituido por una serie de dispositivos interconectados de forma tal que sean capaces de realizar unas funciones concretas. Estos bloques funcionales pueden estar constituidos por una única componente o por complejos subsistemas, dependiendo del tipo de sistema y de las interconexiones en el mismo. El estado de las componentes y la estructura del sistema determinan si un sistema está funcionando o no. En definitiva, el cuantificar la fiabilidad de un sistema requiere, generalmente, considerar la estructura del sistema y la fiabilidad de sus componentes. La herramienta software EMSI está diseñada para realizar evaluación de la fiabilidad y el rendimiento de configuraciones en Sistemas Informáticos (SSII). En este trabajo analizamos la función de distribución empírica de los datos del tiempo hasta el fallo como variables aleatorias realizando los ajustes necesarios a un determinado modelo de probabilidad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El análisis de la velocidad de carrera mediante sensores láser permite la obtención de datos en tiempo real siendo ventajosos frente a otros sistemas. El objetivo de este estudio fue valorar la validez y fiabilidad del sensor láser del sistema BioLaserSport® para el cálculo de velocidades medias y máximas mediante estadísticos relativos y absolutos. Los participantes fueron 17 varones (20.85 ± 1.54 años). Se utilizó un sensor láser tipo 1 (LDM301, Jenoptik, Germany) que registró posiciones de los deportistas a 2000 Hz. Los datos se trataron con la rutina DSL-30 creada con DasyLab v.10.0. Para la validación se utilizó un sistema de fotogrametría-2D con una cámara de alta velocidad (Exilim High Speed EX-F1, Casio) y SkillSpector v.1.3.2. (Video4coach, Grubbemollevej). Además, se utilizaron foto-células de doble haz (Polifemo Light, Microgate, Italy) y un cronómetro Racetime2 (Microgate, Italy). Se registraron, durante dos días, tres series de 30 m de carrera a máxima velocidad. El sensor láser proporcionó, con relación a la fotogrametría, diferencias en las velocidades medias y máximas de -0.11 m•s-1 y 0.14 m•s-1, respectivamente, con unos coeficientes de correlación superiores a 0.86, y mayores de 0.92 con las foto-células para las velocidades medias. Este mostró una excelente fiabilidad test-retest para las velocidades medias con un coeficiente de correlación intraclase (ICC) entre 0.7-0.9 y un error estándar de la media (SEM y SEM%), intrasesión e intersesión, menor de 0.05 m•s-1 y 0.12 m•s-1, respectivamente, y menores de 0.75% y de 2%, respectivamente. Para las velocidades máximas,los valores fueron menores de 0.10 m•s-1 y 0.17 m•s-1, respectivamente, y en ambos casos menores a 1.36% y 1,89%. El láser fue capaz de identificar mínimos cambios detectables (MDC y MDC%) intrasesión, para ambas variables, menores a 0.14 m•s-1 y 0.29 m•s-1, respectivamente (< 2.09% y < 3.76%) e intersesión, menores de 0.34 m•s-1 y 0.47 m•s-1 (< 5.56% y < 5.25%), respectivamente. En consecuencia, es un instrumento útil para el análisis de la evolución de la velocidad intrasujeto y entre sujetos en la carrera de velocidad entre 0-30 m, proporcionando resultados en tiempo real, pero se han de considerar los SEM, SEM%, MDC y MDC% para valorar la mejora del rendimiento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Universidad Politécnica de Madrid (UPM) y la Università degli Studi di Firenze (UniFi), bajo la coordinación técnica de AMPHOS21, participan desde 2009 en el proyecto de investigación “Estrategias de Monitorización de CO2 y otros gases en el estudio de Análogos Naturales”, financiado por la Fundación Ciudad de la Energía (CIUDEN) en el marco del Proyecto Compostilla OXYCFB300 (http://www.compostillaproject.eu), del Programa “European Energy Program for Recovery - EEPR”. El objetivo principal del proyecto fue el desarrollo y puesta a punto de metodologías de monitorización superficiales para su aplicación en el seguimiento y control de los emplazamientos donde se realice el almacenamiento geológico de CO2, analizando técnicas que permitan detectar y cuantificar las posibles fugas de CO2 a la atmósfera. Los trabajos se realizaron tanto en análogos naturales (españoles e italianos) como en la Planta de Desarrollo Tecnológico de Almacenamiento de CO2 de Hontomín. Las técnicas analizadas se centran en la medición de gases y aguas superficiales (de escorrentía y manantiales). En cuanto a la medición de gases se analizó el flujo de CO2 que emana desde el suelo a la atmósfera y la aplicabilidad de trazadores naturales (como el radón) para la detección e identificación de las fugas de CO2. En cuanto al análisis químico de las aguas se analizaron los datos geoquímicos e isotópicos y los gases disueltos en las aguas de los alrededores de la PDT de Hontomín, con objeto de determinar qué parámetros son los más apropiados para la detección de una posible migración del CO2 inyectado, o de la salmuera, a los ambientes superficiales. Las medidas de flujo de CO2 se realizaron con la técnica de la cámara de acúmulo. A pesar de ser una técnica desarrollada y aplicada en diferentes ámbitos científicos se estimó necesario adaptar un protocolo de medida y de análisis de datos a las características específicas de los proyectos de captura y almacenamiento de CO2 (CAC). Donde los flujos de CO2 esperados son bajos y en caso de producirse una fuga habrá que detectar pequeñas variaciones en los valores flujo con un “ruido” en la señal alto, debido a actividad biológica en el suelo. La medida de flujo de CO2 mediante la técnica de la cámara de acúmulo se puede realizar sin limpiar la superficie donde se coloca la cámara o limpiando y esperando al reequilibrio del flujo después de la distorsión al sistema. Sin embargo, los resultados obtenidos después de limpiar y esperar muestran menor dispersión, lo que nos indica que este procedimiento es el mejor para la monitorización de los complejos de almacenamiento geológico de CO2. El protocolo de medida resultante, utilizado para la obtención de la línea base de flujo de CO2 en Hontomín, sigue los siguiente pasos: a) con una espátula se prepara el punto de medición limpiando y retirando el recubrimiento vegetal o la primera capa compacta de suelo, b) se espera un tiempo para la realización de la medida de flujo, facilitando el reequilibrio del flujo del gas tras la alteración provocada en el suelo y c) se realiza la medida de flujo de CO2. Una vez realizada la medición de flujo de CO2, y detectada si existen zonas de anomalías, se debe estimar la cantidad de CO2 que se está escapando a la atmósfera (emanación total), con el objetivo de cuantificar la posible fuga. Existen un amplio rango de metodologías para realizar dicha estimación, siendo necesario entender cuáles son las más apropiadas para obtener el valor más representativo del sistema. En esta tesis se comparan seis técnicas estadísticas: media aritmética, estimador insegado de la media (aplicando la función de Sichel), remuestreo con reemplazamiento (bootstrap), separación en diferentes poblaciones mediante métodos gráficos y métodos basados en criterios de máxima verosimilitud, y la simulación Gaussiana secuencial. Para este análisis se realizaron ocho campañas de muestreo, tanto en la Planta de Desarrollo Tecnológico de Hontomón como en análogos naturales (italianos y españoles). Los resultados muestran que la simulación Gaussiana secuencial suele ser el método más preciso para realizar el cálculo, sin embargo, existen ocasiones donde otros métodos son más apropiados. Como consecuencia, se desarrolla un procedimiento de actuación para seleccionar el método que proporcione el mejor estimador. Este procedimiento consiste, en primer lugar, en realizar un análisis variográfico. Si existe una autocorrelación entre los datos, modelizada mediante el variograma, la mejor técnica para calcular la emanación total y su intervalo de confianza es la simulación Gaussiana secuencial (sGs). Si los datos son independientes se debe comprobar la distribución muestral, aplicando la media aritmética o el estimador insesgado de la media (Sichel) para datos normales o lognormales respectivamente. Cuando los datos no son normales o corresponden a una mezcla de poblaciones la mejor técnica de estimación es la de remuestreo con reemplazamiento (bootstrap). Siguiendo este procedimiento el máximo valor del intervalo de confianza estuvo en el orden del ±20/25%, con la mayoría de valores comprendidos entre ±3,5% y ±8%. La identificación de las diferentes poblaciones muestrales en los datos de flujo de CO2 puede ayudar a interpretar los resultados obtenidos, toda vez que esta distribución se ve afectada por la presencia de varios procesos geoquímicos como, por ejemplo, una fuente geológica o biológica del CO2. Así pues, este análisis puede ser una herramienta útil en el programa de monitorización, donde el principal objetivo es demostrar que no hay fugas desde el reservorio a la atmósfera y, si ocurren, detectarlas y cuantificarlas. Los resultados obtenidos muestran que el mejor proceso para realizar la separación de poblaciones está basado en criterios de máxima verosimilitud. Los procedimientos gráficos, aunque existen pautas para realizarlos, tienen un cierto grado de subjetividad en la interpretación de manera que los resultados son menos reproducibles. Durante el desarrollo de la tesis se analizó, en análogos naturales, la relación existente entre el CO2 y los isótopos del radón (222Rn y 220Rn), detectándose en todas las zonas de emisión de CO2 una relación positiva entre los valores de concentración de 222Rn en aire del suelo y el flujo de CO2. Comparando la concentración de 220Rn con el flujo de CO2 la relación no es tan clara, mientras que en algunos casos aumenta en otros se detecta una disminución, hecho que parece estar relacionado con la profundidad de origen del radón. Estos resultados confirmarían la posible aplicación de los isótopos del radón como trazadores del origen de los gases y su aplicación en la detección de fugas. Con respecto a la determinación de la línea base de flujo CO2 en la PDT de Hontomín, se realizaron mediciones con la cámara de acúmulo en las proximidades de los sondeos petrolíferos, perforados en los ochenta y denominados H-1, H-2, H-3 y H-4, en la zona donde se instalarán el sondeo de inyección (H-I) y el de monitorización (H-A) y en las proximidades de la falla sur. Desde noviembre de 2009 a abril de 2011 se realizaron siete campañas de muestreo, adquiriéndose más de 4.000 registros de flujo de CO2 con los que se determinó la línea base y su variación estacional. Los valores obtenidos fueron bajos (valores medios entre 5 y 13 g•m-2•d-1), detectándose pocos valores anómalos, principalmente en las proximidades del sondeo H-2. Sin embargo, estos valores no se pudieron asociar a una fuente profunda del CO2 y seguramente estuvieran más relacionados con procesos biológicos, como la respiración del suelo. No se detectaron valores anómalos cerca del sistema de fracturación (falla Ubierna), toda vez que en esta zona los valores de flujo son tan bajos como en el resto de puntos de muestreo. En este sentido, los valores de flujo de CO2 aparentemente están controlados por la actividad biológica, corroborado al obtenerse los menores valores durante los meses de otoño-invierno e ir aumentando en los periodos cálidos. Se calcularon dos grupos de valores de referencia, el primer grupo (UCL50) es 5 g•m-2•d-1 en las zonas no aradas en los meses de otoño-invierno y 3,5 y 12 g•m-2•d-1 en primavera-verano para zonas aradas y no aradas, respectivamente. El segundo grupo (UCL99) corresponde a 26 g•m-2•d- 1 durante los meses de otoño-invierno en las zonas no aradas y 34 y 42 g•m-2•d-1 para los meses de primavera-verano en zonas aradas y no aradas, respectivamente. Flujos mayores a estos valores de referencia podrían ser indicativos de una posible fuga durante la inyección y posterior a la misma. Los primeros datos geoquímicos e isotópicos de las aguas superficiales (de escorrentía y de manantiales) en el área de Hontomín–Huermeces fueron analizados. Los datos sugieren que las aguas estudiadas están relacionadas con aguas meteóricas con un circuito hidrogeológico superficial, caracterizadas por valores de TDS relativamente bajos (menor a 800 mg/L) y una fácie hidrogeoquímica de Ca2+(Mg2+)-HCO3 −. Algunas aguas de manantiales se caracterizan por concentraciones elevadas de NO3 − (concentraciones de hasta 123 mg/l), lo que sugiere una contaminación antropogénica. Se obtuvieron concentraciones anómalas de of Cl−, SO4 2−, As, B y Ba en dos manantiales cercanos a los sondeos petrolíferos y en el rio Ubierna, estos componentes son probablemente indicadores de una posible mezcla entre los acuíferos profundos y superficiales. El estudio de los gases disueltos en las aguas también evidencia el circuito superficial de las aguas. Estando, por lo general, dominado por la componente atmosférica (N2, O2 y Ar). Sin embargo, en algunos casos el gas predominante fue el CO2 (con concentraciones que llegan al 63% v/v), aunque los valores isotópicos del carbono (<-17,7 ‰) muestran que lo más probable es que esté relacionado con un origen biológico. Los datos geoquímicos e isotópicos de las aguas superficiales obtenidos en la zona de Hontomín se pueden considerar como el valor de fondo con el que comparar durante la fase operacional, la clausura y posterior a la clausura. En este sentido, la composición de los elementos mayoritarios y traza, la composición isotópica del carbono del CO2 disuelto y del TDIC (Carbono inorgánico disuelto) y algunos elementos traza se pueden considerar como parámetros adecuados para detectar la migración del CO2 a los ambientes superficiales. ABSTRACT Since 2009, a group made up of Universidad Politécnica de Madrid (UPM; Spain) and Università degli Studi Firenze (UniFi; Italy) has been taking part in a joint project called “Strategies for Monitoring CO2 and other Gases in Natural analogues”. The group was coordinated by AMPHOS XXI, a private company established in Barcelona. The Project was financially supported by Fundación Ciudad de la Energía (CIUDEN; Spain) as a part of the EC-funded OXYCFB300 project (European Energy Program for Recovery -EEPR-; www.compostillaproject.eu). The main objectives of the project were aimed to develop and optimize analytical methodologies to be applied at the surface to Monitor and Verify the feasibility of geologically stored carbon dioxide. These techniques were oriented to detect and quantify possible CO2 leakages to the atmosphere. Several investigations were made in natural analogues from Spain and Italy and in the Tecnchnological Development Plant for CO2 injection al Hontomín (Burgos, Spain). The studying techniques were mainly focused on the measurements of diffuse soil gases and surface and shallow waters. The soil-gas measurements included the determination of CO2 flux and the application to natural trace gases (e.g. radon) that may help to detect any CO2 leakage. As far as the water chemistry is concerned, geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of the PDT of Hontomín were analyzed to determine the most suitable parameters to trace the migration of the injected CO2 into the near-surface environments. The accumulation chamber method was used to measure the diffuse emission of CO2 at the soil-atmosphere interface. Although this technique has widely been applied in different scientific areas, it was considered of the utmost importance to adapt the optimum methodology for measuring the CO2 soil flux and estimating the total CO2 output to the specific features of the site where CO2 is to be stored shortly. During the pre-injection phase CO2 fluxes are expected to be relatively low where in the intra- and post-injection phases, if leakages are to be occurring, small variation in CO2 flux might be detected when the CO2 “noise” is overcoming the biological activity of the soil (soil respiration). CO2 flux measurements by the accumulation chamber method could be performed without vegetation clearance or after vegetation clearance. However, the results obtained after clearance show less dispersion and this suggests that this procedure appears to be more suitable for monitoring CO2 Storage sites. The measurement protocol, applied for the determination of the CO2 flux baseline at Hontomín, has included the following steps: a) cleaning and removal of both the vegetal cover and top 2 cm of soil, b) waiting to reduce flux perturbation due to the soil removal and c) measuring the CO2 flux. Once completing the CO2 flux measurements and detected whether there were anomalies zones, the total CO2 output was estimated to quantify the amount of CO2 released to the atmosphere in each of the studied areas. There is a wide range of methodologies for the estimation of the CO2 output, which were applied to understand which one was the most representative. In this study six statistical methods are presented: arithmetic mean, minimum variances unbiased estimator, bootstrap resample, partitioning of data into different populations with a graphical and a maximum likelihood procedures, and sequential Gaussian simulation. Eight campaigns were carried out in the Hontomín CO2 Storage Technology Development Plant and in natural CO2 analogues. The results show that sequential Gaussian simulation is the most accurate method to estimate the total CO2 output and the confidential interval. Nevertheless, a variety of statistic methods were also used. As a consequence, an application procedure for selecting the most realistic method was developed. The first step to estimate the total emanation rate was the variogram analysis. If the relation among the data can be explained with the variogram, the best technique to calculate the total CO2 output and its confidence interval is the sequential Gaussian simulation method (sGs). If the data are independent, their distribution is to be analyzed. For normal and log-normal distribution the proper methods are the arithmetic mean and minimum variances unbiased estimator, respectively. If the data are not normal (log-normal) or are a mixture of different populations the best approach is the bootstrap resampling. According to these steps, the maximum confidence interval was about ±20/25%, with most of values between ±3.5% and ±8%. Partitioning of CO2 flux data into different populations may help to interpret the data as their distribution can be affected by different geochemical processes, e.g. geological or biological sources of CO2. Consequently, it may be an important tool in a monitoring CCS program, where the main goal is to demonstrate that there are not leakages from the reservoir to the atmosphere and, if occurring, to be able to detect and quantify it. Results show that the partitioning of populations is better performed by maximum likelihood criteria, since graphical procedures have a degree of subjectivity in the interpretation and results may not be reproducible. The relationship between CO2 flux and radon isotopes (222Rn and 220Rn) was studied in natural analogues. In all emissions zones, a positive relation between 222Rn and CO2 was observed. However, the relationship between activity of 220Rn and CO2 flux is not clear. In some cases the 220Rn activity indeed increased with the CO2 flux in other measurements a decrease was recognized. We can speculate that this effect was possibly related to the route (deep or shallow) of the radon source. These results may confirm the possible use of the radon isotopes as tracers for the gas origin and their application in the detection of leakages. With respect to the CO2 flux baseline at the TDP of Hontomín, soil flux measurements in the vicinity of oil boreholes, drilled in the eighties and named H-1 to H-4, and injection and monitoring wells were performed using an accumulation chamber. Seven surveys were carried out from November 2009 to summer 2011. More than 4,000 measurements were used to determine the baseline flux of CO2 and its seasonal variations. The measured values were relatively low (from 5 to 13 g•m-2•day-1) and few outliers were identified, mainly located close to the H-2 oil well. Nevertheless, these values cannot be associated to a deep source of CO2, being more likely related to biological processes, i.e. soil respiration. No anomalies were recognized close to the deep fault system (Ubierna Fault) detected by geophysical investigations. There, the CO2 flux is indeed as low as other measurement stations. CO2 fluxes appear to be controlled by the biological activity since the lowest values were recorded during autumn-winter seasons and they tend to increase in warm periods. Two reference CO2 flux values (UCL50 of 5 g•m-2•d-1 for non-ploughed areas in autumn-winter seasons and 3.5 and 12 g•m-2•d-1 for in ploughed and non-ploughed areas, respectively, in spring-summer time, and UCL99 of 26 g•m-2•d-1 for autumn-winter in not-ploughed areas and 34 and 42 g•m-2•d-1 for spring-summer in ploughed and not-ploughed areas, respectively, were calculated. Fluxes higher than these reference values could be indicative of possible leakage during the operational and post-closure stages of the storage project. The first geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of Hontomín–Huermeces (Burgos, Spain) are presented and discussed. The chemical and features of the spring waters suggest that they are related to a shallow hydrogeological system as the concentration of the Total Dissolved Solids approaches 800 mg/L with a Ca2+(Mg2+)-HCO3 − composition, similar to that of the surface waters. Some spring waters are characterized by relatively high concentrations of NO3 − (up to 123 mg/L), unequivocally suggesting an anthropogenic source. Anomalous concentrations of Cl−, SO4 2−, As, B and Ba were measured in two springs, discharging a few hundred meters from the oil wells, and in the Rio Ubierna. These contents are possibly indicative of mixing processes between deep and shallow aquifers. The chemistry of the dissolved gases also evidences the shallow circuits of the Hontomín– Huermeces, mainly characterized by an atmospheric source as highlighted by the contents of N2, O2, Ar and their relative ratios. Nevertheless, significant concentrations (up to 63% by vol.) of isotopically negative CO2 (<−17.7‰ V-PDB) were found in some water samples, likely related to a biogenic source. The geochemical and isotopic data of the surface and spring waters in the surroundings of Hontomín can be considered as background values when intra- and post-injection monitoring programs will be carried out. In this respect, main and minor solutes, the isotopic carbon of dissolved CO2 and TDIC (Total Dissolved Inorganic Carbon) and selected trace elements can be considered as useful parameters to trace the migration of the injected CO2 into near-surface environments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El transporte aéreo constituye un sector estratégico para el crecimiento económico de cualquier país. El sistema de gestión de tráfico aéreo ATM tiene como objetivo el movimiento seguro y eficiente de las aeronaves dentro del espacio aéreo y de los aeropuertos, siendo la seguridad, en la fase táctica, gestionada por el servicio de control de la circulación aérea. Mediante los procesos de control el tráfico aéreo es vigilado a través de sensores, regulado y guiado de forma organizada y segura. Es precisamente sobre la vigilancia donde se enfoca el contenido de la tesis, en el desarrollo de nuevos conceptos que proporcionen información de vigilancia de ‘bajo coste’ basados en las señales existentes proporcionadas por la infraestructura actual de radar secundario y por los sistemas de posicionamiento basados en satélite que utiliza la ADS-B. El conocimiento y acceso en tiempo real a las trayectorias de las aeronaves es un elemento de valor añadido no sólo para la provisión de los servicios de control de tránsito aéreo, sino para todos los actores del transporte aéreo o de la investigación, siendo uno de los elementos clave en el concepto operacional de los dos grandes proyectos tecnológicos, SESAR en Europa y NextGen en EE.UU.. En las últimas décadas el control de la circulación aérea en espacios aéreos de media y alta densidad de tráfico se ha basado en tecnologías complejas que requieren importantes infraestructuras como son el radar primario de vigilancia (PSR) y el radar secundario de vigilancia (SSR). La filosofía de los programas SESAR y NextGen siguiendo las directrices de la OACI es la de alejarse de las tecnologías basadas en tierra para evolucionar hacia nuevas tecnologías más dinámicas basadas en satélite como la ADS-B. Pero hasta que la implementación y operación de la ADS-B sea completa, existirá un período de transición que implica la coexistencia de aeronaves equipadas o no con ADS-B. El objetivo de la presente Tesis es determinar las metodologías y algoritmos más adecuados para poder hibridar las dos tecnologías descritas anteriormente, utilizando para ello un receptor de bajo coste con antena estática omnidireccional, que analice todas las señales presentes en el canal que comparten el SSR y ADS-B. Mediante esta hibridación se podrá obtener la posición de cualquier aeronave que transmita respuestas a interrogaciones SSR, en cualquiera de sus modos de trabajo, o directamente mensajes de posición ADS-B. Para desarrollar los algoritmos propuestos, además del hardware correspondiente, se han utilizado las aplicaciones LabVIEW para funciones de adquisición de datos reales, y el software MATLAB® para el desarrollo de algoritmos y análisis de datos. La validación de resultados se ha realizado mediante los propios mensajes de posición ADS-B y a través de las trazas radar proporcionadas por la entidad pública empresarial ENAIRE. La técnica desarrollada es autónoma, y no ha requerido de ninguna otra entrada que no sea la recepción omnidireccional de las señales. Sin embargo para la validación de resultados se ha utilizado información pública de las ubicaciones de la red de estaciones SSR desplegadas sobre territorio español y portugués y trazas radar. Los resultados obtenidos demuestran, que con técnicas basadas en superficies de situación definidas por los tiempos de llegada de las respuestas, es posible determinar con una precisión aceptable la posición de las estaciones SSR y la posición de cualquier aeronave que responda mediante el Modo A a éstas. ABSTRACT Air transport is a strategic sector for the economic growth of any country. The air traffic management system (ATM) aims at the safe and efficient movement of aircraft while operating within the airspace and airports, where safety, in the tactical phase, is managed by the air traffic control services. Through the air traffic control processes, aircraft are monitored by sensors, regulated and guided in an organized and safe manner. It is precisely on surveillance where this thesis is focused, developing new concepts that provide a 'low cost' surveillance information based on existing signals provided by currently secondary radar infrastructure and satellite-based positioning systems used by ADS-B. Having a deeper knowledge and a real-time access to the trajectories of the aircraft, is an element of added value not only for the provision of air traffic control services, but also for all air transport or research actors. This is one of the key elements in the operational concept proposed by the two large scale existing technological projects, SESAR in Europe and NextGen in the US. In recent decades, air traffic control in medium and high traffic density areas has been based on complex technologies requiring major infrastructures, such as the primary surveillance radar (PSR) and secondary surveillance radar (SSR). The philosophy of SESAR and NextGen programs, both following the guidelines of ICAO, is to move away from land-based technologies and evolving into some new and more dynamic satellite-based technologies such as ADS-B. Nevertheless, until the ADS-B implementation and operation is fully achieved, there will be a transitional period where aircraft with and without ADS-B equipment will have to coexist. The main objective of this thesis is to determine those methodologies and algorithms which are considered more appropriate to hybridize those two technologies, by using a low cost omnidirectional receiver, which analyzes all signals on the SSR and ADS-B shared channel. Through this hybridization, it is possible to obtain the position of any aircraft answering the SSR interrogations, in any of its modes of operation, or through the emission of ADS-B messages. To develop the proposed algorithms, LabVIEW application has been used for real-time data acquisition, as well as MATLAB software for algorithm development and data analysis, together with the corresponding hardware. The validation of results was performed using the ADS-B position messages and radar tracks provided by the Public Corporate Entity ENAIRE The developed technique is autonomous, and it does not require any other input other than the omnidirectional signal reception. However, for the validation of results, not only radar records have been used, but also public information regarding the position of SSR stations spread throughout the Spanish and Portuguese territory. The results show that using techniques based in the definition of positioning surfaces defined by the responses’ times of arrival, it is possible to determine with an acceptable level of accuracy both the position of the SSR stations as well as the position of any aircraft which transmits Mode A responses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad, muchos gobiernos están publicando (o tienen la intención de publicar en breve) miles de conjuntos de datos para que personas y organizaciones los puedan utilizar. Como consecuencia, la cantidad de aplicaciones basadas en Open Data está incrementándose. Sin embargo cada gobierno tiene sus propios procedimientos para publicar sus datos, y esto causa una variedad de formatos dado que no existe un estándar internacional para especificar los formatos de estos datos. El objetivo principal de este trabajo es un análisis comparativo de datos ambientales en bases de datos abiertas (Open Data) pertenecientes a distintos gobiernos. Debido a esta variedad de formatos, debemos construir un proceso de integración de datos que sea capaz de unir todos los tipos de formatos. El trabajo implica un pre-procesado, limpieza e integración de las diferentes fuentes de datos. Existen muchas aplicaciones desarrolladas para dar soporte en el proceso de integración por ejemplo Data Tamer, Data Wrangler como se explica en este documento. El problema con estas aplicaciones es que necesitan la interacción del usuario como parte fundamental del proceso de integración. En este trabajo tratamos de evitar la supervisión humana aprovechando las similitudes de los datasets procedentes de igual área que en nuestro caso se aplica al área de medioambiente. De esta forma los procesos pueden ser automatizados con una programación adecuada. Para conseguirlo, la idea principal de este trabajo es construir procesos ad hoc adaptados a las fuentes de cada gobierno para conseguir una integración automática. Concretamente este trabajo se enfoca en datos ambientales como lo son la temperatura, consumo de energía, calidad de aire, radiación solar, velocidad del viento, etc. Desde hace dos años el gobierno de Madrid está publicando sus datos relativos a indicadores ambientales en tiempo real. Del mismo modo, otros gobiernos han publicado conjuntos de datos Open Data relativos al medio ambiente (como Andalucía o Bilbao), pero todos estos datos tienen diferentes formatos. En este trabajo se presenta una solución capaz de integrar todas ellos que además permite al usuario visualizar y hacer análisis sobre los datos en tiempo real. Una vez que el proceso de integración está realizado, todos los datos de cada gobierno poseen el mismo formato y se pueden lanzar procesos de análisis de una manera más computacional. Este trabajo tiene tres partes fundamentales: 1. Estudio de los entornos Open Data y la literatura al respecto; 2. Desarrollo de un proceso de integración y 3. Desarrollo de una Interface Gráfica y Analítica. Aunque en una primera fase se implementaron los procesos de integración mediante Java y Oracle y la Interface Gráfica con Java (jsp), en una fase posterior se realizó toda la implementación con lenguaje R y la interface gráfica mediante sus librerías, principalmente con Shiny. El resultado es una aplicación que provee de un conjunto de Datos Ambientales Integrados en Tiempo Real respecto a dos gobiernos muy diferentes en España, disponible para cualquier desarrollador que desee construir sus propias aplicaciones.