797 resultados para Separación matrimonial


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se consideran ocho variedades de cacahuete con objeto de establecer las que mejor se adaptan a la recolección mecánica, estudiando la fuerza de desprendimiento (f.d.) de los frutos, la resistencia de la cascara a la compresión y la adecuación a la trilla o separación mecánica de las vainas con una trilladora experimental. Se realizaron también ensayos de campo con dos modelos de arrancadoras y cosechadoras estableciéndose los niveles medios de perdidas y de daños.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis presenta un análisis teórico del funcionamiento de toberas magnéticas para la propulsión espacial por plasmas. El estudio está basado en un modelo tridimensional y bi-fluido de la expansión supersónica de un plasma caliente en un campo magnético divergente. El modelo básico es ampliado progresivamente con la inclusión de términos convectivos dominantes de electrones, el campo magnético inducido por el plasma, poblaciones electrónicas múltiples a distintas temperaturas, y la capacidad de integrar el flujo en la región de expansión lejana. La respuesta hiperbólica del plasma es integrada con alta precisión y eficiencia haciendo uso del método de las líneas características. Se realiza una caracterización paramétrica de la expansión 2D del plasma en términos del grado de magnetización de iones, la geometría del campo magnético, y el perfil inicial del plasma. Se investigan los mecanismos de aceleración, mostrando que el campo ambipolar convierte la energía interna de electrones en energía dirigida de iones. Las corrientes diamagnéticas de Hall, que pueden hallarse distribuidas en el volumen del plasma o localizadas en una delgada capa de corriente en el borde del chorro, son esenciales para la operación de la tobera, ya que la fuerza magnética repulsiva sobre ellas es la encargada de confinar radialmente y acelerar axialmente el plasma. El empuje magnético es la reacción a esta fuerza sobre el motor. La respuesta del plasma muestra la separación gradual hacia adentro de los tubos de iones respecto de los magnéticos, lo cual produce la formación de corrientes eléctricas longitudinales y pone el plasma en rotación. La ganancia de empuje obtenida y las pérdidas radiales de la pluma de plasma se evalúan en función de los parámetros de diseño. Se analiza en detalle la separación magnética del plasma aguas abajo respecto a las líneas magnéticas (cerradas sobre sí mismas), necesaria para la aplicación de la tobera magnética a fines propulsivos. Se demuestra que tres teorías existentes sobre separación, que se fundamentan en la resistividad del plasma, la inercia de electrones, y el campo magnético que induce el plasma, son inadecuadas para la tobera magnética propulsiva, ya que producen separación hacia afuera en lugar de hacia adentro, aumentando la divergencia de la pluma. En su lugar, se muestra que la separación del plasma tiene lugar gracias a la inercia de iones y la desmagnetización gradual del plasma que tiene lugar aguas abajo, que permiten la separación ilimitada del flujo de iones respecto a las líneas de campo en condiciones muy generales. Se evalúa la cantidad de plasma que permanece unida al campo magnético y retorna hacia el motor a lo largo de las líneas cerradas de campo, mostrando que es marginal. Se muestra cómo el campo magnético inducido por el plasma incrementa la divergencia de la tobera magnética y por ende de la pluma de plasma en el caso propulsivo, contrariamente a las predicciones existentes. Se muestra también cómo el inducido favorece la desmagnetización del núcleo del chorro, acelerando la separación magnética. La hipótesis de ambipolaridad de corriente local, común a varios modelos de tobera magnética existentes, es discutida críticamente, mostrando que es inadecuada para el estudio de la separación de plasma. Una inconsistencia grave en la derivación matemática de uno de los modelos más aceptados es señalada y comentada. Incluyendo una especie adicional de electrones supratérmicos en el modelo, se estudia la formación y geometría de dobles capas eléctricas en el interior del plasma. Cuando dicha capa se forma, su curvatura aumenta cuanto más periféricamente se inyecten los electrones supratérmicos, cuanto menor sea el campo magnético, y cuanto más divergente sea la tobera magnética. El plasma con dos temperaturas electrónicas posee un mayor ratio de empuje magnético frente a total. A pesar de ello, no se encuentra ninguna ventaja propulsiva de las dobles capas, reforzando las críticas existentes frente a las propuestas de estas formaciones como un mecanismo de empuje. Por último, se presenta una formulación general de modelos autosemejantes de la expansión 2D de una pluma no magnetizada en el vacío. El error asociado a la hipótesis de autosemejanza es calculado, mostrando que es pequeño para plumas hipersónicas. Tres modelos de la literatura son particularizados a partir de la formulación general y comparados. Abstract This Thesis presents a theoretical analysis of the operation of magnetic nozzles for plasma space propulsion. The study is based on a two-dimensional, two-fluid model of the supersonic expansion of a hot plasma in a divergent magnetic field. The basic model is extended progressively to include the dominant electron convective terms, the plasma-induced magnetic field, multi-temperature electron populations, and the capability to integrate the plasma flow in the far expansion region. The hyperbolic plasma response is integrated accurately and efficiently with the method of the characteristic lines. The 2D plasma expansion is characterized parametrically in terms of the ion magnetization strength, the magnetic field geometry, and the initial plasma profile. Acceleration mechanisms are investigated, showing that the ambipolar electric field converts the internal electron energy into directed ion energy. The diamagnetic electron Hall current, which can be distributed in the plasma volume or localized in a thin current sheet at the jet edge, is shown to be central for the operation of the magnetic nozzle. The repelling magnetic force on this current is responsible for the radial confinement and axial acceleration of the plasma, and magnetic thrust is the reaction to this force on the magnetic coils of the thruster. The plasma response exhibits a gradual inward separation of the ion streamtubes from the magnetic streamtubes, which focuses the jet about the nozzle axis, gives rise to the formation of longitudinal currents and sets the plasma into rotation. The obtained thrust gain in the magnetic nozzle and radial plasma losses are evaluated as a function of the design parameters. The downstream plasma detachment from the closed magnetic field lines, required for the propulsive application of the magnetic nozzle, is investigated in detail. Three prevailing detachment theories for magnetic nozzles, relying on plasma resistivity, electron inertia, and the plasma-induced magnetic field, are shown to be inadequate for the propulsive magnetic nozzle, as these mechanisms detach the plume outward, increasing its divergence, rather than focusing it as desired. Instead, plasma detachment is shown to occur essentially due to ion inertia and the gradual demagnetization that takes place downstream, which enable the unbounded inward ion separation from the magnetic lines beyond the turning point of the outermost plasma streamline under rather general conditions. The plasma fraction that remains attached to the field and turns around along the magnetic field back to the thruster is evaluated and shown to be marginal. The plasmainduced magnetic field is shown to increase the divergence of the nozzle and the resulting plasma plume in the propulsive case, and to enhance the demagnetization of the central part of the plasma jet, contrary to existing predictions. The increased demagnetization favors the earlier ion inward separation from the magnetic field. The local current ambipolarity assumption, common to many existing magnetic nozzle models, is critically discussed, showing that it is unsuitable for the study of plasma detachment. A grave mathematical inconsistency in a well-accepted model, related to the acceptance of this assumption, is found out and commented on. The formation and 2D shape of electric double layers in the plasma expansion is studied with the inclusion of an additional suprathermal electron population in the model. When a double layer forms, its curvature is shown to increase the more peripherally suprathermal electrons are injected, the lower the magnetic field strength, and the more divergent the magnetic nozzle is. The twoelectron- temperature plasma is seen to have a greater magnetic-to-total thrust ratio. Notwithstanding, no propulsive advantage of the double layer is found, supporting and reinforcing previous critiques to their proposal as a thrust mechanism. Finally, a general framework of self-similar models of a 2D unmagnetized plasma plume expansion into vacuum is presented and discussed. The error associated with the self-similarity assumption is calculated and shown to be small for hypersonic plasma plumes. Three models of the literature are recovered as particularizations from the general framework and compared.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se estudiarán las interferencias en el canal adyacente de los sistemas celulares, ubicados en las bandas de 900 y 1800 MHz. Para esto, se analizarán medidas de interferencia entre LTE y otros sistemas de comunicación celular. En el primer capítulo, se dará una breve descripción de los principales parámetros empleados en los distintos estándares de comunicaciones móviles, que operan en las bandas de frecuencia de interés. En el segundo, se van a explicar los distintos tipos de interferencias existentes entre sistemas celulares. También se verán las diferentes técnicas para reducir dichas interferencias, como por ejemplo, la de control de potencia y la de coordinación de interferencia entre celdas. Además, se explicarán los parámetros para determinar la interferencia en el canal adyacente, como son el ACLR, ACS y ACIR. Para finalizar se resumirán las principales características de los sistemas LTE y WiMAX. En el tercer capítulo, se estudiarán las interferencias que genera principalmente LTE a los otros sistemas celulares, mediante los parámetros que miden la interferencia en el canal adyacente explicados en el capítulo dos. Además, se determinará la separación en frecuencia que debe existir entre los canales para que los sistemas puedan coexistir. El capítulo cuatro se basa en la simulación de tres escenarios de interferencia entre dichos sistemas. Para esto, se utilizará el software de simulación de propagación radio, denominado Radio Plan. Con estas simulaciones se cuantificarán las pérdidas de rendimiento que sufren los sistemas interferidos. Por último, en el capítulo cinco se resumirán las conclusiones a las que se llegaron después de simular los diferentes escenarios de interferencia. SUMMARY In this project an adjacent channel interference study for cellular systems, allocated within 900 MHz and 1800 MHz bands will be performed. For this aim a set of measurements will be analyzed. In the first chapter, a brief explanation of the main parameters used in different mobile communications standards that operate in the frequency bands of interest, will be given. In the second chapter, different types of interference between cellular systems will be explained, as well as different techniques to reduce such interference. For example, power control and interference coordination between cells, will be shown. Furthermore, the parameters to determine the adjacent-channel interference, such as the ACLR, ACS and ACIR will be overviewed. Finally, the main features of LTE and WiMAX systems will be summarized. In the third chapter, the interference generated by the other mainly LTE cellular systems via parameters that measure the adjacent channel interference explained in chapter two will be studied. Also, the frequency separation that must exist between the channels so that the systems can coexist will be determined. The fourth chapter is based on the simulation of three scenarios of interference between these systems. For this purpose, a radio propagation simulation software package Radio Plan will be used. These simulations will quantify performance losses suffered by systems that interfered. Finally, in chapter five the conclusions about the results of simulations of interference in different scenarios will be presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La discontinuidad de Mohorovičić, más conocida simplemente como “Moho” constituye la superficie de separación entre los materiales rocosos menos densos de la corteza y los materiales rocosos más densos del manto, suponiendo estas capas de densidad constante del orden de 2.67 y 3.27 g/cm3, y es un contorno básico para cualquier estudio geofísico de la corteza terrestre. Los estudios sísmicos y gravimétricos realizados demuestran que la profundidad del Moho es del orden de 30-40 km por debajo de la Península Ibérica y 5-15 km bajo las zonas marinas. Además las distintas técnicas existentes muestran gran correlación en los resultados. Haciendo la suposición de que el campo de gravedad de la Península Ibérica (como le ocurre al 90% de la Tierra) está isostáticamente compensado por la variable profundidad del Moho, suponiendo un contraste de densidad constante entre la corteza y el manto y siguiendo el modelo isostático de Vening Meinesz (1931), se formula el problema isostático inverso para obtener tal profundidad a partir de la anomalía Bouguer de la gravedad calculada gracias a la gravedad observada en la superficie terrestre. La particularidad de este modelo es la compensación isostática regional de la que parte la teoría, que se asemeja a la realidad en mayor medida que otros modelos existentes, como el de Airy-Heiskanen, que ha sido históricamente el más utilizado en trabajos semejantes. Además, su solución está relacionada con el campo de gravedad global para toda la Tierra, por lo que los actuales modelos gravitacionales, la mayoría derivados de observaciones satelitales, deberían ser importantes fuentes de información para nuestra solución. El objetivo de esta tesis es el estudio con detalle de este método, desarrollado por Helmut Moritz en 1990, que desde entonces ha tenido poca evolución y seguidores y que nunca se ha puesto en práctica en la Península Ibérica. Después de tratar su teoría, desarrollo y aspectos computacionales, se está en posición de obtener un modelo digital del Moho para esta zona a fin de poder utilizarse para el estudio de la distribución de masas bajo la superficie terrestre. A partir de los datos del Moho obtenidos por métodos alternativos se hará una comparación. La precisión de ninguno de estos métodos es extremadamente alta (+5 km aproximadamente). No obstante, en aquellas zonas donde exista una discrepancia de datos significaría un área descompensada, con posibles movimientos tectónicos o alto grado de riesgo sísmico, lo que le da a este estudio un valor añadido. ABSTRACT The Mohorovičić discontinuity, simply known as “Moho” constitutes the division between the rocky and less thick materials of the mantle and the heavier ones in the crust, assuming densities of the orders of 2.67 y 3.27 g/cm3 respectively. It is also a basic contour for every geophysical kind of studies about the terrestrial crust. The seismic and previous gravimetric observations done in the study area show that the Moho depth is of the order of 30-40 km beneath the ground and 5-15 km under the ocean basin. Besides, the different techniques show a good correlation in their results. Assuming that the Iberian Peninsula gravity field (as it happens for the 90% of the Earth) is isostatically compensated according to the variable Moho depth, supposing a constant density contrast between crust and mantle, and following the isostatic Vening Meinesz model (1931), the inverse isostatic problem can be formulated from Bouguer gravity anomaly data obtained thanks to the observed gravity at the surface of the Earth. The main difference between this model and other existing ones, such as Airy- Heiskanen’s (pure local compensation and mostly used in these kinds of works) is the approaching to a regional isostatic compensation, much more in accordance with reality. Besides, its solution is related to the global gravity field, and the current gravitational models -mostly satellite derived- should be important data sources in such solution. The aim of this thesis is to study with detail this method, developed by Helmut Moritz in 1990, which hardly ever has it put into practice. Moreover, it has never been used in Iberia. After studying its theory, development and computational aspects, we are able to get a Digital Moho Model of the Iberian Peninsula, in order to study the masses distribution beneath the Earth’s surface. With the depth Moho information obtained from alternative methods, a comparison will be done. Both methods give results with the same order of accuracy, which is not quite high (+ 5 km approximately). Nevertheless, the areas in which a higher difference is observed would mean a disturbance of the compensation, which could show an unbalanced area with possible tectonic movements or potential seismic risk. It will give us an important additive value, which could be used in, at first, non related fields, such as density discrepancies or natural disasters contingency plans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Universidad Politécnica de Madrid (UPM) y la Università degli Studi di Firenze (UniFi), bajo la coordinación técnica de AMPHOS21, participan desde 2009 en el proyecto de investigación “Estrategias de Monitorización de CO2 y otros gases en el estudio de Análogos Naturales”, financiado por la Fundación Ciudad de la Energía (CIUDEN) en el marco del Proyecto Compostilla OXYCFB300 (http://www.compostillaproject.eu), del Programa “European Energy Program for Recovery - EEPR”. El objetivo principal del proyecto fue el desarrollo y puesta a punto de metodologías de monitorización superficiales para su aplicación en el seguimiento y control de los emplazamientos donde se realice el almacenamiento geológico de CO2, analizando técnicas que permitan detectar y cuantificar las posibles fugas de CO2 a la atmósfera. Los trabajos se realizaron tanto en análogos naturales (españoles e italianos) como en la Planta de Desarrollo Tecnológico de Almacenamiento de CO2 de Hontomín. Las técnicas analizadas se centran en la medición de gases y aguas superficiales (de escorrentía y manantiales). En cuanto a la medición de gases se analizó el flujo de CO2 que emana desde el suelo a la atmósfera y la aplicabilidad de trazadores naturales (como el radón) para la detección e identificación de las fugas de CO2. En cuanto al análisis químico de las aguas se analizaron los datos geoquímicos e isotópicos y los gases disueltos en las aguas de los alrededores de la PDT de Hontomín, con objeto de determinar qué parámetros son los más apropiados para la detección de una posible migración del CO2 inyectado, o de la salmuera, a los ambientes superficiales. Las medidas de flujo de CO2 se realizaron con la técnica de la cámara de acúmulo. A pesar de ser una técnica desarrollada y aplicada en diferentes ámbitos científicos se estimó necesario adaptar un protocolo de medida y de análisis de datos a las características específicas de los proyectos de captura y almacenamiento de CO2 (CAC). Donde los flujos de CO2 esperados son bajos y en caso de producirse una fuga habrá que detectar pequeñas variaciones en los valores flujo con un “ruido” en la señal alto, debido a actividad biológica en el suelo. La medida de flujo de CO2 mediante la técnica de la cámara de acúmulo se puede realizar sin limpiar la superficie donde se coloca la cámara o limpiando y esperando al reequilibrio del flujo después de la distorsión al sistema. Sin embargo, los resultados obtenidos después de limpiar y esperar muestran menor dispersión, lo que nos indica que este procedimiento es el mejor para la monitorización de los complejos de almacenamiento geológico de CO2. El protocolo de medida resultante, utilizado para la obtención de la línea base de flujo de CO2 en Hontomín, sigue los siguiente pasos: a) con una espátula se prepara el punto de medición limpiando y retirando el recubrimiento vegetal o la primera capa compacta de suelo, b) se espera un tiempo para la realización de la medida de flujo, facilitando el reequilibrio del flujo del gas tras la alteración provocada en el suelo y c) se realiza la medida de flujo de CO2. Una vez realizada la medición de flujo de CO2, y detectada si existen zonas de anomalías, se debe estimar la cantidad de CO2 que se está escapando a la atmósfera (emanación total), con el objetivo de cuantificar la posible fuga. Existen un amplio rango de metodologías para realizar dicha estimación, siendo necesario entender cuáles son las más apropiadas para obtener el valor más representativo del sistema. En esta tesis se comparan seis técnicas estadísticas: media aritmética, estimador insegado de la media (aplicando la función de Sichel), remuestreo con reemplazamiento (bootstrap), separación en diferentes poblaciones mediante métodos gráficos y métodos basados en criterios de máxima verosimilitud, y la simulación Gaussiana secuencial. Para este análisis se realizaron ocho campañas de muestreo, tanto en la Planta de Desarrollo Tecnológico de Hontomón como en análogos naturales (italianos y españoles). Los resultados muestran que la simulación Gaussiana secuencial suele ser el método más preciso para realizar el cálculo, sin embargo, existen ocasiones donde otros métodos son más apropiados. Como consecuencia, se desarrolla un procedimiento de actuación para seleccionar el método que proporcione el mejor estimador. Este procedimiento consiste, en primer lugar, en realizar un análisis variográfico. Si existe una autocorrelación entre los datos, modelizada mediante el variograma, la mejor técnica para calcular la emanación total y su intervalo de confianza es la simulación Gaussiana secuencial (sGs). Si los datos son independientes se debe comprobar la distribución muestral, aplicando la media aritmética o el estimador insesgado de la media (Sichel) para datos normales o lognormales respectivamente. Cuando los datos no son normales o corresponden a una mezcla de poblaciones la mejor técnica de estimación es la de remuestreo con reemplazamiento (bootstrap). Siguiendo este procedimiento el máximo valor del intervalo de confianza estuvo en el orden del ±20/25%, con la mayoría de valores comprendidos entre ±3,5% y ±8%. La identificación de las diferentes poblaciones muestrales en los datos de flujo de CO2 puede ayudar a interpretar los resultados obtenidos, toda vez que esta distribución se ve afectada por la presencia de varios procesos geoquímicos como, por ejemplo, una fuente geológica o biológica del CO2. Así pues, este análisis puede ser una herramienta útil en el programa de monitorización, donde el principal objetivo es demostrar que no hay fugas desde el reservorio a la atmósfera y, si ocurren, detectarlas y cuantificarlas. Los resultados obtenidos muestran que el mejor proceso para realizar la separación de poblaciones está basado en criterios de máxima verosimilitud. Los procedimientos gráficos, aunque existen pautas para realizarlos, tienen un cierto grado de subjetividad en la interpretación de manera que los resultados son menos reproducibles. Durante el desarrollo de la tesis se analizó, en análogos naturales, la relación existente entre el CO2 y los isótopos del radón (222Rn y 220Rn), detectándose en todas las zonas de emisión de CO2 una relación positiva entre los valores de concentración de 222Rn en aire del suelo y el flujo de CO2. Comparando la concentración de 220Rn con el flujo de CO2 la relación no es tan clara, mientras que en algunos casos aumenta en otros se detecta una disminución, hecho que parece estar relacionado con la profundidad de origen del radón. Estos resultados confirmarían la posible aplicación de los isótopos del radón como trazadores del origen de los gases y su aplicación en la detección de fugas. Con respecto a la determinación de la línea base de flujo CO2 en la PDT de Hontomín, se realizaron mediciones con la cámara de acúmulo en las proximidades de los sondeos petrolíferos, perforados en los ochenta y denominados H-1, H-2, H-3 y H-4, en la zona donde se instalarán el sondeo de inyección (H-I) y el de monitorización (H-A) y en las proximidades de la falla sur. Desde noviembre de 2009 a abril de 2011 se realizaron siete campañas de muestreo, adquiriéndose más de 4.000 registros de flujo de CO2 con los que se determinó la línea base y su variación estacional. Los valores obtenidos fueron bajos (valores medios entre 5 y 13 g•m-2•d-1), detectándose pocos valores anómalos, principalmente en las proximidades del sondeo H-2. Sin embargo, estos valores no se pudieron asociar a una fuente profunda del CO2 y seguramente estuvieran más relacionados con procesos biológicos, como la respiración del suelo. No se detectaron valores anómalos cerca del sistema de fracturación (falla Ubierna), toda vez que en esta zona los valores de flujo son tan bajos como en el resto de puntos de muestreo. En este sentido, los valores de flujo de CO2 aparentemente están controlados por la actividad biológica, corroborado al obtenerse los menores valores durante los meses de otoño-invierno e ir aumentando en los periodos cálidos. Se calcularon dos grupos de valores de referencia, el primer grupo (UCL50) es 5 g•m-2•d-1 en las zonas no aradas en los meses de otoño-invierno y 3,5 y 12 g•m-2•d-1 en primavera-verano para zonas aradas y no aradas, respectivamente. El segundo grupo (UCL99) corresponde a 26 g•m-2•d- 1 durante los meses de otoño-invierno en las zonas no aradas y 34 y 42 g•m-2•d-1 para los meses de primavera-verano en zonas aradas y no aradas, respectivamente. Flujos mayores a estos valores de referencia podrían ser indicativos de una posible fuga durante la inyección y posterior a la misma. Los primeros datos geoquímicos e isotópicos de las aguas superficiales (de escorrentía y de manantiales) en el área de Hontomín–Huermeces fueron analizados. Los datos sugieren que las aguas estudiadas están relacionadas con aguas meteóricas con un circuito hidrogeológico superficial, caracterizadas por valores de TDS relativamente bajos (menor a 800 mg/L) y una fácie hidrogeoquímica de Ca2+(Mg2+)-HCO3 −. Algunas aguas de manantiales se caracterizan por concentraciones elevadas de NO3 − (concentraciones de hasta 123 mg/l), lo que sugiere una contaminación antropogénica. Se obtuvieron concentraciones anómalas de of Cl−, SO4 2−, As, B y Ba en dos manantiales cercanos a los sondeos petrolíferos y en el rio Ubierna, estos componentes son probablemente indicadores de una posible mezcla entre los acuíferos profundos y superficiales. El estudio de los gases disueltos en las aguas también evidencia el circuito superficial de las aguas. Estando, por lo general, dominado por la componente atmosférica (N2, O2 y Ar). Sin embargo, en algunos casos el gas predominante fue el CO2 (con concentraciones que llegan al 63% v/v), aunque los valores isotópicos del carbono (<-17,7 ‰) muestran que lo más probable es que esté relacionado con un origen biológico. Los datos geoquímicos e isotópicos de las aguas superficiales obtenidos en la zona de Hontomín se pueden considerar como el valor de fondo con el que comparar durante la fase operacional, la clausura y posterior a la clausura. En este sentido, la composición de los elementos mayoritarios y traza, la composición isotópica del carbono del CO2 disuelto y del TDIC (Carbono inorgánico disuelto) y algunos elementos traza se pueden considerar como parámetros adecuados para detectar la migración del CO2 a los ambientes superficiales. ABSTRACT Since 2009, a group made up of Universidad Politécnica de Madrid (UPM; Spain) and Università degli Studi Firenze (UniFi; Italy) has been taking part in a joint project called “Strategies for Monitoring CO2 and other Gases in Natural analogues”. The group was coordinated by AMPHOS XXI, a private company established in Barcelona. The Project was financially supported by Fundación Ciudad de la Energía (CIUDEN; Spain) as a part of the EC-funded OXYCFB300 project (European Energy Program for Recovery -EEPR-; www.compostillaproject.eu). The main objectives of the project were aimed to develop and optimize analytical methodologies to be applied at the surface to Monitor and Verify the feasibility of geologically stored carbon dioxide. These techniques were oriented to detect and quantify possible CO2 leakages to the atmosphere. Several investigations were made in natural analogues from Spain and Italy and in the Tecnchnological Development Plant for CO2 injection al Hontomín (Burgos, Spain). The studying techniques were mainly focused on the measurements of diffuse soil gases and surface and shallow waters. The soil-gas measurements included the determination of CO2 flux and the application to natural trace gases (e.g. radon) that may help to detect any CO2 leakage. As far as the water chemistry is concerned, geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of the PDT of Hontomín were analyzed to determine the most suitable parameters to trace the migration of the injected CO2 into the near-surface environments. The accumulation chamber method was used to measure the diffuse emission of CO2 at the soil-atmosphere interface. Although this technique has widely been applied in different scientific areas, it was considered of the utmost importance to adapt the optimum methodology for measuring the CO2 soil flux and estimating the total CO2 output to the specific features of the site where CO2 is to be stored shortly. During the pre-injection phase CO2 fluxes are expected to be relatively low where in the intra- and post-injection phases, if leakages are to be occurring, small variation in CO2 flux might be detected when the CO2 “noise” is overcoming the biological activity of the soil (soil respiration). CO2 flux measurements by the accumulation chamber method could be performed without vegetation clearance or after vegetation clearance. However, the results obtained after clearance show less dispersion and this suggests that this procedure appears to be more suitable for monitoring CO2 Storage sites. The measurement protocol, applied for the determination of the CO2 flux baseline at Hontomín, has included the following steps: a) cleaning and removal of both the vegetal cover and top 2 cm of soil, b) waiting to reduce flux perturbation due to the soil removal and c) measuring the CO2 flux. Once completing the CO2 flux measurements and detected whether there were anomalies zones, the total CO2 output was estimated to quantify the amount of CO2 released to the atmosphere in each of the studied areas. There is a wide range of methodologies for the estimation of the CO2 output, which were applied to understand which one was the most representative. In this study six statistical methods are presented: arithmetic mean, minimum variances unbiased estimator, bootstrap resample, partitioning of data into different populations with a graphical and a maximum likelihood procedures, and sequential Gaussian simulation. Eight campaigns were carried out in the Hontomín CO2 Storage Technology Development Plant and in natural CO2 analogues. The results show that sequential Gaussian simulation is the most accurate method to estimate the total CO2 output and the confidential interval. Nevertheless, a variety of statistic methods were also used. As a consequence, an application procedure for selecting the most realistic method was developed. The first step to estimate the total emanation rate was the variogram analysis. If the relation among the data can be explained with the variogram, the best technique to calculate the total CO2 output and its confidence interval is the sequential Gaussian simulation method (sGs). If the data are independent, their distribution is to be analyzed. For normal and log-normal distribution the proper methods are the arithmetic mean and minimum variances unbiased estimator, respectively. If the data are not normal (log-normal) or are a mixture of different populations the best approach is the bootstrap resampling. According to these steps, the maximum confidence interval was about ±20/25%, with most of values between ±3.5% and ±8%. Partitioning of CO2 flux data into different populations may help to interpret the data as their distribution can be affected by different geochemical processes, e.g. geological or biological sources of CO2. Consequently, it may be an important tool in a monitoring CCS program, where the main goal is to demonstrate that there are not leakages from the reservoir to the atmosphere and, if occurring, to be able to detect and quantify it. Results show that the partitioning of populations is better performed by maximum likelihood criteria, since graphical procedures have a degree of subjectivity in the interpretation and results may not be reproducible. The relationship between CO2 flux and radon isotopes (222Rn and 220Rn) was studied in natural analogues. In all emissions zones, a positive relation between 222Rn and CO2 was observed. However, the relationship between activity of 220Rn and CO2 flux is not clear. In some cases the 220Rn activity indeed increased with the CO2 flux in other measurements a decrease was recognized. We can speculate that this effect was possibly related to the route (deep or shallow) of the radon source. These results may confirm the possible use of the radon isotopes as tracers for the gas origin and their application in the detection of leakages. With respect to the CO2 flux baseline at the TDP of Hontomín, soil flux measurements in the vicinity of oil boreholes, drilled in the eighties and named H-1 to H-4, and injection and monitoring wells were performed using an accumulation chamber. Seven surveys were carried out from November 2009 to summer 2011. More than 4,000 measurements were used to determine the baseline flux of CO2 and its seasonal variations. The measured values were relatively low (from 5 to 13 g•m-2•day-1) and few outliers were identified, mainly located close to the H-2 oil well. Nevertheless, these values cannot be associated to a deep source of CO2, being more likely related to biological processes, i.e. soil respiration. No anomalies were recognized close to the deep fault system (Ubierna Fault) detected by geophysical investigations. There, the CO2 flux is indeed as low as other measurement stations. CO2 fluxes appear to be controlled by the biological activity since the lowest values were recorded during autumn-winter seasons and they tend to increase in warm periods. Two reference CO2 flux values (UCL50 of 5 g•m-2•d-1 for non-ploughed areas in autumn-winter seasons and 3.5 and 12 g•m-2•d-1 for in ploughed and non-ploughed areas, respectively, in spring-summer time, and UCL99 of 26 g•m-2•d-1 for autumn-winter in not-ploughed areas and 34 and 42 g•m-2•d-1 for spring-summer in ploughed and not-ploughed areas, respectively, were calculated. Fluxes higher than these reference values could be indicative of possible leakage during the operational and post-closure stages of the storage project. The first geochemical and isotopic data related to surface and spring waters and dissolved gases in the area of Hontomín–Huermeces (Burgos, Spain) are presented and discussed. The chemical and features of the spring waters suggest that they are related to a shallow hydrogeological system as the concentration of the Total Dissolved Solids approaches 800 mg/L with a Ca2+(Mg2+)-HCO3 − composition, similar to that of the surface waters. Some spring waters are characterized by relatively high concentrations of NO3 − (up to 123 mg/L), unequivocally suggesting an anthropogenic source. Anomalous concentrations of Cl−, SO4 2−, As, B and Ba were measured in two springs, discharging a few hundred meters from the oil wells, and in the Rio Ubierna. These contents are possibly indicative of mixing processes between deep and shallow aquifers. The chemistry of the dissolved gases also evidences the shallow circuits of the Hontomín– Huermeces, mainly characterized by an atmospheric source as highlighted by the contents of N2, O2, Ar and their relative ratios. Nevertheless, significant concentrations (up to 63% by vol.) of isotopically negative CO2 (<−17.7‰ V-PDB) were found in some water samples, likely related to a biogenic source. The geochemical and isotopic data of the surface and spring waters in the surroundings of Hontomín can be considered as background values when intra- and post-injection monitoring programs will be carried out. In this respect, main and minor solutes, the isotopic carbon of dissolved CO2 and TDIC (Total Dissolved Inorganic Carbon) and selected trace elements can be considered as useful parameters to trace the migration of the injected CO2 into near-surface environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con esta tesis ”Desarrollo de una Teoría Uniforme de la Difracción para el Análisis de los Campos Electromagnéticos Dispersados y Superficiales sobre un Cilindro” hemos iniciado una nueva línea de investigación que trata de responder a la siguiente pregunta: ¿cuál es la impedancia de superficie que describe una estructura de conductor eléctrico perfecto (PEC) convexa recubierta por un material no conductor? Este tipo de estudios tienen interés hoy en día porque ayudan a predecir el campo electromagnético incidente, radiado o que se propaga sobre estructuras metálicas y localmente convexas que se encuentran recubiertas de algún material dieléctrico, o sobre estructuras metálicas con pérdidas, como por ejemplo se necesita en determinadas aplicaciones aeroespaciales, marítimas o automovilísticas. Además, desde un punto de vista teórico, la caracterización de la impedancia de superficie de una estructura PEC recubierta o no por un dieléctrico es una generalización de varias soluciones que tratan ambos tipos de problemas por separado. En esta tesis se desarrolla una teoría uniforme de la difracción (UTD) para analizar el problema canónico del campo electromagnético dispersado y superficial en un cilindro circular eléctricamente grande con una condición de contorno de impedancia (IBC) para frecuencias altas. Construir una solución basada en UTD para este problema canónico es crucial en el desarrollo de un método UTD para el caso más general de una superficie arbitrariamente convexa, mediante el uso del principio de localización de los campos electromagnéticos a altas frecuencias. Esta tesis doctoral se ha llevado a cabo a través de una serie de hitos que se enumeran a continuación, enfatizando las contribuciones a las que ha dado lugar. Inicialmente se realiza una revisión en profundidad del estado del arte de los métodos asintóticos con numerosas referencias. As í, cualquier lector novel puede llegar a conocer la historia de la óptica geométrica (GO) y la teoría geométrica de la difracción (GTD), que dieron lugar al desarrollo de la UTD. Después, se investiga ampliamente la UTD y los trabajos más importantes que pueden encontrarse en la literatura. As í, este capítulo, nos coloca en la posición de afirmar que, hasta donde nosotros conocemos, nadie ha intentado antes llevar a cabo una investigación rigurosa sobre la caracterización de la impedancia de superficie de una estructura PEC recubierta por un material dieléctrico, utilizando para ello la UTD. Primero, se desarrolla una UTD para el problema canónico de la dispersión electromagnética de un cilindro circular eléctricamente grande con una IBC uniforme, cuando es iluminado por una onda plana con incidencia oblicua a frecuencias altas. La solución a este problema canónico se construye a partir de una solución exacta mediante una expansión de autofunciones de propagación radial. Entonces, ésta se convierte en una nueva expansión de autofunciones de propagación circunferencial muy apropiada para cilindros grandes, a través de la transformación de Watson. De esta forma, la expresión del campo se reduce a una integral que se evalúa asintóticamente, para altas frecuencias, de manera uniforme. El resultado se expresa según el trazado de rayos descrito en la UTD. La solución es uniforme porque tiene la importante propiedad de mantenerse continua a lo largo de la región de transición, a ambos lados de la superficie del contorno de sombra. Fuera de la región de transición la solución se reduce al campo incidente y reflejado puramente ópticos en la región iluminada del cilindro, y al campo superficial difractado en la región de sombra. Debido a la IBC el campo dispersado contiene una componente contrapolar a causa de un acoplamiento entre las ondas TEz y TMz (donde z es el eje del cilindro). Esta componente contrapolar desaparece cuando la incidencia es normal al cilindro, y también en la región iluminada cuando la incidencia es oblicua donde el campo se reduce a la solución de GO. La solución UTD presenta una muy buena exactitud cuando se compara numéricamente con una solución de referencia exacta. A continuación, se desarrolla una IBC efectiva para el cálculo del campo electromagnético dispersado en un cilindro circular PEC recubierto por un dieléctrico e iluminado por una onda plana incidiendo oblicuamente. Para ello se derivan dos impedancias de superficie en relación directa con las ondas creeping y de superficie TM y TE que se excitan en un cilindro recubierto por un material no conductor. Las impedancias de superficie TM y TE están acopladas cuando la incidencia es oblicua, y dependen de la geometría del problema y de los números de onda. Además, se ha derivado una impedancia de superficie constante, aunque con diferente valor cuando el observador se encuentra en la zona iluminada o en la zona de sombra. Después, se presenta una solución UTD para el cálculo de la dispersión de una onda plana con incidencia oblicua sobre un cilindro eléctricamente grande y convexo, mediante la generalización del problema canónico correspondiente al cilindro circular. La solución asintótica es uniforme porque se mantiene continua a lo largo de la región de transición, en las inmediaciones del contorno de sombra, y se reduce a la solución de rayos ópticos en la zona iluminada y a la contribución de las ondas de superficie dentro de la zona de sombra, lejos de la región de transición. Cuando se usa cualquier material no conductor se excita una componente contrapolar que tiende a desaparecer cuando la incidencia es normal al cilindro y en la región iluminada. Se discuten ampliamente las limitaciones de las fórmulas para la impedancia de superficie efectiva, y se compara la solución UTD con otras soluciones de referencia, donde se observa una muy buena concordancia. Y en tercer lugar, se presenta una aproximación para una impedancia de superficie efectiva para el cálculo de los campos superficiales en un cilindro circular conductor recubierto por un dieléctrico. Se discuten las principales diferencias que existen entre un cilindro PEC recubierto por un dieléctrico desde un punto de vista riguroso y un cilindro con una IBC. Mientras para un cilindro de impedancia se considera una impedancia de superficie constante o uniforme, para un cilindro conductor recubierto por un dieléctrico se derivan dos impedancias de superficie. Estas impedancias de superficie están asociadas a los modos de ondas creeping TM y TE excitadas en un cilindro, y dependen de la posición y de la orientación del observador y de la fuente. Con esto en mente, se deriva una solución UTD con IBC para los campos superficiales teniendo en cuenta las dependencias de la impedancia de superficie. La expansión asintótica se realiza, mediante la transformación de Watson, sobre la representación en serie de las funciones de Green correspondientes, evitando as í calcular las derivadas de orden superior de las integrales de tipo Fock, y dando lugar a una solución rápida y precisa. En los ejemplos numéricos realizados se observa una muy buena precisión cuando el cilindro y la separación entre el observador y la fuente son grandes. Esta solución, junto con el método de los momentos (MoM), se puede aplicar para el cálculo eficiente del acoplamiento mutuo de grandes arrays conformados de antenas de parches. Los métodos propuestos basados en UTD para el cálculo del campo electromagnético dispersado y superficial sobre un cilindro PEC recubierto de dieléctrico con una IBC efectiva suponen un primer paso hacia la generalización de una solución UTD para superficies metálicas convexas arbitrarias cubiertas por un material no conductor e iluminadas por una fuente electromagnética arbitraria. ABSTRACT With this thesis ”Development of a Uniform Theory of Diffraction for Scattered and Surface Electromagnetic Field Analysis on a Cylinder” we have initiated a line of investigation whose goal is to answer the following question: what is the surface impedance which describes a perfect electric conductor (PEC) convex structure covered by a material coating? These studies are of current and future interest for predicting the electromagnetic (EM) fields incident, radiating or propagating on locally smooth convex parts of highly metallic structures with a material coating, or by a lossy metallic surfaces, as for example in aerospace, maritime and automotive applications. Moreover, from a theoretical point of view, the surface impedance characterization of PEC surfaces with or without a material coating represents a generalization of independent solutions for both type of problems. A uniform geometrical theory of diffraction (UTD) is developed in this thesis for analyzing the canonical problem of EM scattered and surface field by an electrically large circular cylinder with an impedance boundary condition (IBC) in the high frequency regime, by means of a surface impedance characterization. The construction of a UTD solution for this canonical problem is crucial for the development of the corresponding UTD solution for the more general case of an arbitrary smooth convex surface, via the principle of the localization of high frequency EM fields. The development of the present doctoral thesis has been carried out through a series of landmarks that are enumerated as follows, emphasizing the main contributions that this work has given rise to. Initially, a profound revision is made in the state of art of asymptotic methods where numerous references are given. Thus, any reader may know the history of geometrical optics (GO) and geometrical theory of diffraction (GTD), which led to the development of UTD. Then, the UTD is deeply investigated and the main studies which are found in the literature are shown. This chapter situates us in the position to state that, as far as we know, nobody has attempted before to perform a rigorous research about the surface impedance characterization for material-coated PEC convex structures via UTD. First, a UTD solution is developed for the canonical problem of the EM scattering by an electrically large circular cylinder with a uniform IBC, when it is illuminated by an obliquely incident high frequency plane wave. A solution to this canonical problem is first constructed in terms of an exact formulation involving a radially propagating eigenfunction expansion. The latter is converted into a circumferentially propagating eigenfunction expansion suited for large cylinders, via the Watson transformation, which is expressed as an integral that is subsequently evaluated asymptotically, for high frequencies, in a uniform manner. The resulting solution is then expressed in the desired UTD ray form. This solution is uniform in the sense that it has the important property that it remains continuous across the transition region on either side of the surface shadow boundary. Outside the shadow boundary transition region it recovers the purely ray optical incident and reflected ray fields on the deep lit side of the shadow boundary and to the modal surface diffracted ray fields on the deep shadow side. The scattered field is seen to have a cross-polarized component due to the coupling between the TEz and TMz waves (where z is the cylinder axis) resulting from the IBC. Such cross-polarization vanishes for normal incidence on the cylinder, and also in the deep lit region for oblique incidence where it properly reduces to the GO or ray optical solution. This UTD solution is shown to be very accurate by a numerical comparison with an exact reference solution. Then, an effective IBC is developed for the EM scattered field on a coated PEC circular cylinder illuminated by an obliquely incident plane wave. Two surface impedances are derived in a direct relation with the TM and TE surface and creeping wave modes excited on a coated cylinder. The TM and TE surface impedances are coupled at oblique incidence, and depend on the geometry of the problem and the wave numbers. Nevertheless, a constant surface impedance is found, although with a different value when the observation point lays in the lit or in the shadow region. Then, a UTD solution for the scattering of an obliquely incident plane wave on an electrically large smooth convex coated PEC cylinder is introduced, via a generalization of the canonical circular cylinder problem. The asymptotic solution is uniform because it remains continuous across the transition region, in the vicinity of the shadow boundary, and it recovers the ray optical solution in the deep lit region and the creeping wave formulation within the deep shadow region. When a coating is present a cross-polar field term is excited, which vanishes at normal incidence and in the deep lit region. The limitations of the effective surface impedance formulas are discussed, and the UTD solution is compared with some reference solutions where a very good agreement is met. And in third place, an effective surface impedance approach is introduced for determining surface fields on an electrically large coated metallic circular cylinder. Differences in analysis of rigorouslytreated coated metallic cylinders and cylinders with an IBC are discussed. While for the impedance cylinder case a single constant or uniform surface impedance is considered, for the coated metallic cylinder case two surface impedances are derived. These are associated with the TM and TE creeping wave modes excited on a cylinder and depend on observation and source positions and orientations. With this in mind, a UTD based method with IBC is derived for the surface fields by taking into account the surface impedance variation. The asymptotic expansion is performed, via the Watson transformation, over the appropriate series representation of the Green’s functions, thus avoiding higher-order derivatives of Fock-type integrals, and yielding a fast and an accurate solution. Numerical examples reveal a very good accuracy for large cylinders when the separation between the observation and the source point is large. Thus, this solution could be efficiently applied in mutual coupling analysis, along with the method of moments (MoM), of large conformal microstrip array antennas. The proposed UTD methods for scattered and surface EM field analysis on a coated PEC cylinder with an effective IBC are considered the first steps toward the generalization of a UTD solution for large arbitrarily convex smooth metallic surfaces covered by a material coating and illuminated by an arbitrary EM source.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we propose a novel fast random search clustering (RSC) algorithm for mixing matrix identification in multiple input multiple output (MIMO) linear blind inverse problems with sparse inputs. The proposed approach is based on the clustering of the observations around the directions given by the columns of the mixing matrix that occurs typically for sparse inputs. Exploiting this fact, the RSC algorithm proceeds by parameterizing the mixing matrix using hyperspherical coordinates, randomly selecting candidate basis vectors (i.e. clustering directions) from the observations, and accepting or rejecting them according to a binary hypothesis test based on the Neyman–Pearson criterion. The RSC algorithm is not tailored to any specific distribution for the sources, can deal with an arbitrary number of inputs and outputs (thus solving the difficult under-determined problem), and is applicable to both instantaneous and convolutive mixtures. Extensive simulations for synthetic and real data with different number of inputs and outputs, data size, sparsity factors of the inputs and signal to noise ratios confirm the good performance of the proposed approach under moderate/high signal to noise ratios. RESUMEN. Método de separación ciega de fuentes para señales dispersas basado en la identificación de la matriz de mezcla mediante técnicas de "clustering" aleatorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los análisis sísmicos por reflexión existe una creciente demanda de estimaciones geológicas y geométricas más precisas y sofisticadas. En último término se pretende extraer estimaciones fiables de las secciones de reflexión, estimaciones que afectan a parámetros tales como la velocidad de propagación, densidad y, por supuesto, contenido de hidrocarburos. Ello exige gran precisión en las técnicas de procesado y representación gráfica, pudiendo decirse que los métodos gráficos interactivos son clave en las tendencias futuras de prospección. Un área de investigación actual es el procesado y representación de datos representados por "horizontes". Un horizonte sísmico se define como la superficie que separa dos capas diferentes de roca. Estas interfases están asociadas a reflexiones que se pueden identificar claramente en las secciones sísmicas. Usando una pantalla gráfica adecuada estos horizontes aparecen coloreados en la sección,pudiendo tornarse puntos selectos para definirlas. Si se utilizan secciones concentradas ("stacked") es preciso determinar la posición correcta de las interfases. Es el proceso llamado "emigración". Tradicionalmente se han aplicado fórmulas de representación o transformaciones integrales para realizar este proceso. Sin embargo es suficiente hacer emigrar las curvas seleccionadas (superficies en el caso 3-D) que representan menos del 1% del total de los datos, con lo que el tiempo de CPU se reduce considerablemente. Si se desprecia la información sobre amplitudes, fases y frecuencias la teoría de rayos es el método más rápido y simple para la conversión en profundidad, poniéndose todo el énfasis en el proceso interactivo y en la representación gráfica. Puesto que en estructuras complejas, como las del Mar del Norte o las del Norte de Alemania, las funciones de velocidad nunca se conocen con precisión, es preciso repetir la emigración mediante diferentes velocidades especificadas por el usuario en forma interactiva. En este artículo se presenta la aplicación del procedimiento para horizontes de separación nula (zero-offset sections) y al final se indica la posibilidad de extensión del estudio a casos con separación constante y al análisis de velocidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal del presente trabajo es estudiar y explotar estructuras que presentan un gas bidimensional de electrones (2DEG) basadas en compuestos nitruros con alto contenido de indio. Existen muchas preguntas abiertas, relacionadas con el nitruro de indio y sus aleaciones, algunas de las cuales se han abordado en este estudio. En particular, se han investigado temas relacionados con el análisis y la tecnología del material, tanto para el InN y heteroestructuras de InAl(Ga)N/GaN como para sus aplicaciones a dispositivos avanzados. Después de un análisis de la dependencia de las propiedades del InN con respecto a tratamientos de procesado de dispositivos (plasma y térmicos), el problema relacionado con la formación de un contacto rectificador es considerado. Concretamente, su dificultad es debida a la presencia de acumulación de electrones superficiales en la forma de un gas bidimensional de electrones, debido al pinning del nivel de Fermi. El uso de métodos electroquímicos, comparados con técnicas propias de la microelectrónica, ha ayudado para la realización de esta tarea. En particular, se ha conseguido lamodulación de la acumulación de electrones con éxito. En heteroestructuras como InAl(Ga)N/GaN, el gas bidimensional está presente en la intercara entre GaN y InAl(Ga)N, aunque no haya polarización externa (estructuras modo on). La tecnología relacionada con la fabricación de transistores de alta movilidad en modo off (E-mode) es investigada. Se utiliza un método de ataque húmedo mediante una solución de contenido alcalino, estudiando las modificaciones estructurales que sufre la barrera. En este sentido, la necesidad de un control preciso sobre el material atacado es fundamental para obtener una estructura recessed para aplicaciones a transistores, con densidad de defectos e inhomogeneidad mínimos. La dependencia de la velocidad de ataque de las propiedades de las muestras antes del tratamiento es observada y comentada. Se presentan también investigaciones relacionadas con las propiedades básicas del InN. Gracias al uso de una puerta a través de un electrolito, el desplazamiento de los picos obtenidos por espectroscopia Raman es correlacionado con una variación de la densidad de electrones superficiales. En lo que concierne la aplicación a dispositivos, debido al estado de la tecnología actual y a la calidad del material InN, todavía no apto para dispositivos, la tesis se enfoca a la aplicación de heteroestructuras de InAl(Ga)N/GaN. Gracias a las ventajas de una barrera muy fina, comparada con la tecnología de AlGaN/GaN, el uso de esta estructura es adecuado para aplicaciones que requieren una elevada sensibilidad, estando el canal 2DEG más cerca de la superficie. De hecho, la sensibilidad obtenida en sensores de pH es comparable al estado del arte en términos de variaciones de potencial superficial, y, debido al poco espesor de la barrera, la variación de la corriente con el pH puede ser medida sin necesidad de un electrodo de referencia externo. Además, estructuras fotoconductivas basadas en un gas bidimensional presentan alta ganancia debida al elevado campo eléctrico en la intercara, que induce una elevada fuerza de separación entre hueco y electrón generados por absorción de luz. El uso de metalizaciones de tipo Schottky (fotodiodos Schottky y metal-semiconductormetal) reduce la corriente de oscuridad, en comparación con los fotoconductores. Además, la barrera delgada aumenta la eficiencia de extracción de los portadores. En consecuencia, se obtiene ganancia en todos los dispositivos analizados basados en heteroestructuras de InAl(Ga)N/GaN. Aunque presentando fotoconductividad persistente (PPC), los dispositivos resultan más rápidos con respeto a los valores que se dan en la literatura acerca de PPC en sistemas fotoconductivos. ABSTRACT The main objective of the present work is to study and exploit the two-dimensionalelectron- gas (2DEG) structures based on In-related nitride compounds. Many open questions are analyzed. In particular, technology and material-related topics are the focus of interest regarding both InNmaterial and InAl(Ga)N/GaNheterostructures (HSs) as well as their application to advanced devices. After the analysis of the dependence of InN properties on processing treatments (plasma-based and thermal), the problemof electrical blocking behaviour is taken into consideration. In particular its difficulty is due to the presence of a surface electron accumulation (SEA) in the form of a 2DEG, due to Fermi level pinning. The use of electrochemical methods, compared to standard microelectronic techniques, helped in the successful realization of this task. In particular, reversible modulation of SEA is accomplished. In heterostructures such as InAl(Ga)N/GaN, the 2DEGis present at the interface between GaN and InAl(Ga)N even without an external bias (normally-on structures). The technology related to the fabrication of normally off (E-mode) high-electron-mobility transistors (HEMTs) is investigated in heterostructures. An alkali-based wet-etching method is analysed, standing out the structural modifications the barrier underwent. The need of a precise control of the etched material is crucial, in this sense, to obtain a recessed structure for HEMT application with the lowest defect density and inhomogeneity. The dependence of the etch rate on the as-grown properties is observed and commented. Fundamental investigation related to InNis presented, related to the physics of this degeneratematerial. With the help of electrolyte gating (EG), the shift in Raman peaks is correlated to a variation in surface eletron density. As far as the application to device is concerned, due to the actual state of the technology and material quality of InN, not suitable for working devices yet, the focus is directed to the applications of InAl(Ga)N/GaN HSs. Due to the advantages of a very thin barrier layer, compared to standard AlGaN/GaN technology, the use of this structure is suitable for high sensitivity applications being the 2DEG channel closer to the surface. In fact, pH sensitivity obtained is comparable to the state-of-the-art in terms of surface potential variations, and, due to the ultrathin barrier, the current variation with pH can be recorded with no need of the external reference electrode. Moreover, 2DEG photoconductive structures present a high photoconductive gain duemostly to the high electric field at the interface,and hence a high separation strength of photogenerated electron and hole. The use of Schottky metallizations (Schottky photodiode and metal-semiconductor-metal) reduce the dark current, compared to photoconduction, and the thin barrier helps to increase the extraction efficiency. Gain is obtained in all the device structures investigated. The devices, even if they present persistent photoconductivity (PPC), resulted faster than the standard PPC related decay values.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo trata de elementos reforzados con barras de armadura y Fibras Metálicas Recicladas (FMR). El objetivo principal es mejorar el comportamiento a fisuración de elementos sometidos a flexión pura y a flexión compuesta, aumentando en consecuencia las prestaciones en servicio de aquellas estructuras con requerimientos estrictos con respecto al control de fisuración. Entre éstas últimas se encuentran las estructuras integrales, es decir aquellas estructuras sin juntas (puentes o edificios), sometidas a cargas gravitatorias y deformaciones impuestas en los elementos horizontales debidas a retracción, fluencia y temperatura. Las FMR son obtenidas a partir de los neumáticos fuera de uso, y puesto que el procedimiento de reciclado se centra en el caucho en vez que en el acero, su forma es aleatoria y con longitud variable. A pesar de que la eficacia del fibrorefuerzo mediante FMR ha sido demostrada en investigaciones anteriores, la innovación que representa este trabajo consiste en proponer la acción combinada de barras convencionales y FMR en la mejora del comportamiento a fisuración. El objetivo es por tanto mejorar la sostenibilidad del proyecto de la estructura en HA al utilizar materiales reciclados por un lado, y aumentando por el otro la durabilidad. En primer lugar, se presenta el estado del arte con respecto a la fisuración en elementos de HA, que sucesivamente se amplía a elementos reforzados con barras y fibras. Asimismo, se resume el método simplificado para el análisis de columnas de estructuras sin juntas ya propuesto por Pérez et al., con particular énfasis en aquellos aspectos que son incompatibles con la acción de las fibras a nivel seccional. A continuación, se presenta un modelo para describir la deformabilidad seccional y la fisuración en elementos en HA, que luego se amplía a aquellos elementos reforzados con barras y fibras, teniendo en cuenta también los efectos debidos a la retracción (tension stiffening negativo). El modelo es luego empleado para ampliar el método simplificado para el análisis de columnas. La aportación consiste por tanto en contar con una metodología amplia de análisis para este tipo de elementos. Seguidamente, se presenta la campaña experimental preliminar que ha involucrado vigas a escala reducida sometidas a flexión simple, con el objetivo de validar la eficiencia y la usabilidad en el hormigón de las FMR de dos diferentes tipos, y su comportamiento con respecto a fibras de acero comerciales. Se describe a continuación la campaña principal, consistente en ensayos sobre ocho vigas en flexión simple a escala 1:1 (variando contenido en FRM, Ø/s,eff y recubrimiento) y doce columnas a flexión compuesta (variando contenido en FMR, Ø/s,eff y nivel de fuerza axil). Los resultados obtenidos en la campaña principal son presentados y comentados, resaltando las mejoras obtenidas en el comportamiento a fisuración de las vigas y columnas, y la rigidez estructural de las columnas. Estos resultados se comparan con las predicciones del modelo propuesto. Los principales parámetros estudiados para describir la fisuración y el comportamiento seccional de las vigas son: la separación entre fisuras, el alargamiento medio de las armaduras y la abertura de fisura, mientras que en los ensayos de las columnas se ha contrastado las leyes momento/curvatura, la tensión en las barras de armadura y la abertura de fisura en el empotramiento en la base. La comparación muestra un buen acuerdo entre las predicciones y los resultados experimentales. Asimismo, se nota la mejora en el comportamiento a fisuración debido a la incorporación de FMR en aquellos elementos con cuantías de armadura bajas en flexión simple, en elementos con axiles bajos y para el control de la fisuración en elementos con grandes recubrimientos, siendo por tanto resultados de inmediato impacto en la práctica ingenieril (diseño de losas, tanques, estructuras integrales, etc.). VIIIComo punto final, se presentan aplicaciones de las FMR en estructuras reales. Se discuten dos casos de elementos sometidos a flexión pura, en particular una viga simplemente apoyada y un tanque para el tratamiento de agua. En ambos casos la adicción de FMR al hormigón lleva a mejoras en el comportamiento a fisuración. Luego, utilizando el método simplificado para el análisis en servicio de columnas de estructuras sin juntas, se calcula la máxima longitud admisible en casos típicos de puentes y edificación. En particular, se demuestra que las limitaciones de la práctica ingenieril actual (sobre todo en edificación) pueden ser aumentadas considerando el comportamiento real de las columnas en HA. Finalmente, los mismos casos son modificados para considerar el uso de MFR, y se presentan las mejoras tanto en la máxima longitud admisible como en la abertura de fisura para una longitud y deformación impuesta. This work deals with elements reinforced with both rebars and Recycled Steel Fibres (RSFs). Its main objective is to improve cracking behaviour of elements subjected to pure bending and bending and axial force, resulting in better serviceability conditions for these structures demanding keen crack width control. Among these structures a particularly interesting type are the so-called integral structures, i.e. long jointless structures (bridges and buildings) subjected to gravitational loads and imposed deformations due to shrinkage, creep and temperature. RSFs are obtained from End of Life Tyres, and due to the recycling process that is focused on the rubber rather than on the steel they come out crooked and with variable length. Although the effectiveness of RSFs had already been proven by previous research, the innovation of this work consists in the proposing the combined action of conventional rebars and RSFs to improve cracking behaviour. Therefore, the objective is to improve the sustainability of RC structures by, on the one hand, using recycled materials, and on the other improving their durability. A state of the art on cracking in RC elements is firstly drawn. It is then expanded to elements reinforced with both rebars and fibres (R/FRC elements). Finally, the simplified method for analysis of columns of long jointless structures already proposed by Pérez et al. is resumed, with a special focus on the points that conflict when taking into account the action of fibres. Afterwards, a model to describe sectional deformability and cracking of R/FRC elements is presented, taking also into account the effect of shrinkage (negative tension stiffening). The model is then used to implement the simplified method for columns. The novelty represented by this is that a comprehensive methodology to analyse this type of elements is presented. A preliminary experimental campaign consisting in small beams subjected to pure bending is described, with the objective of validating the effectiveness and usability in concrete of RSFs of two different types, and their behaviour when compared with commercial steel fibres. With the results and lessons learnt from this campaign in mind, the main experimental campaign is then described, consisting in cracking tests of eight unscaled beams in pure bending (varying RSF content, Ø/s,eff and concrete cover) and twelve columns subjected to imposed displacement and axial force (varying RSF content, Ø/s,eff and squashing load ratio). The results obtained from the main campaign are presented and discussed, with particular focus on the improvement in cracking behaviour for the beams and columns, and structural stiffness for the columns. They are then compared with the proposed model. The main parameters studied to describe cracking and sectional behaviours of the beam tests are crack spacing, mean steel strain and crack width, while for the column tests these were moment/curvature, stress in rebars and crack with at column embedment. The comparison showed satisfactory agreement between experimental results and model predictions. Moreover, it is pointed out the improvement in cracking behaviour due to the addition of RSF for elements with low reinforcement ratios, elements with low squashing load ratios and for crack width control of elements with large concrete covers, thus representing results with a immediate impact in engineering practice (slab design, tanks, integral structures, etc.). Applications of RSF to actual structures are finally presented. Two cases of elements in pure bending are presented, namely a simple supported beam and a water treatment tank. In both cases the addition of RSF to concrete leads to improvements in cracking behaviour. Then, using the simplified model for the serviceability analysis of columns of jointless structures, the maximum achievable jointless length of typical cases of a bridge and building is obtained. In XIIparticular, it is shown how the limitations of current engineering practice (this is especially the case of buildings) can be increased by considering the actual behaviour of RC supports. Then, the same cases are modified considering the use of RSF, and the improvements both in maximum achievable length and in crack width for a given length and imposed strain at the deck/first floor are shown.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe la necesidad de disponer de sistemas objetivos y rápidos para la determinación de la calidad de los productos agrícolas. Los sistemas ópticos y espectrofotométricos se han presentado como muy válidos para estos fines en muchos productos (Mohsenin, 1984) (tomates, peras, manzanas, patatas, carnes, huevos...) esto justifica el uso de estos métodos sobre nuevos materiales. Las restricciones impuestas a los colorantes artificiales por las nuevas legislaciones favorecen el consumo de colorantes de origen natural, como el pimentón. Es necesario encontrar un sistema rápido y eficaz que determine la calidad de este producto de creciente interés, (Mínguez, 1992; Conrad, 1987; Nagle 1979; Navarro y Costa, 1993 ). Además existen graves problemas en la comercialización de este producto por la poca transparencia del mercado. Se han producido, en los últimos años, importaciones de pimentón de Marruecos de muy baja calidad y precio, que se mezclaban con pequeñas proporciones de pimentón de humo, comercializándose como pimentón de alta calidad y a precios similares al pimentón producido en la Vera por el sistema tradicional, lo que supone un fraude. Es por tanto necesario encontrar un sistema que discrimine producto de alta calidad ( con color atractivo, alto nivel de carotenoides y alta estabilidad ) de pimentones de baja calidad o dañados ( por exceso de calor durante el secado, enranciamiento, etc.). El objetivo de este trabajo ha sido segregar diversas calidades de pimentón, para esto se disponía de pimentones procedentes de Extremadura, de líneas seleccionadas obtenidas por el SIA, secados por el método tradicional (humo) y con estufa, incluyendo muestras que presentan daños por quemado. Sin ningún conocimiento previo se ha trabajado sobre espectros de reflexión en VIS y NIR a los que se han aplicado ciertas transformaciones para la obtención de variables que fueran capaces de discriminar pimentones secados con humo de los secados con estufa y de los quemados. Realizando reiterados estudios estadísticos se ha llegado a establecer algunas variables útiles en la separación de estas tres clases, para ambos rangos del espectro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La configuración de un cilindro acoplado a una semi-esfera, conocida como ’hemispherecylinder’, se considera como un modelo simplificado para numerosas aplicaciones industriales tales como fuselaje de aviones o submarinos. Por tanto, el estudio y entendimiento de los fenómenos fluidos que ocurren alrededor de dicha geometría presenta gran interés. En esta tesis se muestra la investigación del origen y evolución de los, ya conocidos, patrones de flujo (burbuja de separación, vórtices ’horn’ y vórtices ’leeward’) que se dan en esta geometría bajo condiciones de flujo separado. Para ello se han llevado a cabo simulaciones numéricas (DNS) y ensayos experimentales usando la técnica de Particle Image Velocimetry (PIV), para una variedad de números de Reynolds (Re) y ángulos de ataque (AoA). Se ha aplicado sobre los resultados numéricos la teoría de puntos críticos obteniendo, por primera vez para esta geometría, un diagrama de bifurcaciones que clasifica los diferentes regímenes topológicos en función del número de Reynolds y del ángulo de ataque. Se ha llevado a cabo una caracterización completa sobre el origen y la evolución de los patrones estructurales característicos del cuerpo estudiado. Puntos críticos de superficie y líneas de corriente tridimensionales han ayudado a describir el origen y la evolución de las principales estructuras presentes en el flujo hasta alcanzar un estado de estabilidad desde el punto de vista topológico. Este estado se asocia con el patrón de los vórtices ’horn’, definido por una topología característica que se encuentra en un rango de números de Reynolds muy amplio y en regímenes compresibles e incompresibles. Por otro lado, con el objeto de determinar las estructuras presentes en el flujo y sus frecuencias asociadas, se han usado distintas técnicas de análisis: Proper Orthogonal Decomposition (POD), Dynamic Mode Decomposition (DMD) y análisis de Fourier. Dichas técnicas se han aplicado sobre los datos experimentales y numéricos, demostrándose la buena concordancia entre ambos resultados. Finalmente, se ha encontrado en ambos casos, una frecuencia dominante asociada con una inestabilidad de los vórtices ’leeward’. ABSTRACT The hemisphere-cylinder may be considered as a simplified model for several geometries found in industrial applications such as aircrafts’ fuselages or submarines. Understanding the complex flow phenomena that surrounds this particular geometry is therefore of major industrial interest. This thesis presents an investigation of the origin and evolution of the complex flow pattern; i.e. separation bubbles, horn vortices and leeward vortices, around the hemisphere-cylinder under separated flow conditions. To this aim, threedimensional Direct Numerical Simulations (DNS) and experimental tests, using Particle Image Velocimetry (PIV) techniques, have been performed for a variety of Reynolds numbers (Re) and angles of attack (AoA). Critical point theory has been applied to the numerical simulations to provide, for the first time for this geometry, a bifurcation diagram that classifies the different flow topology regimes as a function of the Reynolds number and the angle of attack. A complete characterization about the origin and evolution of the complex structural patterns of this geometry has been put in evidence. Surface critical points and surface and volume streamlines were able to describe the main flow structures and their strong dependence with the flow conditions up to reach the structurally stable state. This state was associated with the pattern of the horn vortices, found on ranges from low to high Reynolds numbers and from incompressible to compressible regimes. In addition, different structural analysis techniques have been employed: Proper Orthogonal Decomposition (POD), Dynamic Mode Decomposition (DMD) and Fourier analysis. These techniques have been applied to the experimental and numerical data to extract flow structure information (i.e. modes and frequencies). Experimental and numerical modes are shown to be in good agreement. A dominant frequency associated with an instability of the leeward vortices has been identified in both, experimental and numerical results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN: La realización de túneles de gran longitud para ferrocarriles ha adquirido un gran auge en los últimos años. En España se han abordado proyectos de estas características, no existiendo para su ejecución una metodología completa y contrastada de actuación. Las características geométricas, de observación y de trabajo en túneles hace que las metodologías que se aplican en otros proyectos de ingeniería no sean aplicables por las siguientes causas: separación de las redes exteriores e interiores de los túneles debido a la diferente naturaleza de los observables, geometría en el interior siempre desfavorable a los requerimientos de observación clásica, mala visibilidad dentro del túnel, aumento de errores conforme avanza la perforación, y movimientos propios del túnel durante su ejecución por la propia geodinámica activa. Los patrones de observación geodésica usados deben revisarse cuando se ejecutan túneles de gran longitud. Este trabajo establece una metodología para el diseño de redes exteriores. ABSTRACT: The realization of long railway tunnels has acquired a great interest in recent years. In Spain it is necessary to address projects of this nature, but ther is no corresponding methodological framework supporting them. The tunnel observational and working geometrical properties, make that former methodologies used may be unuseful in this case: the observation of the exterior and interior geodetical networks of the tunnel is different in nature. Conditions of visibility in the interior of the tunnels, regardless of the geometry, are not the most advantageous for observation due to the production system and the natural conditions of the tunnels. Errors increase as the drilling of the tunnel progresses, as it becomes problematical to perform continuous verifications along the itinerary itself. Moreover, inherent tunnel movements due to active geodynamics must also be considered. Therefore patterns for geodetic and topographic observations have to be reviewed when very long tunnels are constructed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antecedentes Europa vive una situación insostenible. Desde el 2008 se han reducido los recursos de los gobiernos a raíz de la crisis económica. El continente Europeo envejece con ritmo constante al punto que se prevé que en 2050 habrá sólo dos trabajadores por jubilado [54]. A esta situación se le añade el aumento de la incidencia de las enfermedades crónicas, relacionadas con el envejecimiento, cuyo coste puede alcanzar el 7% del PIB de un país [51]. Es necesario un cambio de paradigma. Una nueva manera de cuidar de la salud de las personas: sustentable, eficaz y preventiva más que curativa. Algunos estudios abogan por el cuidado personalizado de la salud (pHealth). En este modelo las prácticas médicas son adaptadas e individualizadas al paciente, desde la detección de los factores de riesgo hasta la personalización de los tratamientos basada en la respuesta del individuo [81]. El cuidado personalizado de la salud está asociado a menudo al uso de las tecnologías de la información y comunicación (TICs) que, con su desarrollo exponencial, ofrecen oportunidades interesantes para la mejora de la salud. El cambio de paradigma hacia el pHealth está lentamente ocurriendo, tanto en el ámbito de la investigación como en la industria, pero todavía no de manera significativa. Existen todavía muchas barreras relacionadas a la economía, a la política y la cultura. También existen barreras puramente tecnológicas, como la falta de sistemas de información interoperables [199]. A pesar de que los aspectos de interoperabilidad están evolucionando, todavía hace falta un diseño de referencia especialmente direccionado a la implementación y el despliegue en gran escala de sistemas basados en pHealth. La presente Tesis representa un intento de organizar la disciplina de la aplicación de las TICs al cuidado personalizado de la salud en un modelo de referencia, que permita la creación de plataformas de desarrollo de software para simplificar tareas comunes de desarrollo en este dominio. Preguntas de investigación RQ1 >Es posible definir un modelo, basado en técnicas de ingeniería del software, que represente el dominio del cuidado personalizado de la salud de una forma abstracta y representativa? RQ2 >Es posible construir una plataforma de desarrollo basada en este modelo? RQ3 >Esta plataforma ayuda a los desarrolladores a crear sistemas pHealth complejos e integrados? Métodos Para la descripción del modelo se adoptó el estándar ISO/IEC/IEEE 42010por ser lo suficientemente general y abstracto para el amplio enfoque de esta tesis [25]. El modelo está definido en varias partes: un modelo conceptual, expresado a través de mapas conceptuales que representan las partes interesadas (stakeholders), los artefactos y la información compartida; y escenarios y casos de uso para la descripción de sus funcionalidades. El modelo fue desarrollado de acuerdo a la información obtenida del análisis de la literatura, incluyendo 7 informes industriales y científicos, 9 estándares, 10 artículos en conferencias, 37 artículos en revistas, 25 páginas web y 5 libros. Basándose en el modelo se definieron los requisitos para la creación de la plataforma de desarrollo, enriquecidos por otros requisitos recolectados a través de una encuesta realizada a 11 ingenieros con experiencia en la rama. Para el desarrollo de la plataforma, se adoptó la metodología de integración continua [74] que permitió ejecutar tests automáticos en un servidor y también desplegar aplicaciones en una página web. En cuanto a la metodología utilizada para la validación se adoptó un marco para la formulación de teorías en la ingeniería del software [181]. Esto requiere el desarrollo de modelos y proposiciones que han de ser validados dentro de un ámbito de investigación definido, y que sirvan para guiar al investigador en la búsqueda de la evidencia necesaria para justificarla. La validación del modelo fue desarrollada mediante una encuesta online en tres rondas con un número creciente de invitados. El cuestionario fue enviado a 134 contactos y distribuido en algunos canales públicos como listas de correo y redes sociales. El objetivo era evaluar la legibilidad del modelo, su nivel de cobertura del dominio y su potencial utilidad en el diseño de sistemas derivados. El cuestionario incluía preguntas cuantitativas de tipo Likert y campos para recolección de comentarios. La plataforma de desarrollo fue validada en dos etapas. En la primera etapa se utilizó la plataforma en un experimento a pequeña escala, que consistió en una sesión de entrenamiento de 12 horas en la que 4 desarrolladores tuvieron que desarrollar algunos casos de uso y reunirse en un grupo focal para discutir su uso. La segunda etapa se realizó durante los tests de un proyecto en gran escala llamado HeartCycle [160]. En este proyecto un equipo de diseñadores y programadores desarrollaron tres aplicaciones en el campo de las enfermedades cardio-vasculares. Una de estas aplicaciones fue testeada en un ensayo clínico con pacientes reales. Al analizar el proyecto, el equipo de desarrollo se reunió en un grupo focal para identificar las ventajas y desventajas de la plataforma y su utilidad. Resultados Por lo que concierne el modelo que describe el dominio del pHealth, la parte conceptual incluye una descripción de los roles principales y las preocupaciones de los participantes, un modelo de los artefactos TIC que se usan comúnmente y un modelo para representar los datos típicos que son necesarios formalizar e intercambiar entre sistemas basados en pHealth. El modelo funcional incluye un conjunto de 18 escenarios, repartidos en: punto de vista de la persona asistida, punto de vista del cuidador, punto de vista del desarrollador, punto de vista de los proveedores de tecnologías y punto de vista de las autoridades; y un conjunto de 52 casos de uso repartidos en 6 categorías: actividades de la persona asistida, reacciones del sistema, actividades del cuidador, \engagement" del usuario, actividades del desarrollador y actividades de despliegue. Como resultado del cuestionario de validación del modelo, un total de 65 personas revisó el modelo proporcionando su nivel de acuerdo con las dimensiones evaluadas y un total de 248 comentarios sobre cómo mejorar el modelo. Los conocimientos de los participantes variaban desde la ingeniería del software (70%) hasta las especialidades médicas (15%), con declarado interés en eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), medicina personalizada (5%), sistemas basados en pHealth (15%), informática médica (10%) e ingeniería biomédica (8%) con una media de 7.25_4.99 años de experiencia en estas áreas. Los resultados de la encuesta muestran que los expertos contactados consideran el modelo fácil de leer (media de 1.89_0.79 siendo 1 el valor más favorable y 5 el peor), suficientemente abstracto (1.99_0.88) y formal (2.13_0.77), con una cobertura suficiente del dominio (2.26_0.95), útil para describir el dominio (2.02_0.7) y para generar sistemas más específicos (2_0.75). Los expertos también reportan un interés parcial en utilizar el modelo en su trabajo (2.48_0.91). Gracias a sus comentarios, el modelo fue mejorado y enriquecido con conceptos que faltaban, aunque no se pudo demonstrar su mejora en las dimensiones evaluadas, dada la composición diferente de personas en las tres rondas de evaluación. Desde el modelo, se generó una plataforma de desarrollo llamada \pHealth Patient Platform (pHPP)". La plataforma desarrollada incluye librerías, herramientas de programación y desarrollo, un tutorial y una aplicación de ejemplo. Se definieron cuatro módulos principales de la arquitectura: el Data Collection Engine, que permite abstraer las fuentes de datos como sensores o servicios externos, mapeando los datos a bases de datos u ontologías, y permitiendo interacción basada en eventos; el GUI Engine, que abstrae la interfaz de usuario en un modelo de interacción basado en mensajes; y el Rule Engine, que proporciona a los desarrolladores un medio simple para programar la lógica de la aplicación en forma de reglas \if-then". Después de que la plataforma pHPP fue utilizada durante 5 años en el proyecto HeartCycle, 5 desarrolladores fueron reunidos en un grupo de discusión para analizar y evaluar la plataforma. De estas evaluaciones se concluye que la plataforma fue diseñada para encajar las necesidades de los ingenieros que trabajan en la rama, permitiendo la separación de problemas entre las distintas especialidades, y simplificando algunas tareas de desarrollo como el manejo de datos y la interacción asíncrona. A pesar de ello, se encontraron algunos defectos a causa de la inmadurez de algunas tecnologías empleadas, y la ausencia de algunas herramientas específicas para el dominio como el procesado de datos o algunos protocolos de comunicación relacionados con la salud. Dentro del proyecto HeartCycle la plataforma fue utilizada para el desarrollo de la aplicación \Guided Exercise", un sistema TIC para la rehabilitación de pacientes que han sufrido un infarto del miocardio. El sistema fue testeado en un ensayo clínico randomizado en el cual a 55 pacientes se les dio el sistema para su uso por 21 semanas. De los resultados técnicos del ensayo se puede concluir que, a pesar de algunos errores menores prontamente corregidos durante el estudio, la plataforma es estable y fiable. Conclusiones La investigación llevada a cabo en esta Tesis y los resultados obtenidos proporcionan las respuestas a las tres preguntas de investigación que motivaron este trabajo: RQ1 Se ha desarrollado un modelo para representar el dominio de los sistemas personalizados de salud. La evaluación hecha por los expertos de la rama concluye que el modelo representa el dominio con precisión y con un balance apropiado entre abstracción y detalle. RQ2 Se ha desarrollado, con éxito, una plataforma de desarrollo basada en el modelo. RQ3 Se ha demostrado que la plataforma es capaz de ayudar a los desarrolladores en la creación de software pHealth complejos. Las ventajas de la plataforma han sido demostradas en el ámbito de un proyecto de gran escala, aunque el enfoque genérico adoptado indica que la plataforma podría ofrecer beneficios también en otros contextos. Los resultados de estas evaluaciones ofrecen indicios de que, ambos, el modelo y la plataforma serán buenos candidatos para poderse convertir en una referencia para futuros desarrollos de sistemas pHealth. ABSTRACT Background Europe is living in an unsustainable situation. The economic crisis has been reducing governments' economic resources since 2008 and threatening social and health systems, while the proportion of older people in the European population continues to increase so that it is foreseen that in 2050 there will be only two workers per retiree [54]. To this situation it should be added the rise, strongly related to age, of chronic diseases the burden of which has been estimated to be up to the 7% of a country's gross domestic product [51]. There is a need for a paradigm shift, the need for a new way of caring for people's health, shifting the focus from curing conditions that have arisen to a sustainable and effective approach with the emphasis on prevention. Some advocate the adoption of personalised health care (pHealth), a model where medical practices are tailored to the patient's unique life, from the detection of risk factors to the customization of treatments based on each individual's response [81]. Personalised health is often associated to the use of Information and Communications Technology (ICT), that, with its exponential development, offers interesting opportunities for improving healthcare. The shift towards pHealth is slowly taking place, both in research and in industry, but the change is not significant yet. Many barriers still exist related to economy, politics and culture, while others are purely technological, like the lack of interoperable information systems [199]. Though interoperability aspects are evolving, there is still the need of a reference design, especially tackling implementation and large scale deployment of pHealth systems. This thesis contributes to organizing the subject of ICT systems for personalised health into a reference model that allows for the creation of software development platforms to ease common development issues in the domain. Research questions RQ1 Is it possible to define a model, based on software engineering techniques, for representing the personalised health domain in an abstract and representative way? RQ2 Is it possible to build a development platform based on this model? RQ3 Does the development platform help developers create complex integrated pHealth systems? Methods As method for describing the model, the ISO/IEC/IEEE 42010 framework [25] is adopted for its generality and high level of abstraction. The model is specified in different parts: a conceptual model, which makes use of concept maps, for representing stakeholders, artefacts and shared information, and in scenarios and use cases for the representation of the functionalities of pHealth systems. The model was derived from literature analysis, including 7 industrial and scientific reports, 9 electronic standards, 10 conference proceedings papers, 37 journal papers, 25 websites and 5 books. Based on the reference model, requirements were drawn for building the development platform enriched with a set of requirements gathered in a survey run among 11 experienced engineers. For developing the platform, the continuous integration methodology [74] was adopted which allowed to perform automatic tests on a server and also to deploy packaged releases on a web site. As a validation methodology, a theory building framework for SW engineering was adopted from [181]. The framework, chosen as a guide to find evidence for justifying the research questions, imposed the creation of theories based on models and propositions to be validated within a scope. The validation of the model was conducted as an on-line survey in three validation rounds, encompassing a growing number of participants. The survey was submitted to 134 experts of the field and on some public channels like relevant mailing lists and social networks. Its objective was to assess the model's readability, its level of coverage of the domain and its potential usefulness in the design of actual, derived systems. The questionnaires included quantitative Likert scale questions and free text inputs for comments. The development platform was validated in two scopes. As a small-scale experiment, the platform was used in a 12 hours training session where 4 developers had to perform an exercise consisting in developing a set of typical pHealth use cases At the end of the session, a focus group was held to identify benefits and drawbacks of the platform. The second validation was held as a test-case study in a large scale research project called HeartCycle the aim of which was to develop a closed-loop disease management system for heart failure and coronary heart disease patients [160]. During this project three applications were developed by a team of programmers and designers. One of these applications was tested in a clinical trial with actual patients. At the end of the project, the team was interviewed in a focus group to assess the role the platform had within the project. Results For what regards the model that describes the pHealth domain, its conceptual part includes a description of the main roles and concerns of pHealth stakeholders, a model of the ICT artefacts that are commonly adopted and a model representing the typical data that need to be formalized among pHealth systems. The functional model includes a set of 18 scenarios, divided into assisted person's view, caregiver's view, developer's view, technology and services providers' view and authority's view, and a set of 52 Use Cases grouped in 6 categories: assisted person's activities, system reactions, caregiver's activities, user engagement, developer's activities and deployer's activities. For what concerns the validation of the model, a total of 65 people participated in the online survey providing their level of agreement in all the assessed dimensions and a total of 248 comments on how to improve and complete the model. Participants' background spanned from engineering and software development (70%) to medical specialities (15%), with declared interest in the fields of eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), Personalized Medicine (5%), Personal Health Systems (15%), Medical Informatics (10%) and Biomedical Engineering (8%) with an average of 7.25_4.99 years of experience in these fields. From the analysis of the answers it is possible to observe that the contacted experts considered the model easily readable (average of 1.89_0.79 being 1 the most favourable scoring and 5 the worst), sufficiently abstract (1.99_0.88) and formal (2.13_0.77) for its purpose, with a sufficient coverage of the domain (2.26_0.95), useful for describing the domain (2.02_0.7) and for generating more specific systems (2_0.75) and they reported a partial interest in using the model in their job (2.48_0.91). Thanks to their comments, the model was improved and enriched with concepts that were missing at the beginning, nonetheless it was not possible to prove an improvement among the iterations, due to the diversity of the participants in the three rounds. From the model, a development platform for the pHealth domain was generated called pHealth Patient Platform (pHPP). The platform includes a set of libraries, programming and deployment tools, a tutorial and a sample application. The main four modules of the architecture are: the Data Collection Engine, which allows abstracting sources of information like sensors or external services, mapping data to databases and ontologies, and allowing event-based interaction and filtering, the GUI Engine, which abstracts the user interface in a message-like interaction model, the Workow Engine, which allows programming the application's user interaction ows with graphical workows, and the Rule Engine, which gives developers a simple means for programming the application's logic in the form of \if-then" rules. After the 5 years experience of HeartCycle, partially programmed with pHPP, 5 developers were joined in a focus group to discuss the advantages and drawbacks of the platform. The view that emerged from the training course and the focus group was that the platform is well-suited to the needs of the engineers working in the field, it allowed the separation of concerns among the different specialities and it simplified some common development tasks like data management and asynchronous interaction. Nevertheless, some deficiencies were pointed out in terms of a lack of maturity of some technological choices, and for the absence of some domain-specific tools, e.g. for data processing or for health-related communication protocols. Within HeartCycle, the platform was used to develop part of the Guided Exercise system, a composition of ICT tools for the physical rehabilitation of patients who suffered from myocardial infarction. The system developed using the platform was tested in a randomized controlled clinical trial, in which 55 patients used the system for 21 weeks. The technical results of this trial showed that the system was stable and reliable. Some minor bugs were detected, but these were promptly corrected using the platform. This shows that the platform, as well as facilitating the development task, can be successfully used to produce reliable software. Conclusions The research work carried out in developing this thesis provides responses to the three three research questions that were the motivation for the work. RQ1 A model was developed representing the domain of personalised health systems, and the assessment of experts in the field was that it represents the domain accurately, with an appropriate balance between abstraction and detail. RQ2 A development platform based on the model was successfully developed. RQ3 The platform has been shown to assist developers create complex pHealth software. This was demonstrated within the scope of one large-scale project, but the generic approach adopted provides indications that it would offer benefits more widely. The results of these evaluations provide indications that both the model and the platform are good candidates for being a reference for future pHealth developments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lo largo de los últimos años, el paradigma de la arquitectura orientada a servicios ha tenido una gran expansión gracias a la expansión de las tecnologías web e internet. Las ventajas de esta arquitectura se basan en ofrecer diseños modulares con poco acoplamiento entre sí, lo que permite la creación eficiente y sistemática de sistemas distribuidos. Para que este tipo de arquitectura sea posible, es necesario dotar a los servicios de interfaces de interconexión que permitan encapsular los servicios al mismo tiempo que faciliten el uso de los mismos. Existen varias tecnologías para definir estos interfaces. Entre ellas, los servicios REST, o REpresentional State Transfer, están logrando cada vez más aceptación. Esto se debe principalmente a su capacidad de escalabilidad y la uniformidad de sus interfaces, que permite una mayor separación entre los consumidores y los servicios. De hecho, compañias como Yahoo, Google o Twitter definen interfaces REST de acceso a sus servicios, ya se para consultar mapas (GoogleMaps), imágenes (Flickr) o el correo, permitiendo a terceros desarrollar clientes para sus servicios sin tener que involucrarse en su producción.