171 resultados para TESIS DE MAESTRIA EN GERENCIA DE SISTEMAS DE INFORMACION


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La iluminación con diodos emisores de luz (LED) está reemplazando cada vez en mayor medida a las fuentes de luz tradicionales. La iluminación LED ofrece ventajas en eficiencia, consumo de energía, diseño, tamaño y calidad de la luz. Durante más de 50 años, los investigadores han estado trabajando en mejoras LED. Su principal relevancia para la iluminación está aumentando rápidamente. Esta tesis se centra en un campo de aplicación importante, como son los focos. Se utilizan para enfocar la luz en áreas definidas, en objetos sobresalientes en condiciones profesionales. Esta iluminación de alto rendimiento requiere una calidad de luz definida, que incluya temperaturas ajustables de color correlacionadas (CCT), de alto índice de reproducción cromática (CRI), altas eficiencias, y colores vivos y brillantes. En el paquete LED varios chips de diferentes colores (rojo, azul, fósforo convertido) se combinan para cumplir con la distribución de energía espectral con alto CRI. Para colimar la luz en los puntos concretos deseados con un ángulo de emisión determinado, se utilizan blancos sintonizables y diversos colores de luz y ópticas secundarias. La combinación de una fuente LED de varios colores con elementos ópticos puede causar falta de homogeneidad cromática en la distribución espacial y angular de la luz, que debe resolverse en el diseño óptico. Sin embargo, no hay necesidad de uniformidad perfecta en el punto de luz debido al umbral en la percepción visual del ojo humano. Por lo tanto, se requiere una descripción matemática del nivel de uniformidad del color con respecto a la percepción visual. Esta tesis está organizada en siete capítulos. Después de un capítulo inicial que presenta la motivación que ha guiado la investigación de esta tesis, en el capítulo 2 se presentan los fundamentos científicos de la uniformidad del color en luces concentradas, como son: el espacio de color aplicado CIELAB, la percepción visual del color, los fundamentos de diseño de focos respecto a los motores de luz y ópticas no formadoras de imágenes, y los últimos avances en la evaluación de la uniformidad del color en el campo de los focos. El capítulo 3 desarrolla diferentes métodos para la descripción matemática de la distribución espacial del color en un área definida, como son la diferencia de color máxima, la desviación media del color, el gradiente de la distribución espacial de color, así como la suavidad radial y axial. Cada función se refiere a los diferentes factores que influyen en la visión, los cuales necesitan un tratamiento distinto que el de los datos que se tendrán en cuenta, además de funciones de ponderación que pre- y post-procesan los datos simulados o medidos para la reducción del ruido, la luminancia de corte, la aplicación de la ponderación de luminancia, la función de sensibilidad de contraste, y la función de distribución acumulativa. En el capítulo 4, se obtiene la función de mérito Usl para la estimación de la uniformidad del color percibida en focos. Se basó en los resultados de dos conjuntos de experimentos con factor humano realizados para evaluar la percepción visual de los sujetos de los patrones de focos típicos. El primer experimento con factor humano dio lugar al orden de importancia percibida de los focos. El orden de rango percibido se utilizó para correlacionar las descripciones matemáticas de las funciones básicas y la función ponderada sobre la distribución espacial del color, que condujo a la función Usl. El segundo experimento con factor humano probó la percepción de los focos bajo condiciones ambientales diversas, con el objetivo de proporcionar una escala absoluta para Usl, para poder así sustituir la opinión subjetiva personal de los individuos por una función de mérito estandarizada. La validación de la función Usl se presenta en relación con el alcance de la aplicación y condiciones, así como las limitaciones y restricciones que se realizan en el capítulo 5. Se compararon los datos medidos y simulados de varios sistemas ópticos. Se discuten los campos de aplicación , así como validaciones y restricciones de la función. El capítulo 6 presenta el diseño del sistema de focos y su optimización. Una evaluación muestra el análisis de sistemas basados en el reflector y la lente TIR. Los sistemas ópticos simulados se comparan en la uniformidad del color Usl, sensibilidad a las sombras coloreadas, eficiencia e intensidad luminosa máxima. Se ha comprobado que no hay un sistema único que obtenga los mejores resultados en todas las categorías, y que una excelente uniformidad de color se pudo alcanzar por la conjunción de dos sistemas diferentes. Finalmente, el capítulo 7 presenta el resumen de esta tesis y la perspectiva para investigar otros aspectos. ABSTRACT Illumination with light-emitting diodes (LED) is more and more replacing traditional light sources. They provide advantages in efficiency, energy consumption, design, size and light quality. For more than 50 years, researchers have been working on LED improvements. Their main relevance for illumination is rapidly increasing. This thesis is focused on one important field of application which are spotlights. They are used to focus light on defined areas, outstanding objects in professional conditions. This high performance illumination required a defined light quality including tunable correlated color temperatures (CCT), high color rendering index (CRI), high efficiencies and bright, vivid colors. Several differently colored chips (red, blue, phosphor converted) in the LED package are combined to meet spectral power distribution with high CRI, tunable white and several light colors and secondary optics are used to collimate the light into the desired narrow spots with defined angle of emission. The combination of multi-color LED source and optical elements may cause chromatic inhomogeneities in spatial and angular light distribution which needs to solved at the optical design. However, there is no need for perfect uniformity in the spot light due to threshold in visual perception of human eye. Therefore, a mathematical description of color uniformity level with regard to visual perception is required. This thesis is organized seven seven chapters. After an initial one presenting the motivation that has guided the research of this thesis, Chapter 2 introduces the scientific basics of color uniformity in spot lights including: the applied color space CIELAB, the visual color perception, the spotlight design fundamentals with regards to light engines and nonimaging optics, and the state of the art for the evaluation of color uniformity in the far field of spotlights. Chapter 3 develops different methods for mathematical description of spatial color distribution in a defined area, which are the maximum color difference, the average color deviation, the gradient of spatial color distribution as well as the radial and axial smoothness. Each function refers to different visual influencing factors, and they need different handling of data be taken into account, along with weighting functions which pre- and post-process the simulated or measured data for noise reduction, luminance cutoff, the implementation of luminance weighting, contrast sensitivity function, and cumulative distribution function. In chapter 4, the merit function Usl for the estimation of the perceived color uniformity in spotlights is derived. It was based on the results of two sets of human factor experiments performed to evaluate the visual perception of typical spotlight patterns by subjects. The first human factor experiment resulted in the perceived rank order of the spotlights. The perceived rank order was used to correlate the mathematical descriptions of basic functions and weighted function concerning the spatial color distribution, which lead to the Usl function. The second human factor experiment tested the perception of spotlights under varied environmental conditions, with to objective to provide an absolute scale for Usl, so the subjective personal opinion of individuals could be replaced by a standardized merit function. The validation of the Usl function is presented concerning the application range and conditions as well as limitations and restrictions in carried out in chapter 5. Measured and simulated data of various optical several systems were compared. Fields of applications are discussed as well as validations and restrictions of the function. Chapter 6 presents spotlight system design and their optimization. An evaluation shows the analysis of reflector-based and TIR lens systems. The simulated optical systems are compared in color uniformity Usl , sensitivity to colored shadows, efficiency, and peak luminous intensity. It has been found that no single system which performed best in all categories, and that excellent color uniformity could be reached by two different system assemblies. Finally, chapter 7 summarizes the conclusions of the present thesis and an outlook for further investigation topics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El deporte como fenómeno social y cultural ha sido ampliamente reivindicado por sus virtudes integradoras. A la actividad físico-deportiva, ya sea de competición o recreativa, se le han atribuido unos valores integradores que permitirían un ascenso de estatus social, argumento justificado en parte por los éxitos de jugadores de origen inmigrante en el deporte profesional. Por otro lado, el tejido asociativo, y especialmente el generado por la comunidad migrante, también utiliza la organización deportiva como forma de solidaridad y reivindicación identitaria. El objetivo de la tesis es analizar la formulación de los programas deportivos formulados a nivel político y asociativo en los barrios con mayor presencia de jóvenes inmigrantes y/o de segunda generación de París y Madrid destinadas a su integración sociocultural y analizar la implementación de dichas iniciativas. El método de recogida de datos consistió en la realización de 72 entrevistas en profundidad a varios niveles de responsabilidad política y de tipología de entidades sociales, así como el análisis documental de fuentes institucionales y asociativas. Los resultados muestran diferencias entre el planteamiento y la ejecución de las iniciativas condicionadas por el modelo de integración de cada contexto –oposición del modelo republicano en París al deporte comunitarista– y por la situación de crisis económica –fragilidad de los programas por el recorte presupuestario y subvenciones en el contexto madrileño–. Las conclusiones de esta tesis buscan profundizar en la verdadera contribución del deporte a la integración social y cultural de los jóvenes de origen inmigrante, y por extensión, a las sociedades culturalmente plurales. RÉSUMÉ Le sport en tant que phénomène social et culturel a été largement revendiqué pour ses vertus intégratrices. À l'activité physique et sportive, en forme de compétition où de loisirs, ont a attribué certaines valeurs intégratrices qui permettent une ascension de statut social, argument justifié en partie par le succès des joueurs d'origine immigrée dans le sport professionnel. Par ailleurs, le tissu associatif, et surtout celui engendré par la communauté migrante, a également utilisé l'organisation sportive comme une forme de solidarité et de revendication identitaire. L'objectif de la thèse est d'analyser la formulation des programmes sportifs à niveau politique et associatif dans les quartiers ayant une plus grande présence de jeunes immigrants et / ou deuxième génération de Paris et de Madrid, destinés à leur intégration socioculturelle et d'analyser la mise en oeuvre de ces initiatives. La méthode de collecte de données était de mener 72 entretiens semi-structurés à différents niveaux de responsabilité politique et de typologie des entités sociales, ainsi que l'analyse documentaire des sources officielles et associatives. Les résultats montrent des différences entre l'approche et la mise en oeuvre d'initiatives conditionnées par le modèle d'intégration de chaque contexte –l'opposition du modèle républicain à Paris envers le sport communautariste– et par la situation de crise économique –fragilité des programmes par les compressions budgétaires et les subventions dans le contexte madrilène–. Les conclusions de cette thèse visent à approfondir la véritable contribution du sport à l'intégration sociale et culturelle des jeunes immigrants, et, par extension, des sociétés culturellement plurielles. ABSTRACT Sport as a social and cultural phenomenon has been widely claimed by its integrative virtues. Whether competition or recreational, sport has been claimed for some integrative values that allow a rise in social status justified in part by the success of immigrant origin players in professional sports. On the other hand, associations, and especially those generated by the migrant community, also uses sports organization as a form of solidarity and identity recognition. The aim of the thesis is double: to understand the formulation of sports programs intended for sociocultural integration designed by political and and associative entities in neighborhoods with greater presence of young immigrants and/or second generation of Paris and Madrid and to analyze the implementation of such initiatives. The method of data collection was to conduct 72 in-depth interviews to various levels of political responsibility and typology of social entities and documentary analysis of institutional and associative sources. The results show differences between the approach and implementation of initiatives conditioned by the integration model of each context –an opposition of the republican model in Paris from ethnic sports– and the situation of economic crisis –programs weakness due to budget cuts and subsidies in the Madrid–. The conclusions of this thesis aim to deepen the true contribution of sport to social and cultural integration of young immigrants, and by extension, to culturally plural societies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diabetes comprende un conjunto de enfermedades metabólicas que se caracterizan por concentraciones de glucosa en sangre anormalmente altas. En el caso de la diabetes tipo 1 (T1D, por sus siglas en inglés), esta situación es debida a una ausencia total de secreción endógena de insulina, lo que impide a la mayoría de tejidos usar la glucosa. En tales circunstancias, se hace necesario el suministro exógeno de insulina para preservar la vida del paciente; no obstante, siempre con la precaución de evitar caídas agudas de la glucemia por debajo de los niveles recomendados de seguridad. Además de la administración de insulina, las ingestas y la actividad física son factores fundamentales que influyen en la homeostasis de la glucosa. En consecuencia, una gestión apropiada de la T1D debería incorporar estos dos fenómenos fisiológicos, en base a una identificación y un modelado apropiado de los mismos y de sus sorrespondientes efectos en el balance glucosa-insulina. En particular, los sistemas de páncreas artificial –ideados para llevar a cabo un control automático de los niveles de glucemia del paciente– podrían beneficiarse de la integración de esta clase de información. La primera parte de esta tesis doctoral cubre la caracterización del efecto agudo de la actividad física en los perfiles de glucosa. Con este objetivo se ha llevado a cabo una revisión sistemática de la literatura y meta-análisis que determinen las respuestas ante varias modalidades de ejercicio para pacientes con T1D, abordando esta caracterización mediante unas magnitudes que cuantifican las tasas de cambio en la glucemia a lo largo del tiempo. Por otro lado, una identificación fiable de los periodos con actividad física es un requisito imprescindible para poder proveer de esa información a los sistemas de páncreas artificial en condiciones libres y ambulatorias. Por esta razón, la segunda parte de esta tesis está enfocada a la propuesta y evaluación de un sistema automático diseñado para reconocer periodos de actividad física, clasificando su nivel de intensidad (ligera, moderada o vigorosa); así como, en el caso de periodos vigorosos, identificando también la modalidad de ejercicio (aeróbica, mixta o de fuerza). En este sentido, ambos aspectos tienen una influencia específica en el mecanismo metabólico que suministra la energía para llevar a cabo el ejercicio y, por tanto, en las respuestas glucémicas en T1D. En este trabajo se aplican varias combinaciones de técnicas de aprendizaje máquina y reconocimiento de patrones sobre la fusión multimodal de señales de acelerometría y ritmo cardíaco, las cuales describen tanto aspectos mecánicos del movimiento como la respuesta fisiológica del sistema cardiovascular ante el ejercicio. Después del reconocimiento de patrones se incorpora también un módulo de filtrado temporal para sacar partido a la considerable coherencia temporal presente en los datos, una redundancia que se origina en el hecho de que en la práctica, las tendencias en cuanto a actividad física suelen mantenerse estables a lo largo de cierto tiempo, sin fluctuaciones rápidas y repetitivas. El tercer bloque de esta tesis doctoral aborda el tema de las ingestas en el ámbito de la T1D. En concreto, se propone una serie de modelos compartimentales y se evalúan éstos en función de su capacidad para describir matemáticamente el efecto remoto de las concetraciones plasmáticas de insulina exógena sobre las tasas de eleiminación de la glucosa atribuible a la ingesta; un aspecto hasta ahora no incorporado en los principales modelos de paciente para T1D existentes en la literatura. Los datos aquí utilizados se obtuvieron gracias a un experimento realizado por el Institute of Metabolic Science (Universidad de Cambridge, Reino Unido) con 16 pacientes jóvenes. En el experimento, de tipo ‘clamp’ con objetivo variable, se replicaron los perfiles individuales de glucosa, según lo observado durante una visita preliminar tras la ingesta de una cena con o bien alta carga glucémica, o bien baja. Los seis modelos mecanísticos evaluados constaban de: a) submodelos de doble compartimento para las masas de trazadores de glucosa, b) un submodelo de único compartimento para reflejar el efecto remoto de la insulina, c) dos tipos de activación de este mismo efecto remoto (bien lineal, bien con un punto de corte), y d) diversas condiciones iniciales. ABSTRACT Diabetes encompasses a series of metabolic diseases characterized by abnormally high blood glucose concentrations. In the case of type 1 diabetes (T1D), this situation is caused by a total absence of endogenous insulin secretion, which impedes the use of glucose by most tissues. In these circumstances, exogenous insulin supplies are necessary to maintain patient’s life; although caution is always needed to avoid acute decays in glycaemia below safe levels. In addition to insulin administrations, meal intakes and physical activity are fundamental factors influencing glucose homoeostasis. Consequently, a successful management of T1D should incorporate these two physiological phenomena, based on an appropriate identification and modelling of these events and their corresponding effect on the glucose-insulin balance. In particular, artificial pancreas systems –designed to perform an automated control of patient’s glycaemia levels– may benefit from the integration of this type of information. The first part of this PhD thesis covers the characterization of the acute effect of physical activity on glucose profiles. With this aim, a systematic review of literature and metaanalyses are conduced to determine responses to various exercise modalities in patients with T1D, assessed via rates-of-change magnitudes to quantify temporal variations in glycaemia. On the other hand, a reliable identification of physical activity periods is an essential prerequisite to feed artificial pancreas systems with information concerning exercise in ambulatory, free-living conditions. For this reason, the second part of this thesis focuses on the proposal and evaluation of an automatic system devised to recognize physical activity, classifying its intensity level (light, moderate or vigorous) and for vigorous periods, identifying also its exercise modality (aerobic, mixed or resistance); since both aspects have a distinctive influence on the predominant metabolic pathway involved in fuelling exercise, and therefore, in the glycaemic responses in T1D. Various combinations of machine learning and pattern recognition techniques are applied on the fusion of multi-modal signal sources, namely: accelerometry and heart rate measurements, which describe both mechanical aspects of movement and the physiological response of the cardiovascular system to exercise. An additional temporal filtering module is incorporated after recognition in order to exploit the considerable temporal coherence (i.e. redundancy) present in data, which stems from the fact that in practice, physical activity trends are often maintained stable along time, instead of fluctuating rapid and repeatedly. The third block of this PhD thesis addresses meal intakes in the context of T1D. In particular, a number of compartmental models are proposed and compared in terms of their ability to describe mathematically the remote effect of exogenous plasma insulin concentrations on the disposal rates of meal-attributable glucose, an aspect which had not yet been incorporated to the prevailing T1D patient models in literature. Data were acquired in an experiment conduced at the Institute of Metabolic Science (University of Cambridge, UK) on 16 young patients. A variable-target glucose clamp replicated their individual glucose profiles, observed during a preliminary visit after ingesting either a high glycaemic-load or a low glycaemic-load evening meal. The six mechanistic models under evaluation here comprised: a) two-compartmental submodels for glucose tracer masses, b) a single-compartmental submodel for insulin’s remote effect, c) two types of activations for this remote effect (either linear or with a ‘cut-off’ point), and d) diverse forms of initial conditions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta tesis se investiga la interacción entre un fluido viscoso y un cuerpo sólido en presencia de una superficie libre. El problema se expresa teóricamente poniendo especial atención a los aspectos de conservación de energía y de la interacción del fluido con el cuerpo. El problema se considera 2D y monofásico, y un desarrollo matemático permite una descomposición de los términos disipativos en términos relacionados con la superficie libre y términos relacionados con la enstrofía. El modelo numérico utilizado en la tesis se basa en el método sin malla Smoothed Particle Hydrodynamics (SPH). De manera análoga a lo que se hace a nivel continuo, las propiedades de conservación se estudian en la tesis con el sistema discreto de partículas. Se tratan también las condiciones de contorno de un cuerpo que se mueve en un flujo viscoso, implementadas con el método ghost-fluid. Se ha desarrollado un algoritmo explícito de interacción fluido / cuerpo. Se han documentado algunos casos de modo detallado con el objetivo de comprobar la capacidad del modelo para reproducir correctamente la disipación de energía y el movimiento del cuerpo. En particular se ha investigado la atenuación de una onda estacionaria, comparando la simulación numérica con predicciones teóricas. Se han realizado otras pruebas para monitorizar la disipación de energía para flujos más violentos que implican la fragmentación de la superficie libre. La cantidad de energía disipada con los diferentes términos se ha evaluado en los casos estudiados con el modelo numérico. Se han realizado otras pruebas numéricas para verificar la técnica de modelización de la interacción fluido / cuerpo, concretamente las fuerzas ejercidas por las olas en cuerpos con formas simples, y el equilibrio de un cuerpo flotante con una forma compleja. Una vez que el modelo numérico ha sido validado, se han realizado simulaciones numéricas para obtener una comprensión más completa de la física implicada en casos (casi) realistas sobre los había aspectos que no se conocían suficientemente. En primer lugar se ha estudiado el el flujo alrededor de un cilindro bajo la superficie libre. El estudio se ha realizado con un número de Reynolds moderado, para un rango de inmersiones del cilindro y números de Froude. La solución numérica permite una investigación de los patrones complejos que se producen. La estela del cilindro interactúa con la superficie libre. Se han identificado algunos inestabilidades características. El segundo estudio se ha realizado sobre el problema de sloshing, tanto experimentalmente como numéricamente. El análisis se restringe a aguas poco profundas y con oscilación horizontal, pero se ha estudiado un gran número de condiciones, lo que lleva a una comprensión bastante completa de los sistemas de onda involucradas. La última parte de la tesis trata también sobre un problema de sloshing pero esta vez el tanque está oscilando con rotación y hay acoplamiento con un sistema mecánico. El sistema se llama pendulum-TLD (Tuned Liquid Damper - con líquido amortiguador). Este tipo de sistema se utiliza normalmente para la amortiguación de las estructuras civiles. El análisis se ha realizado analíticamente, numéricamente y experimentalmente utilizando líquidos con viscosidades diferentes, centrándose en características no lineales y mecanismos de disipación. ABSTRA C T The subject of the present thesis is the interaction between a viscous fluid and a solid body in the presence of a free surface. The problem is expressed first theoretically with a particular focus on the energy conservation and the fluid-body interaction. The problem is considered 2D and monophasic, and some mathematical development allows for a decomposition of the energy dissipation into terms related to the Free Surface and others related to the enstrophy. The numerical model used on the thesis is based on Smoothed Particle Hydrodynamics (SPH): a computational method that works by dividing the fluid into particles. Analogously to what is done at continuum level, the conservation properties are studied on the discrete system of particles. Additionally the boundary conditions for a moving body in a viscous flow are treated and discussed using the ghost-fluid method. An explicit algorithm for handling fluid-body coupling is also developed. Following these theoretical developments on the numerical model, some test cases are devised in order to test the ability of the model to correctly reproduce the energy dissipation and the motion of the body. The attenuation of a standing wave is used to compare what is numerically simulated to what is theoretically predicted. Further tests are done in order to monitor the energy dissipation in case of more violent flows involving the fragmentation of the free-surface. The amount of energy dissipated with the different terms is assessed with the numerical model. Other numerical tests are performed in order to test the fluid/body interaction method: forces exerted by waves on simple shapes, and equilibrium of a floating body with a complex shape. Once the numerical model has been validated, numerical tests are performed in order to get a more complete understanding of the physics involved in (almost) realistic cases. First a study is performed on the flow passing a cylinder under the free surface. The study is performed at moderate Reynolds numbers, for various cylinder submergences, and various Froude numbers. The capacity of the numerical solver allows for an investigation of the complex patterns which occur. The wake from the cylinder interacts with the free surface, and some characteristical flow mechanisms are identified. The second study is done on the sloshing problem, both experimentally and numerically. The analysis is restrained to shallow water and horizontal excitation, but a large number of conditions are studied, leading to quite a complete understanding of the wave systems involved. The last part of the thesis still involves a sloshing problem but this time the tank is rolling and there is coupling with a mechanical system. The system is named pendulum-TLD (Tuned Liquid Damper). This kind of system is normally used for damping of civil structures. The analysis is then performed analytically, numerically and experimentally for using liquids with different viscosities, focusing on non-linear features and dissipation mechanisms.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La última década ha sido testigo de importantes avances en el campo de la tecnología de reconocimiento de voz. Los sistemas comerciales existentes actualmente poseen la capacidad de reconocer habla continua de múltiples locutores, consiguiendo valores aceptables de error, y sin la necesidad de realizar procedimientos explícitos de adaptación. A pesar del buen momento que vive esta tecnología, el reconocimiento de voz dista de ser un problema resuelto. La mayoría de estos sistemas de reconocimiento se ajustan a dominios particulares y su eficacia depende de manera significativa, entre otros muchos aspectos, de la similitud que exista entre el modelo de lenguaje utilizado y la tarea específica para la cual se está empleando. Esta dependencia cobra aún más importancia en aquellos escenarios en los cuales las propiedades estadísticas del lenguaje varían a lo largo del tiempo, como por ejemplo, en dominios de aplicación que involucren habla espontánea y múltiples temáticas. En los últimos años se ha evidenciado un constante esfuerzo por mejorar los sistemas de reconocimiento para tales dominios. Esto se ha hecho, entre otros muchos enfoques, a través de técnicas automáticas de adaptación. Estas técnicas son aplicadas a sistemas ya existentes, dado que exportar el sistema a una nueva tarea o dominio puede requerir tiempo a la vez que resultar costoso. Las técnicas de adaptación requieren fuentes adicionales de información, y en este sentido, el lenguaje hablado puede aportar algunas de ellas. El habla no sólo transmite un mensaje, también transmite información acerca del contexto en el cual se desarrolla la comunicación hablada (e.g. acerca del tema sobre el cual se está hablando). Por tanto, cuando nos comunicamos a través del habla, es posible identificar los elementos del lenguaje que caracterizan el contexto, y al mismo tiempo, rastrear los cambios que ocurren en estos elementos a lo largo del tiempo. Esta información podría ser capturada y aprovechada por medio de técnicas de recuperación de información (information retrieval) y de aprendizaje de máquina (machine learning). Esto podría permitirnos, dentro del desarrollo de mejores sistemas automáticos de reconocimiento de voz, mejorar la adaptación de modelos del lenguaje a las condiciones del contexto, y por tanto, robustecer al sistema de reconocimiento en dominios con condiciones variables (tales como variaciones potenciales en el vocabulario, el estilo y la temática). En este sentido, la principal contribución de esta Tesis es la propuesta y evaluación de un marco de contextualización motivado por el análisis temático y basado en la adaptación dinámica y no supervisada de modelos de lenguaje para el robustecimiento de un sistema automático de reconocimiento de voz. Esta adaptación toma como base distintos enfoque de los sistemas mencionados (de recuperación de información y aprendizaje de máquina) mediante los cuales buscamos identificar las temáticas sobre las cuales se está hablando en una grabación de audio. Dicha identificación, por lo tanto, permite realizar una adaptación del modelo de lenguaje de acuerdo a las condiciones del contexto. El marco de contextualización propuesto se puede dividir en dos sistemas principales: un sistema de identificación de temática y un sistema de adaptación dinámica de modelos de lenguaje. Esta Tesis puede describirse en detalle desde la perspectiva de las contribuciones particulares realizadas en cada uno de los campos que componen el marco propuesto: _ En lo referente al sistema de identificación de temática, nos hemos enfocado en aportar mejoras a las técnicas de pre-procesamiento de documentos, asimismo en contribuir a la definición de criterios más robustos para la selección de index-terms. – La eficiencia de los sistemas basados tanto en técnicas de recuperación de información como en técnicas de aprendizaje de máquina, y específicamente de aquellos sistemas que particularizan en la tarea de identificación de temática, depende, en gran medida, de los mecanismos de preprocesamiento que se aplican a los documentos. Entre las múltiples operaciones que hacen parte de un esquema de preprocesamiento, la selección adecuada de los términos de indexado (index-terms) es crucial para establecer relaciones semánticas y conceptuales entre los términos y los documentos. Este proceso también puede verse afectado, o bien por una mala elección de stopwords, o bien por la falta de precisión en la definición de reglas de lematización. En este sentido, en este trabajo comparamos y evaluamos diferentes criterios para el preprocesamiento de los documentos, así como también distintas estrategias para la selección de los index-terms. Esto nos permite no sólo reducir el tamaño de la estructura de indexación, sino también mejorar el proceso de identificación de temática. – Uno de los aspectos más importantes en cuanto al rendimiento de los sistemas de identificación de temática es la asignación de diferentes pesos a los términos de acuerdo a su contribución al contenido del documento. En este trabajo evaluamos y proponemos enfoques alternativos a los esquemas tradicionales de ponderado de términos (tales como tf-idf ) que nos permitan mejorar la especificidad de los términos, así como también discriminar mejor las temáticas de los documentos. _ Respecto a la adaptación dinámica de modelos de lenguaje, hemos dividimos el proceso de contextualización en varios pasos. – Para la generación de modelos de lenguaje basados en temática, proponemos dos tipos de enfoques: un enfoque supervisado y un enfoque no supervisado. En el primero de ellos nos basamos en las etiquetas de temática que originalmente acompañan a los documentos del corpus que empleamos. A partir de estas, agrupamos los documentos que forman parte de la misma temática y generamos modelos de lenguaje a partir de dichos grupos. Sin embargo, uno de los objetivos que se persigue en esta Tesis es evaluar si el uso de estas etiquetas para la generación de modelos es óptimo en términos del rendimiento del reconocedor. Por esta razón, nosotros proponemos un segundo enfoque, un enfoque no supervisado, en el cual el objetivo es agrupar, automáticamente, los documentos en clusters temáticos, basándonos en la similaridad semántica existente entre los documentos. Por medio de enfoques de agrupamiento conseguimos mejorar la cohesión conceptual y semántica en cada uno de los clusters, lo que a su vez nos permitió refinar los modelos de lenguaje basados en temática y mejorar el rendimiento del sistema de reconocimiento. – Desarrollamos diversas estrategias para generar un modelo de lenguaje dependiente del contexto. Nuestro objetivo es que este modelo refleje el contexto semántico del habla, i.e. las temáticas más relevantes que se están discutiendo. Este modelo es generado por medio de la interpolación lineal entre aquellos modelos de lenguaje basados en temática que estén relacionados con las temáticas más relevantes. La estimación de los pesos de interpolación está basada principalmente en el resultado del proceso de identificación de temática. – Finalmente, proponemos una metodología para la adaptación dinámica de un modelo de lenguaje general. El proceso de adaptación tiene en cuenta no sólo al modelo dependiente del contexto sino también a la información entregada por el proceso de identificación de temática. El esquema usado para la adaptación es una interpolación lineal entre el modelo general y el modelo dependiente de contexto. Estudiamos también diferentes enfoques para determinar los pesos de interpolación entre ambos modelos. Una vez definida la base teórica de nuestro marco de contextualización, proponemos su aplicación dentro de un sistema automático de reconocimiento de voz. Para esto, nos enfocamos en dos aspectos: la contextualización de los modelos de lenguaje empleados por el sistema y la incorporación de información semántica en el proceso de adaptación basado en temática. En esta Tesis proponemos un marco experimental basado en una arquitectura de reconocimiento en ‘dos etapas’. En la primera etapa, empleamos sistemas basados en técnicas de recuperación de información y aprendizaje de máquina para identificar las temáticas sobre las cuales se habla en una transcripción de un segmento de audio. Esta transcripción es generada por el sistema de reconocimiento empleando un modelo de lenguaje general. De acuerdo con la relevancia de las temáticas que han sido identificadas, se lleva a cabo la adaptación dinámica del modelo de lenguaje. En la segunda etapa de la arquitectura de reconocimiento, usamos este modelo adaptado para realizar de nuevo el reconocimiento del segmento de audio. Para determinar los beneficios del marco de trabajo propuesto, llevamos a cabo la evaluación de cada uno de los sistemas principales previamente mencionados. Esta evaluación es realizada sobre discursos en el dominio de la política usando la base de datos EPPS (European Parliamentary Plenary Sessions - Sesiones Plenarias del Parlamento Europeo) del proyecto europeo TC-STAR. Analizamos distintas métricas acerca del rendimiento de los sistemas y evaluamos las mejoras propuestas con respecto a los sistemas de referencia. ABSTRACT The last decade has witnessed major advances in speech recognition technology. Today’s commercial systems are able to recognize continuous speech from numerous speakers, with acceptable levels of error and without the need for an explicit adaptation procedure. Despite this progress, speech recognition is far from being a solved problem. Most of these systems are adjusted to a particular domain and their efficacy depends significantly, among many other aspects, on the similarity between the language model used and the task that is being addressed. This dependence is even more important in scenarios where the statistical properties of the language fluctuates throughout the time, for example, in application domains involving spontaneous and multitopic speech. Over the last years there has been an increasing effort in enhancing the speech recognition systems for such domains. This has been done, among other approaches, by means of techniques of automatic adaptation. These techniques are applied to the existing systems, specially since exporting the system to a new task or domain may be both time-consuming and expensive. Adaptation techniques require additional sources of information, and the spoken language could provide some of them. It must be considered that speech not only conveys a message, it also provides information on the context in which the spoken communication takes place (e.g. on the subject on which it is being talked about). Therefore, when we communicate through speech, it could be feasible to identify the elements of the language that characterize the context, and at the same time, to track the changes that occur in those elements over time. This information can be extracted and exploited through techniques of information retrieval and machine learning. This allows us, within the development of more robust speech recognition systems, to enhance the adaptation of language models to the conditions of the context, thus strengthening the recognition system for domains under changing conditions (such as potential variations in vocabulary, style and topic). In this sense, the main contribution of this Thesis is the proposal and evaluation of a framework of topic-motivated contextualization based on the dynamic and non-supervised adaptation of language models for the enhancement of an automatic speech recognition system. This adaptation is based on an combined approach (from the perspective of both information retrieval and machine learning fields) whereby we identify the topics that are being discussed in an audio recording. The topic identification, therefore, enables the system to perform an adaptation of the language model according to the contextual conditions. The proposed framework can be divided in two major systems: a topic identification system and a dynamic language model adaptation system. This Thesis can be outlined from the perspective of the particular contributions made in each of the fields that composes the proposed framework: _ Regarding the topic identification system, we have focused on the enhancement of the document preprocessing techniques in addition to contributing in the definition of more robust criteria for the selection of index-terms. – Within both information retrieval and machine learning based approaches, the efficiency of topic identification systems, depends, to a large extent, on the mechanisms of preprocessing applied to the documents. Among the many operations that encloses the preprocessing procedures, an adequate selection of index-terms is critical to establish conceptual and semantic relationships between terms and documents. This process might also be weakened by a poor choice of stopwords or lack of precision in defining stemming rules. In this regard we compare and evaluate different criteria for preprocessing the documents, as well as for improving the selection of the index-terms. This allows us to not only reduce the size of the indexing structure but also to strengthen the topic identification process. – One of the most crucial aspects, in relation to the performance of topic identification systems, is to assign different weights to different terms depending on their contribution to the content of the document. In this sense we evaluate and propose alternative approaches to traditional weighting schemes (such as tf-idf ) that allow us to improve the specificity of terms, and to better identify the topics that are related to documents. _ Regarding the dynamic language model adaptation, we divide the contextualization process into different steps. – We propose supervised and unsupervised approaches for the generation of topic-based language models. The first of them is intended to generate topic-based language models by grouping the documents, in the training set, according to the original topic labels of the corpus. Nevertheless, a goal of this Thesis is to evaluate whether or not the use of these labels to generate language models is optimal in terms of recognition accuracy. For this reason, we propose a second approach, an unsupervised one, in which the objective is to group the data in the training set into automatic topic clusters based on the semantic similarity between the documents. By means of clustering approaches we expect to obtain a more cohesive association of the documents that are related by similar concepts, thus improving the coverage of the topic-based language models and enhancing the performance of the recognition system. – We develop various strategies in order to create a context-dependent language model. Our aim is that this model reflects the semantic context of the current utterance, i.e. the most relevant topics that are being discussed. This model is generated by means of a linear interpolation between the topic-based language models related to the most relevant topics. The estimation of the interpolation weights is based mainly on the outcome of the topic identification process. – Finally, we propose a methodology for the dynamic adaptation of a background language model. The adaptation process takes into account the context-dependent model as well as the information provided by the topic identification process. The scheme used for the adaptation is a linear interpolation between the background model and the context-dependent one. We also study different approaches to determine the interpolation weights used in this adaptation scheme. Once we defined the basis of our topic-motivated contextualization framework, we propose its application into an automatic speech recognition system. We focus on two aspects: the contextualization of the language models used by the system, and the incorporation of semantic-related information into a topic-based adaptation process. To achieve this, we propose an experimental framework based in ‘a two stages’ recognition architecture. In the first stage of the architecture, Information Retrieval and Machine Learning techniques are used to identify the topics in a transcription of an audio segment. This transcription is generated by the recognition system using a background language model. According to the confidence on the topics that have been identified, the dynamic language model adaptation is carried out. In the second stage of the recognition architecture, an adapted language model is used to re-decode the utterance. To test the benefits of the proposed framework, we carry out the evaluation of each of the major systems aforementioned. The evaluation is conducted on speeches of political domain using the EPPS (European Parliamentary Plenary Sessions) database from the European TC-STAR project. We analyse several performance metrics that allow us to compare the improvements of the proposed systems against the baseline ones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es bien conocido por todos que la Primera Revolución Industrial, que tuvo su inicio en la segunda mitad del Siglo XVIII, conllevó un aumento del uso de los recursos energéticos que no se ha detenido para llegar a los niveles de desarrollo tecnológico, industrial y de calidad de vida, de los que se dispone en la actualidad. A simple vista podría intuirse que para disponer de un mayor nivel tecnológico, industrial, de confort, etc. sea necesario un mayor consumo de energía primaria. La actual generación de energía está principalmente basada en el procesamiento de los diversos compuestos del carbono (hidrocarburos, gases y productos derivados del petróleo), que son contaminantes y además, se agotan. Desde hace unas pocas décadas, la humanidad ha sido consciente que es necesario generar energía a partir de fuentes de origen renovable, y que además resulten menos contaminantes. Así, en la actualidad, se ha llegado a un estado de desarrollo avanzado para la explotación de diversas fuentes de energías como la eólica, a la vez que se comienza a mirar con realismo la posibilidad de explotación de diversas energías de origen marino. Se considera que las energías renovables procedentes de los océanos que se encuentran más desarrolladas tecnológicamente hablando, sin tener en cuenta la energía eólica fuera costa (offshore), son la denominada energía undimotriz o de las olas y la energía de las corrientes marinas, no necesariamente en este orden. El trabajo propuesto en esta Tesis se centra en este último recurso energético y, aunque no se dispone todavía de ningún dispositivo en fase de explotación comercial, la concepción, diseño y desarrollo de dispositivos para la extracción de energía de las corrientes, y su evolución, han sido relativamente rápidos e importantes en estos últimos años. Existen ya diferentes dispositivos en fase de pruebas con resultados muy prometedores. Aunque los dispositivos actuales se encuentran limitados a la explotación energética en zonas de poca profundidad, los diferentes estudios del recurso indican la necesidad de explotar corrientes marinas a mayores profundidades, para lo que se están desarrollando actualmente dispositivos, cuya evolución en lo que a sistemas de fondeo se refiere, está siendo muy parecida a la que se ha producido en los parques eólicos fuera costa, similar a su vez, a la evolución llevada a cabo en las plataformas oceánicas para la explotación de recursos petrolíferos (denominados oil & gas) que se extraen de profundidades cada vez mayores. Las soluciones tecnológicas que resulten válidas han de ser también económicamente viables, y en la actualidad se requiere todavía reducir costos en todas las fases de instalación, explotación y mantenimiento de estos dispositivos, sea cual sea su profundidad de operación. Uno de los focos de estudio para abaratar los costes de explotación en general, pasa por abaratar y reducir los costes en las maniobras necesarias de inmersión (de la superficie del mar a la profundidad de operación) y emersión (de la profundidad de operación a la superficie del mar) de estos dispositivos, para llevar a cabo tareas de mantenimiento in situ, en el mar, y sin necesidad de buques especializados ni de su transporte a tierra. En esta Tesis se propone, en primer lugar, un método para evaluar el ciclo de vida de diversos dispositivos de aprovechamiento de las corrientes marinas. Se evidencia que el coste de la energía así generada sigue siendo no plenamente competitivo, por lo que se requiere avanzar en el abaratamiento de costes, principalmente en la instalación y en su mantenimiento. Para ello se propone como novedad principal, introducir sistemas de control en lazo cerrado para realizar maniobras de instalación y mantenimiento de forma automática. También se aporta un modelo dinámico original y muy sencillo para dispositivos bajo estos movimientos de emersión/inmersión, a partir del cual se han desarrollado los algoritmos de control para el propósito mencionado, que no es otro sino automatizar en todo lo posible las maniobras completas. Los algoritmos de control propuestos han sido validados mediante simulación. Se proponen trayectorias de referencia de movimiento suaves (smooth) similares a las utilizadas en robótica. Estos movimientos de cambios de profundidad en lazo cerrado, combinados con secuencias de movimientos en bucle abierto para cuando el dispositivo interacciona en la superficie libre, han dado lugar a nuevas maniobras completas de instalación y mantenimiento que se presentan en esta Tesis, diferentes a las actuales. Finalmente, y como justificación de la viabilidad económica del método novedoso aportado, se ha realizado un estudio comparativo de los costes de la tecnología propuesta, frente a la tecnología actual. Este nuevo sistema de maniobras automáticas implica un ciclo de vida diferente para los dispositivos de aprovechamiento de la energía de las corrientes, ciclo que se cuantifica a partir de un dispositivo base que ha sido modificado y adaptado para la nueva tecnología propuesta, demostrando su viabilidad tanto técnica como económica. ABSTRACT It’s well known that the First Industrial Revolution started in the second half of the eighteenth century, carried the increasing of the use of energy resource which have not been stopped until reach the present technology, industrial evolution and daily life quality. On the surface, it can be known intuitively that a higher consumption of primary energy resource is demanded for benefiting from a higher technological industrial and daily life level. Today, the generation of energy is mainly based in the processing of carbon products (hydrocarbons, gases and petroleum products) which are pollutants, and additionally, are depleted. From a few decades ago, the humanity is aware the energy should be obtained from renewable resources, which besides, should be cleaner. So, at the present, a technical develop has been gained to exploit several energy source, as wind energy, and, at the same time, the extraction of the marine energy starts to seem as a reality. The renewable marine energies considered more advanced and technically developed, without keeping in mind, the offshore wind energy, are the wave energy and the tidal current energy, not necessarily in that order. This Thesis is focused in this last energy resource, and, although, any device is under commercial operation, the concept, design and develop of this type of devices to extract the tidal current energy and their evolution has been comparatively fast and important the last years. There are several devices under test with promising results. Even through the current devices are limited to lower depth areas, the several studies of the tidal energy resource suggest the need to exploit the marine current at greater depths to what is being developed devices, where their evolution in the anchoring system is being very similar to the evolution performed in the offshore wind farms, which is at the same time, similar to the evolution in the oil and gas exploitation which are extracted to greatest depths. Viable technical solutions should be also viable economically and nowadays the cost in all phases of the project (installation, maintenance and operation) should be decreased whatever the operation depth is. One focus of study to lower the operation cost is the cost decreasing of immersion manoeuvring operations (from sea surface to the operation depth) and immersion manoeuvring operations (from operation depth to the sea surface), therefore the maintenance operations can be performed on – site, in the sea, and no specialized vessels are required to transport the devices from the sea to shore. In this dissertation, firstly is proposed a method to evaluate the life cycle of the tidal energy current devices. It is proved the energy generated by these devices is not fully competitive; therefore, the cost falling is mainly an objective in the installation and the maintenance operations. For that, it is proposed as main novelty, the using of closed loop control systems to perform the automatic installation and manoeuvring operations. It is also contributed with an original and simple dynamic model and for controlling the immersion/emersion movements of these devices, from which the control algorithms are developed in order to automate as much as possible the complete manoeuvring. The control algorithms proposed has been validated by simulations. Reference paths with smooth movements, similar which are used in robotics, are suggested. These movements to change the depth using closed loop control, combined with the sequences in open loop movements when the device is in free surface, have been development for a new complete manoeuvring to installation and maintenance operations which are advanced in this Thesis and they are different to the present manoeuvrings. Finally and as justification of the economic viability of this original method, a comparative cost study between the technology proposed and the current technology is performed. This new automatic manoeuvring system involves a different life cycle for the tidal energy current devices, cycle that is quantified from a base device which has been modified and adapted for the new proposed technology, showing the technical and economic viability.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El cerebro humano es probablemente uno de los sistemas más complejos a los que nos enfrentamos en la actualidad, si bien es también uno de los más fascinantes. Sin embargo, la compresión de cómo el cerebro organiza su actividad para llevar a cabo tareas complejas es un problema plagado de restos y obstáculos. En sus inicios la neuroimagen y la electrofisiología tenían como objetivo la identificación de regiones asociadas a activaciones relacionadas con tareas especificas, o con patrones locales que variaban en el tiempo dada cierta actividad. Sin embargo, actualmente existe un consenso acerca de que la actividad cerebral tiene un carácter temporal multiescala y espacialmente extendido, lo que lleva a considerar el cerebro como una gran red de áreas cerebrales coordinadas, cuyas conexiones funcionales son continuamente creadas y destruidas. Hasta hace poco, el énfasis de los estudios de la actividad cerebral funcional se han centrado en la identidad de los nodos particulares que forman estas redes, y en la caracterización de métricas de conectividad entre ellos: la hipótesis subyacente es que cada nodo, que es una representación mas bien aproximada de una región cerebral dada, ofrece a una única contribución al total de la red. Por tanto, la neuroimagen funcional integra los dos ingredientes básicos de la neuropsicología: la localización de la función cognitiva en módulos cerebrales especializados y el rol de las fibras de conexión en la integración de dichos módulos. Sin embargo, recientemente, la estructura y la función cerebral han empezado a ser investigadas mediante la Ciencia de la Redes, una interpretación mecánico-estadística de una antigua rama de las matemáticas: La teoría de grafos. La Ciencia de las Redes permite dotar a las redes funcionales de una gran cantidad de propiedades cuantitativas (robustez, centralidad, eficiencia, ...), y así enriquecer el conjunto de elementos que describen objetivamente la estructura y la función cerebral a disposición de los neurocientíficos. La conexión entre la Ciencia de las Redes y la Neurociencia ha aportado nuevos puntos de vista en la comprensión de la intrincada anatomía del cerebro, y de cómo las patrones de actividad cerebral se pueden sincronizar para generar las denominadas redes funcionales cerebrales, el principal objeto de estudio de esta Tesis Doctoral. Dentro de este contexto, la complejidad emerge como el puente entre las propiedades topológicas y dinámicas de los sistemas biológicos y, específicamente, en la relación entre la organización y la dinámica de las redes funcionales cerebrales. Esta Tesis Doctoral es, en términos generales, un estudio de cómo la actividad cerebral puede ser entendida como el resultado de una red de un sistema dinámico íntimamente relacionado con los procesos que ocurren en el cerebro. Con este fin, he realizado cinco estudios que tienen en cuenta ambos aspectos de dichas redes funcionales: el topológico y el dinámico. De esta manera, la Tesis está dividida en tres grandes partes: Introducción, Resultados y Discusión. En la primera parte, que comprende los Capítulos 1, 2 y 3, se hace un resumen de los conceptos más importantes de la Ciencia de las Redes relacionados al análisis de imágenes cerebrales. Concretamente, el Capitulo 1 está dedicado a introducir al lector en el mundo de la complejidad, en especial, a la complejidad topológica y dinámica de sistemas acoplados en red. El Capítulo 2 tiene como objetivo desarrollar los fundamentos biológicos, estructurales y funcionales del cerebro, cuando éste es interpretado como una red compleja. En el Capítulo 3, se resumen los objetivos esenciales y tareas que serán desarrolladas a lo largo de la segunda parte de la Tesis. La segunda parte es el núcleo de la Tesis, ya que contiene los resultados obtenidos a lo largo de los últimos cuatro años. Esta parte está dividida en cinco Capítulos, que contienen una versión detallada de las publicaciones llevadas a cabo durante esta Tesis. El Capítulo 4 está relacionado con la topología de las redes funcionales y, específicamente, con la detección y cuantificación de los nodos mas importantes: aquellos denominados “hubs” de la red. En el Capítulo 5 se muestra como las redes funcionales cerebrales pueden ser vistas no como una única red, sino más bien como una red-de-redes donde sus componentes tienen que coexistir en una situación de balance funcional. De esta forma, se investiga cómo los hemisferios cerebrales compiten para adquirir centralidad en la red-de-redes, y cómo esta interacción se mantiene (o no) cuando se introducen fallos deliberadamente en la red funcional. El Capítulo 6 va un paso mas allá al considerar las redes funcionales como sistemas vivos. En este Capítulo se muestra cómo al analizar la evolución de la topología de las redes, en vez de tratarlas como si estas fueran un sistema estático, podemos caracterizar mejor su estructura. Este hecho es especialmente relevante cuando se quiere tratar de encontrar diferencias entre grupos que desempeñan una tarea de memoria, en la que las redes funcionales tienen fuertes fluctuaciones. En el Capítulo 7 defino cómo crear redes parenclíticas a partir de bases de datos de actividad cerebral. Este nuevo tipo de redes, recientemente introducido para estudiar las anormalidades entre grupos de control y grupos anómalos, no ha sido implementado nunca en datos cerebrales y, en este Capítulo explico cómo hacerlo cuando se quiere evaluar la consistencia de la dinámica cerebral. Para concluir esta parte de la Tesis, el Capítulo 8 se centra en la relación entre las propiedades topológicas de los nodos dentro de una red y sus características dinámicas. Como mostraré más adelante, existe una relación entre ellas que revela que la posición de un nodo dentro una red está íntimamente correlacionada con sus propiedades dinámicas. Finalmente, la última parte de esta Tesis Doctoral está compuesta únicamente por el Capítulo 9, el cual contiene las conclusiones y perspectivas futuras que pueden surgir de los trabajos expuestos. En vista de todo lo anterior, espero que esta Tesis aporte una perspectiva complementaria sobre uno de los más extraordinarios sistemas complejos frente a los que nos encontramos: El cerebro humano. ABSTRACT The human brain is probably one of the most complex systems we are facing, thus being a timely and fascinating object of study. Characterizing how the brain organizes its activity to carry out complex tasks is highly non-trivial. While early neuroimaging and electrophysiological studies typically aimed at identifying patches of task-specific activations or local time-varying patterns of activity, there has now been consensus that task-related brain activity has a temporally multiscale, spatially extended character, as networks of coordinated brain areas are continuously formed and destroyed. Up until recently, though, the emphasis of functional brain activity studies has been on the identity of the particular nodes forming these networks, and on the characterization of connectivity metrics between them, the underlying covert hypothesis being that each node, constituting a coarse-grained representation of a given brain region, provides a unique contribution to the whole. Thus, functional neuroimaging initially integrated the two basic ingredients of early neuropsychology: localization of cognitive function into specialized brain modules and the role of connection fibres in the integration of various modules. Lately, brain structure and function have started being investigated using Network Science, a statistical mechanics understanding of an old branch of pure mathematics: graph theory. Network Science allows endowing networks with a great number of quantitative properties, thus vastly enriching the set of objective descriptors of brain structure and function at neuroscientists’ disposal. The link between Network Science and Neuroscience has shed light about how the entangled anatomy of the brain is, and how cortical activations may synchronize to generate the so-called functional brain networks, the principal object under study along this PhD Thesis. Within this context, complexity appears to be the bridge between the topological and dynamical properties of biological systems and, more specifically, the interplay between the organization and dynamics of functional brain networks. This PhD Thesis is, in general terms, a study of how cortical activations can be understood as the output of a network of dynamical systems that are intimately related with the processes occurring in the brain. In order to do that, I performed five studies that encompass both the topological and the dynamical aspects of such functional brain networks. In this way, the Thesis is divided into three major parts: Introduction, Results and Discussion. In the first part, comprising Chapters 1, 2 and 3, I make an overview of the main concepts of Network Science related to the analysis of brain imaging. More specifically, Chapter 1 is devoted to introducing the reader to the world of complexity, specially to the topological and dynamical complexity of networked systems. Chapter 2 aims to develop the biological, topological and functional fundamentals of the brain when it is seen as a complex network. Next, Chapter 3 summarizes the main objectives and tasks that will be developed along the forthcoming Chapters. The second part of the Thesis is, in turn, its core, since it contains the results obtained along these last four years. This part is divided into five Chapters, containing a detailed version of the publications carried out during the Thesis. Chapter 4 is related to the topology of functional networks and, more specifically, to the detection and quantification of the leading nodes of the network: the hubs. In Chapter 5 I will show that functional brain networks can be viewed not as a single network, but as a network-of-networks, where its components have to co-exist in a trade-off situation. In this way, I investigate how the brain hemispheres compete for acquiring the centrality of the network-of-networks and how this interplay is maintained (or not) when failures are introduced in the functional network. Chapter 6 goes one step beyond by considering functional networks as living systems. In this Chapter I show how analyzing the evolution of the network topology instead of treating it as a static system allows to better characterize functional networks. This fact is especially relevant when trying to find differences between groups performing certain memory tasks, where functional networks have strong fluctuations. In Chapter 7 I define how to create parenclitic networks from brain imaging datasets. This new kind of networks, recently introduced to study abnormalities between control and anomalous groups, have not been implemented with brain datasets and I explain in this Chapter how to do it when evaluating the consistency of brain dynamics. To conclude with this part of the Thesis, Chapter 8 is devoted to the interplay between the topological properties of the nodes within a network and their dynamical features. As I will show, there is an interplay between them which reveals that the position of a node in a network is intimately related with its dynamical properties. Finally, the last part of this PhD Thesis is composed only by Chapter 9, which contains the conclusions and future perspectives that may arise from the exposed results. In view of all, I hope that reading this Thesis will give a complementary perspective of one of the most extraordinary complex systems: The human brain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Anillo Verde metropolitano, definido por el Plan General de Ordenación Urbana del Área Metropolitana de Madrid en 1963 siguiendo los modelos planteados por la cultura urbanística internacional, como armadura de la estructura urbana del AMM, espacio protagonista dentro del sistema de espacios libres, lugar de uso público destinado al recreo y contacto con la naturaleza de la población madrileña, se convierte en realidad en una reserva de suelo que va entrando en juego motivado por las alianzas entre el poder institucional y la clase social dominante actuando al margen del planeamiento, poniendo en evidencia la escasez de recursos legales y culturales disponibles para la salvaguarda de los intereses comunes y, donde los condicionantes geográficos y naturales del territorio madrileño han influido decisivamente en la especialización funcional y espacial del Área Metropolitana de Madrid. Así pues considerando esta idea como HIPÓTESIS, el objetivo de la TESIS sería demostrarla, para lo cual se hace necesario primero, acotar espacial y temporalmente el objeto de estudio, es decir, del Anillo Verde metropolitano1, segundo, contextualizar histórica y disciplinarmente los presupuestos teóricos que conformaban la idea del Anillo Verde, tercero, reconocer, localizar y documentar las piezas que han ido materializando la ocupación urbana del Anillo Verde, clasificándolas según parámetros temporales, funcionales, urbanísticos y, formales, lo que permite analizar la geografía, uso, instrumentación y forma de su transformación a escala general metropolitana y, cuarto, profundizar a modo de comprobación a escala municipal y urbana en dos escenarios representativos del conjunto metropolitano: el municipio de Pozuelo de Alarcón y el distrito de Hortaleza-Barajas. El contenido del documento se divide en tres bloques, el bloque I, se centra en las bases teóricas, el bloque II sitúa el hilo argumental de la tesis a escala metropolitana y el bloque III comprueba el fenómeno a escala municipal y urbana. De esta forma, se comienza por la comprensión del significado del concepto del Anillo Verde, que va más allá de la dimensión instrumental asignada de límite y contención urbana frente al crecimiento de la ciudad industrial de principios del siglo XX, basada en la descentralización de la ciudad tradicional, para adquirir un significado más complejo, como gran espacio de reserva y salvaguarda de valores naturales y culturales que se expresaban en su territorio y que permitirían alcanzar el equilibrio entre la ciudad y sus habitantes, es decir, entre el hombre y el espacio que habita. Se hace un recorrido por las principales corrientes urbanísticas que se van nutriendo de distintas disciplinas (economía, sociología, geografía, biología, ecología) para plantear teorías que permitieran materializar un nuevo orden urbano según principios de equidad social, económica y ambiental, en una secuencia donde Europa y Estados Unidos realizaban un constante intercambio -el movimiento de la Ciudad Jardín o el Regionalismo, que dieron paso a propuestas como el Greater London o el Gran Berlín, donde la figura del Anillo Verde tenía un papel protagonista, y del que también participaría nuestro país y la ciudad de Madrid, con modelos regionales como el Plan Besteiro y urbanos como el Plan Bidagor, antecedentes directos del Plan General de Ordenación Urbana del Área Metropolitana de Madrid de 1963 que pone en marcha la ordenación del crecimiento metropolitano de Madrid. El hilo argumental de la tesis se organiza en una doble aproximación: un acercamiento a escala metropolitana a partir del reconocimiento del modelo de ciudad definido en los distintos planes generales que acompañaron el desarrollo metropolitano (municipio de Madrid y de los siete términos municipales que rodeaban a este y que tenían suelo destinado a Anillo Verde), haciendo referencia además a las relaciones con el planeamiento regional, concretando en una escala de aproximación municipal que avanza hasta la interpretación urbana detallada. El primer acercamiento tiene lugar en el bloque II y se organiza en tres capítulos. El capítulo 4 se dedica al punto obligado de partida de la geografía local, describiendo las características biofísicas de los terrenos que formaban parte del Anillo Verde, que han marcado históricamente la forma de aprovechamiento del territorio, desde las extensiones de bosques mediterráneos al norte y al oeste continuación del Monte del Pardo, a los distintos tipos de cultivo que se adaptaban al sustrato geológico y la forma del terreno (de las suaves ondulaciones de sedimentos arcósicos al norte a las extensas plataformas arenosas y yesíferas del sur), además de las zonas de huertos aprovechando las depresiones y los cursos de agua (arroyo del Monte Carmelo, arroyo de Valdebebas, arroyo del Quinto, arroyo del Santo, arroyo Butarque, arroyo Meaques y arroyo Pozuelo). Una vez reconocida la realidad física, el capítulo 5, avanza en la descripción de los distintos modelos de ciudad propuestos desde el planeamiento urbanístico, en sus distintas escalas, la regional y la municipal, como respuesta a la coyuntura social, económica y política que ha caracterizado el proceso de ocupación del Anillo Verde al compás de la construcción del AMM. Se han reunido las propuestas de planeamiento municipal de los distintos municipios que disponían de terreno calificado como Anillo Verde: Madrid, Coslada, Getafe, Leganés, Alcorcón, Boadilla del Monte y Pozuelo de Alarcón. Además se han incorporado las distintas propuestas de ordenación territorial que han servido de referencia al planeamiento municipal, en todas sus versiones, desde las sectoriales, de mayor éxito y apoyo institucional, a los distintos intentos de ordenación integral, de mayor complejidad pero de menor calado, precisamente por la dificultad de consenso entre la ordenación física y el desarrollo económico, entre los intereses privados y el beneficio público. El primer horizonte, comienza con la formulación del Plan General de Ordenación Urbana del Área Metropolitana de Madrid de 1963, su desarrollo y la puesta en marcha de los primeros planes municipales en la década de los años setenta, donde se comprueba la necesidad de un marco regional que “ordene” el territorio de forma integral y sirva de referencia a las actuaciones sectoriales que habían marcado el primer desarrollo metropolitano. El segundo, se sitúa dos décadas más tarde con la aprobación del Plan General de Ordenación Urbana de Madrid de 1985 y el conjunto de planes municipales de los términos limítrofes, que siguen su filosofía de austeridad en cuanto a crecimiento territorial. El tercero se inicia en 1997 con la siguiente generación de planes de corte neoliberal que imponen un modelo territorial basado en las grandes operaciones metropolitanas de centralidad, infraestructuras y equipamiento, que consumen de forma indiscriminada la totalidad del territorio madrileño. Será en el último capítulo del segundo bloque (capítulo 6) donde se represente gráficamente a escala metropolitana y se analicen las 229 piezas que han ido colmatando el espacio destinado a Anillo Verde, según los parámetros de estudio, en base a las cuales se plantean las primeras conclusiones generales de la tesis, poniendo de manifiesto que las alianzas entre los agentes soberanos en la construcción de la ciudad y su entorno han trasgredido sucesivamente las determinaciones del Planeamiento en su definición de modelo de ciudad y territorio, acusando la carencia de recursos instrumentales y jurídicos que alentaron el proceso de su desmantelamiento, y revelando la influencia de los condicionantes geográficos y naturales en la especialización funcional y segregación social en el conjunto del Área Metropolitana de Madrid. Se remata el discurso metropolitano con una batería de conclusiones que interpretan el fenómeno de ocupación del anillo de verdor metropolitano confirmando las hipótesis iniciales, reconociendo los valores medioambientales y culturales trasgredidos, sus diversos actores, las numerosas operaciones urbanísticas desarrolladas con distintos usos y envergadura, así como los instrumentos de planeamiento utilizados, en base a las cuales se materializa la construcción del AMM según un modelo extendido (spread), dibujando una mancha de aceite (o grase-spots según Geddes) que precisamente había querido evitarse desde el planeamiento urbanístico con la definición de un Anillo Verde, espacio inmune a la edificación, que se aleja de su papel estructurante (equilibrador entre la ciudad y sus habitantes) para convertirse en armadura de la estructura comunicativa, que una vez consolidada se convierte en la mejor aliada de la máquina inmobiliaria. El último paso, se desarrolla en el bloque III que se divide en los capítulo 7,8 y 9 y supone la comprobación de lo descrito en el conjunto de escala metropolitana, en dos aspectos fundamentales, la falta de consideración por los valores culturales y medioambientales que han modelado el territorio, imprimiéndole un carácter singular y específico y, la estructura del dominio del suelo, donde se reconoce de forma precisa el grupo social y los agentes encargados en cada momento de comercializar los suelos del anillo, que bajo el paraguas de la urgencia social y el engañoso beneficio popular, obtienen importantes beneficios económicos. Con esa intención, se da un salto hacia la escala municipal y urbana, seleccionando dos escenarios de estudio, el municipio de Pozuelo de Alarcón, que representa la materialización del crecimiento suburbano de la élite madrileña ocupando las zonas de mayor valor ecológico del anillo, y el distrito de Hortaleza-Barajas que ofrece su territorio a las grandes operaciones metropolitanas, apoyándose en el eje de actividad marcado por la conexión Madrid-Barcelona y el sistema aeroportuario de escala global, ambos situados al norte de la línea de borde entre la Sierra y la Mancha, ocupando por tanto los lugares más valiosos de la geografía madrileña (estructura funcional anticipada por Bidagor en 1946 en su modelo de ciudad adaptada al territorio madrileño) Una vez descrito este proceso trasgresor de límites, de normas, de conductas, y desde una perspectiva del fenómeno suficientemente documentada, en el capítulo 10, se realiza una reflexión sobre la incidencia real de la propuesta urbanística del Anillo Verde en la construcción del AMM, de la misma forma que se sugieren nuevos roles al planeamiento en un formato intencionado de largo recorrido en oposición a lo inmediato y circunstancial, que permita hacer una nueva lectura de los presupuestos teóricos que conformaban la idea del Anillo Verde, espacio articulador (medioambiental, social y cultural) del territorio madrileño. ABSTRACT The Metropolitan Greenbelt was defined by the 1963 Master Plan for the Madrid Metropolitan Area (MMA), following established international models of urban development, as the structural framework of the MMA, the principal open space within its network of open spaces and a public area of recreation and contact with nature for the residents of Madrid. In reality, however, it ha become a reserve of land in which various alliances between the institutional authorities and the dominant social class have been operating on the margin of the original plan, exposing a scarcity of legal and cultural resources for the safeguarding of common interests, and in which the geographical and natural characteristics of the territory itself have come to play an influential role in the functional specialization and spatial segregation of the MMA. With that idea as its HYPOTHESIS, the aim of this THESIS is to demonstrate its reality. The first step in this is to delineate, temporally and spatially, the object of study; i.e. the Metropolitan Greenbelt2. The second is to contextualize historically and disciplinarily those theoretical ideas which conform to the greenbelt concept. The third is to acknowledge, locate and document the elements which have characterized the urban occupation of the Greenbelt and classify these according to the parameters of time, function, urban development and form, which in turn would enable the geography, use, instrumentation and form of its transformation to be analysed on a general metropolitan scale. The fourth step, as a method of verification, is an in-depth analysis of two representative settings within the metropolitan network: the municipality of Pozuelo de Alarcón and the Hortaleza-Barajas district. The content of the document is divided into three parts. Part I focuses on the study’s theoretical foundations, Part II establishes a line of argument at the metropolitan level and Part III examines the phenomenon from a municipal and urban perspective. The thesis, then, begins with a study of the greenbelt concept itself and its meaning, which is far more complex than the accepted instrumental dimension of limiting and containing urbanization in response to the growth of the industrial city of the early 20th century, and which is based on a decentralization of the traditional city. This wider purpose is the setting aside of a large reserved space to safeguard the natural and cultural values of the region and thereby achieve a balance between the city and its residents; that is to say, between man and the space he inhabits. The principal currents of thought in urban planning will then be examined. These have drawn upon a variety of disciplines (economics, sociology, geography, biology, ecology) to develop theories for establishing a new urban order according to the principles of social, economic and environmental equity, and have involved a constant interchange between Europe and the United States. Thus, the City Garden and Regionalist movements would clear the way for proposals such as Greater London and Great Berlin, Chicago and Washington, in which the greenbelt would play a fundamental role. The participation of our own country and the city of Madrid is also discussed, through regional models such as the Besteiro Plan and urban ones like the Bidagor Plan, direct forerunners of 1963’s General Organizational Plan for the Madrid Metropolitan Area, which would set into motion the organization of Madrid’s metropolitan growth. The line of argument followed in this thesis is two-fold: first, an examination of metropolitan development in keeping with the city model as defined in the various General Plans for the development of both the municipality of Madrid and the seven surrounding municipalities which have land designated for its Greenbelt; and second, an examination of this growth in relation to Regional Planning measures, is detailed on a smaller scale (municipal and district), where the conditioning factors affecting the land property structure and the network of biophysical units may be analysed in depth. The first of these is dealt with in Part II and organized into three chapters (4, 5 and 6). Chapter 4 is dedicated to the obligatory starting point of the geographical setting itself. The biophysical characteristics of the territories set aside for the Greenbelt, and which historically have played a role in the area’s exploitation, are described here. These range from expanses of Mediterranean woodland to the north and west of Monte del Pardo to the various types of farmland that have been adapted to the geological substratum and the contours of the terrain (gentle undulations of arkosic sediment in the north, and wide sandy and gypsiferous tableland in the south), as well as orchards planted in low valleys and along watercourses (the creeks of Monte Carmelo, Valdebebas, Quinto, Santo, Butarque, Meaques and Pozuelo). Once this physical reality ha been detailed, in Chapter 5 will examine the various city models proposed by urban planners, both regionally and municipally, in response to the confluence of social, economic and political interests that have characterized the process of occupation in the Greenbelt area during the construction of the MMA. Municipal planning proposals will be collected and examined for the various municipalities which have land designated for the Greenbelt: Madrid, Coslada, Getafe, Leganés, Alcorcón, Boadilla del Monte and Pozuelo de Alarcón. Furthermore, the various territorial organization proposals which have served as references for municipal planning will also be addressed here, in all of their versions –from the sectorial, which have met with more success and institutional approval, to the many attempts at integration, which have been more complex but less influential, precisely for the difficulty of reconciling physical organization with economic development, and private interest with public benefit. The first period in this process was the development of the General Plan of 1963, followed by the first municipal development plans of the 1970s, in which the need for a regional framework that “organized” the territory in an integral fashion was defined. This would serve as a reference for the sectorial actions that marked the metropolitan area’s initial development. The second came two decades later with the approval of the General Plan of 1985, and the network of municipal plans for the surrounding communities, which followed the same philosophy of austerity with regard to territorial growth. The third would begin to take form in 1997, as a new generation of neo-liberal development plans imposed a territorial model based on centralized large-scale metropolitan operations of infrastructure and equipment, which would indiscriminately consume the totality of Madrid’s land. At the end of the Part II, in Chapter 6, the metropolitan area will be represented graphically and the 229 pieces that have been gradually encroaching upon land designated for the Greenbelt will be analysed. This analysis will be carried out according to the parameters defined for the study, and the first general conclusions of the thesis will be based on its findings. It will show how alliances between the various governing authorities in the construction of the city and its environment have successively violated established plans with regard to the definitions of city and territory, how shortages of instrumental and judicial resources have accentuated the dismantling process, and how natural and geographical factors have influenced functional specialization and social segregation in the Madrid Metropolitan Area. The final step, detailed in Part III, will address two fundamental aspects of what has just been described: the lack of consideration for the cultural and environmental values which have shaped this territory and imprinted upon it a specific and unique character; and the structure of land domination, with a precise identification of the social group and agents responsible at each stage of the Greenbelt’s commercialization, who, under an umbrella of social urgency and deceptive public benefit, have used it to obtain substantial financial rewards. For this purpose, a closer look is taken at two specific areas: the municipality of Pozuelo de Alarcón, representative of the suburban growth of an elite population which has occupied the Greenbelt areas of the greatest ecological value; and the Hortaleza-Barajas district, which has offered its territory to large metropolitan business interests, based on activities centred on the connection between Madrid and Barcelona and the system of international air travel. Both of these settings are located to the north of the line which divides the Sierra from La Mancha, and thus occupy the most valuable land in the Madrid region (a functional structure anticipated by Bidagor in 1946, with his city model adapted to the territory of Madrid). Finally, an attempt will be made to interpret the phenomenon of metropolitan Greenbelt occupation, confirming initial hypotheses, specifying the environmental and cultural values that have been violated, and identifying the various players involved, as well as numerous urbanization operations of varying sizes and interests, and the instruments of planning they have used. It will be seen from this that the construction of the MMA has in fact followed a “spread” model, a “grease spot” (as Geddes calls it) which, from the outset of the planning process and according to the definition of a greenbelt as a construction-free zone, was precisely to be avoided. This structural role (to provide a balance between a city and its residents) has thus been abandoned and the Greenbelt converted instead into a communicative framework which, once consolidated, has become the greatest ally of the real estate machine. After this process of violating limits, norms and established behaviour has been described and solidly documented, a reflection will be made on the real influence of the Greenbelt proposal in the construction of the MMA. At the same time, new roles will be suggested for future planning, roles which are deliberate and long term, in opposition to the immediate and circumstantial. This will enable a new interpretation of the theoretical principles behind the greenbelt concept, a space designed to connect the territory of Madrid environmentally, socially and culturally.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La modelización es un proceso por el que se obtienen modelos de los procesos del ´mundo real´ mediante la utilización de simplificaciones. Sin embargo, las estimaciones obtenidas con el modelo llevan implícitas incertidumbre que se debe evaluar. Mediante un análisis de sensibilidad se puede mejorar la confianza en los resultados, sin embargo, este paso a veces no se realiza debido básicamente al trabajo que lleva consigo este tipo de análisis. Además, al crear un modelo, hay que mantener un equilibrio entre la obtención de resultados lo más exactos posible mediante un modelo lo más sencillo posible. Por ello, una vez creado un modelo, es imprescindible comprobar si es necesario o no incluir más procesos que en un principio no se habían incluido. Los servicios ecosistémicos son los procesos mediante los cuales los ecosistemas mantienen y satisfacen el bienestar humano. La importancia que los servicios ecosistémicos y sus beneficios asociados tienen, junto con la necesidad de realizar una buena gestión de los mismos, han estimulado la aparición de modelos y herramientas para cuantificarlos. InVEST (Integrated Valuation of Ecosystem Services and Tradoffs) es una de estas herramientas específicas para calcular servicios eco-sistémicos, desarrollada por Natural Capital Project (Universidad de Stanford, EEUU). Como resultado del creciente interés en calcular los servicios eco-sistémicos, se prevé un incremento en la aplicación del InVEST. La investigación desarrollada en esta Tesis pretende ayudar en esas otras importantes fases necesarias después de la creación de un modelo, abarcando los dos siguientes trabajos. El primero es la aplicación de un análisis de sensibilidad al modelo en una cuenca concreta mediante la metodología más adecuada. El segundo es relativo a los procesos dentro de la corriente fluvial que actualmente no se incluyen en el modelo mediante la creación y aplicación de una metodología que estudiara el papel que juegan estos procesos en el modelo InVEST de retención de nutrientes en el área de estudio. Los resultados de esta Tesis contribuirán a comprender la incertidumbre involucrada en el proceso de modelado. También pondrá de manifiesto la necesidad de comprobar el comportamiento de un modelo antes de utilizarlo y en el momento de interpretar los resultados obtenidos. El trabajo en esta Tesis contribuirá a mejorar la plataforma InVEST, que es una herramienta importante en el ámbito de los servicios de los ecosistemas. Dicho trabajo beneficiará a los futuros usuarios de la herramienta, ya sean investigadores (en investigaciones futuras), o técnicos (en futuros trabajos de toma de decisiones o gestión ecosistemas). ABSTRACT Modeling is the process to idealize real-world situations through simplifications in order to obtain a model. However, model estimations lead to uncertainties that have to be evaluated formally. The role of the sensitivity analysis (SA) is to assign model output uncertainty based on the inputs and can increase confidence in model, however, it is often omitted in modelling, usually as a result of the growing effort it involves. In addition, the balance between accuracy and simplicity is not easy to assess. For this reason, when a model is developed, it is necessary to test it in order to understand its behavior and to include, if necessary, more complexity to get a better response. Ecosystem services are the conditions and processes through which natural ecosystems, and their constituent species, sustain and fulfill human life. The relevance of ecosystem services and the need to better manage them and their associated benefits have stimulated the emergence of models and tools to measure them. InVEST, Integrated Valuation of Ecosystem Services and Tradoffs, is one of these ecosystem services-specific tools developed by the Natural Capital Project (Stanford University, USA). As a result of the growing interest in measuring ecosystem services, the use of InVEST is anticipated to grow exponentially in the coming years. However, apart from model development, making a model involves other crucial stages such as its evaluation and application in order to validate estimations. The work developed in this thesis tries to help in this relevant and imperative phase of the modeling process, and does so in two different ways. The first one is to conduct a sensitivity analysis of the model, which consists in choosing and applying a methodology in an area and analyzing the results obtained. The second is related to the in-stream processes that are not modeled in the current model, and consists in creating and applying a methodology for testing the streams role in the InVEST nutrient retention model in a case study, analyzing the results obtained. The results of this Thesis will contribute to the understanding of the uncertainties involved in the modeling process. It will also illustrate the need to check the behavior of every model developed before putting them in production and illustrate the importance of understanding their behavior in terms of correctly interpreting the results obtained in light of uncertainty. The work in this thesis will contribute to improve the InVEST platform, which is an important tool in the field of ecosystem services. Such work will benefit future users, whether they are researchers (in their future research), or technicians (in their future work in ecosystem conservation or management decisions).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El espacio geográfico, entendido como territorio que da soporte a la vida y a la civilización, ha estado siempre fuertemente supeditado a la presencia de agua. Desde la Prehistoria el hombre otorgó al agua, junto a otros elementos que aseguraban o protegían su vida, un valor superior, por encima de lo humano. Paralelamente y de manera natural, el jardín, en sus inicios en estrecha relación con la agricultura y con el paisaje, fue el ámbito idóneo para la creación de nuevas formas acuáticas artificiales. Este proceso dio lugar a un extenso repertorio de formas compositivas que parece que tuvo en el Renacimiento un punto de inflexión, en el que se observa como la mayoría de recursos y configuraciones básicas del agua estaban ya plenamente establecidas. Esta evolución y sus resultados ha sido el objeto de la primera parte de la tesis: su objetivo ha sido analizar cómo el agua configura, cualifica o puede llegar a construir el jardín y el territorio en el que se inserta, así como establecer las posibles relaciones entre estos dos ámbitos de estudio. Aunque la historia es su fundamento, el planteamiento aquí ha sido más bien conceptual; estudiando los componentes acuáticos desde un punto de vista fundamentalmente compositivo. Esta indagación previa ha sido indispensable para llegar a entender en profundidad los modos en los que el agua se muestra en el jardín y en el paisaje renacentista y manierista, momentos en que se insertan los dos casos de estudio que constituyen la segunda parte de la tesis. Sin caer en un determinismo geográfico extremo, puede admitirse que el jardín, como manifestación cultural intrínsecamente ligada al entorno, depende fuertemente del territorio en el que se asienta; hecho particularmente evidente en aquellas regiones en las que su especial geografía ha sido un claro factor condicionante de su historia. Por ello, Holanda y España han sido las dos localizaciones elegidas para profundizar en este estudio; no tanto por su estrecha relación política y cultural, sino por su profundo y sugerente contraste de medio físico y climático. La Península Ibérica, geográficamente el término del mundo conocido en Occidente hasta el final de la Edad Media, y por esta circunstancia convertida en destino, en territorio de permanencia y fusión, estará además supeditada en la mayoría de su territorio a la falta de agua, siendo a la vez heredera directa del universo y la tradición del jardín meridional originario de Oriente. En el extremo opuesto, Holanda, espacio de transición entre el mar y la tierra firme “real”, es un territorio permeado de humedad y surcado con generosidad por grandes ríos. El país, con una relación ambivalente con el agua, unas veces como amenaza y otras como fuente de nuevas oportunidades, será por el contrario especialmente favorable para el desarrollo de un modelo de jardín septentrional. Un jardín del norte, que no obstante, no surgirá de despejar los bosques, como en el arquetipo nórdico, sino que crecerá sobre planicies antes saturadas de agua o directamente anegadas. El marco temporal de los dos casos concretos ha considerado como fecha inicial 1548, momento en el que Felipe II, aún príncipe, realizó su primer viaje a los Países Bajos, y entró en contacto con el modelo holandés. La extensa producción posterior de jardines de Felipe II, siempre con el agua como protagonista, tuvo como destacado referente la adaptación al suelo y la geografía hispánicos de dicho modelo. Como fecha final se fija 1648, justo un siglo después, fecha coincidente con la firma de la Paz de Westfalia, tratado que supone la total reorganización política del territorio europeo y la pérdida de la hegemonía española en Europa. En Holanda sólo dos años después nacerá Guillermo III de Orange, estatúder de las Provincias Unidas, también futuro rey de Inglaterra, Escocia e Irlanda. Para entonces en Holanda ya se había asistido al desarrollo de un arte propio de jardín, íntimamente ligado al agua, sorprendentemente no demasiado bien conocido y que será uno de los temas de esta investigación. Finalmente, se propone una lectura conjunta de toda esta serie de intervenciones que tienen como argumento el agua, en la que se integra la información procedente de distintos campos de estudio, cada una con su metodología particular. El resultado es una tesis en la que el jardín y el territorio son tratados desde un nuevo y enriquecedor punto de vista. ABSTRACT Geographical space, understood as the territory that provides support to human life and civilization, has always been strongly subjected to the presence of water. From Prehistory man gave to water, along with other elements that ensured or protected life, a higher value than the merely human. At the same time and in a natural way, the garden, in its beginnings with a close relationship with agriculture and landscape, soon developed as the appropriate ground for the creation of new artificial aquatic forms, in a process that seems to have a turning point in the Renaissance, when most of the basic waterworks and resources were already fully established. This development and its outcomes are the subjects of the first part of the thesis: its scope has been to analyse how water configures, qualifies and might even help to construct the garden or landscape attached to it; and to establish the possible links between these two fields of study. Although history based, the point of view here is mainly conceptual, studying the water components understood as composite elements. This exploratory research has been essential to deeply understand the water patterns shown in the Renaissance and Mannerist garden and landscape, periods in which the two case studies are inserted. Without falling in extreme determinism, it can be accepted however, that garden, as a cultural expression linked to environment, is strongly dependant on territorial setting; something particularly evident in those areas where specific geography has been a clear history conditioning factor. This is the reason that leads to choose the Netherlands and Spain to deepen this study, no so much for their interesting cultural and politics relations as for the suggestive and profound contrast of their physical environment and climate. The Iberian Peninsula, geographically the limit of the known world in Occident until the end of the Medium Age, and by this circumstance understood as endpoint, more a destination than a crossroad, a territory of permanence and fusion, but also subjected to water shortage; is thus associated with the universe and tradition of the meridional garden imported from Orient. In the opposite, the Netherlands, a transitional space between the sea and the “real” firm land, is a territory permeated by water and crossed by big rivers. Always with an ambivalent relationship with water, sometimes seen as a threat and sometimes as a source of new opportunities, it was in the other hand the adequate land for the development of a special model of Northern garden. A garden that will not arise, however, from the clearing of woods as in the Nordic archetype, but that will grow on plains originally saturated of water or directly waterlogged. The timeframe of the two cases has 1548 as the initial year, moment in which Philip II, yet prince, made his first trip to the Low Lands and imbibed the Dutch garden model. The later and bountiful garden works of the king, always with the water as the main focus, adapted the imported model to the Spanish ground and geography. The final date is fixed in 1648, just a century after, in coincidence with the Westfalia Peace; a treaty that implied the total political reorganization of the European territory and the end of the Spanish hegemony in the continent. In Holland, only two years later, William III of Orange, Stadtholder of the United Provinces and also future king of England, Scotland and Ireland, was born. But by then the Netherlands had developed an own garden art, closely linked to water. This type garden, surprisingly not very well known, and its relationship with water, will be other of the addressing questions of this work. Finally, the investigation merges the different interventions that have water as an argument, integrating all the fields considered with their particular methodological approaches. The final result is a thesis in which garden and territory are treated from a new and enriching perspective.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de esta Tesis es presentar un método eficiente para la evaluación de sistemas multi-cuerpo con elementos flexibles con pequeñas deformaciones, basado en métodos topológicos para la simulación de sistemas tan complejos como los que se utilizan en la práctica y en tiempo real o próximo al real. Se ha puesto un especial énfasis en la resolución eficiente de aquellos aspectos que conllevan mayor coste computacional, tales como la evaluación de las ecuaciones dinámicas y el cálculo de los términos de inercia. Las ecuaciones dinámicas se establecen en función de las variables independientes del sistema, y la integración de las mismas se realiza mediante formulaciones implícitas de index-3. Esta Tesis se articula en seis Capítulos. En el Capítulo 1 se realiza una revisión bibliográfica de la simulación de sistemas flexibles y los métodos más relevantes de integración de las ecuaciones diferenciales del movimiento. Asimismo, se presentan los objetivos de esta Tesis. En el Capítulo 2 se presenta un método semi-recursivo para la evaluación de las ecuaciones de los sistemas multi-cuerpo con elementos flexibles basado en formulaciones topológicas y síntesis modal. Esta Tesis determina la posición de cada punto del cuerpo flexible en función de un sistema de referencia flotante que se mueve con dicho cuerpo y de las amplitudes de ciertos modos de deformación calculados a partir de un mallado obtenido mediante el Método de Elementos Finitos. Se presta especial atención en las condiciones de contorno que se han de tener en cuenta a la hora de establecer las variables que definen la deformación del cuerpo flexible. El Capítulo 3 se centra en la evaluación de los términos de inercia de los sistemas flexibles que generalmente conllevan un alto coste computacional. Se presenta un método que permite el cálculo de dichos términos basado en el uso de 24 matrices constantes que pueden ser calculadas previamente al proceso de integración. Estas matrices permiten evaluar la matriz de masas y el vector de fuerzas de inercia dependientes de la velocidad sin que sea necesario evaluar la posición deformada de todos los puntos del cuerpo flexible. Se realiza un análisis pormenorizado de dichas matrices con el objetivo de optimizar su cálculo estableciendo aproximaciones que permitan reducir el número de dichos términos y optimizar aún más su evaluación. Se analizan dos posibles simplificaciones: la primera utiliza una discretización no-consistente basada en elementos finitos en los que se definen únicamente los desplazamientos axiales de los nodos; en la segunda propuesta se hace uso de una matriz de masas concentradas (Lumped Mass). Basándose en la formulación presentada, el Capítulo 4 aborda la integración eficiente de las ecuaciones dinámicas. Se presenta un método iterativo para la integración con fórmulas de index-3 basado en la proyección de las ecuaciones dinámicas según las variables independientes del sistema multi-cuerpo. El cálculo del residuo del sistema de ecuaciones no lineales que se ha de resolver de modo iterativo se realiza mediante un proceso recursivo muy eficiente que aprovecha la estructura topológica del sistema. Se analizan tres formas de evaluar la matriz tangente del citado sistema no lineal: evaluación aproximada, numérica y recursiva. El método de integración presentado permite el uso de distintas fórmulas. En esta Tesis se analizan la Regla Trapezoidal, la fórmula BDF de segundo orden y un método híbrido TR-BDF2. Para este último caso se presenta un algoritmo de paso variable. En el Capítulo 5 plantea la implementación del método propuesto en un programa general de simulación de mecanismos que permita la resolución de cualquier sistema multi-cuerpo definiéndolo mediante un fichero de datos. La implementación de este programa se ha realizado tanto en C++ como en Java. Se muestran los resultados de las formulaciones presentadas en esta Tesis mediante la simulación de cuatro ejemplos de distinta complejidad. Mediante análisis concretos se comparan la formulación presentada con otras existentes. También se analiza el efecto del lenguaje de programación utilizado en la implementación y los efectos de las posibles simplificaciones planteadas. Por último, el Capítulo 6 resume las principales conclusiones alcanzadas en la Tesis y las futuras líneas de investigación que con ella se abren. ABSTRACT This Thesis presents an efficient method for solving the forward dynamics of a multi-body sys-tem formed by rigid and flexible bodies with small strains for real-time simulation of real-life models. It is based on topological formulations. The presented work focuses on the efficient solution of the most time-consuming tasks of the simulation process, such as the numerical integration of the motion differential equations and in particular the evaluation of the inertia terms corresponding to the flexible bodies. The dynamic equations are formulated in terms of independent variables of the muti-body system, and they are integrated by means of implicit index-3 formulae. The Thesis is arranged in six chapters. Chapter 1 presents a review of the most relevant and recent contributions related to the modelization of flexible multi-body systems and the integration of the corresponding dynamic equations. The main objectives of the Thesis are also presented in detail. Chapter 2 presents a semi-recursive method for solving the equations of a multi-body system with flexible bodies based on topological formulations and modal synthesis. This Thesis uses the floating frame approach and the modal amplitudes to define the position of any point at the flexible body. These modal deformed shapes are obtained by means of the Finite Element Method. Particular attention has been taken to the boundary conditions used to define the deformation of the flexible bodies. Chapter 3 focuses on the evaluation of the inertia terms, which is usually a very time-consuming task. A new method based on the use of 24 constant matrices is presented. These matrices are evaluated during the set-up step, before the integration process. They allow the calculation of the inertia terms in terms of the position and orientation of the local coordinate system and the deformation variables, and there is no need to evaluate the position and velocities of all the nodes of the FEM mesh. A deep analysis of the inertia terms is performed in order to optimize the evaluation process, reducing both the terms used and the number of arithmetic operations. Two possible simplifications are presented: the first one uses a non-consistent approach in order to define the inertia terms respect to the Cartesian coordinates of the FEM mesh, rejecting those corresponding to the angular rotations; the second approach makes use of lumped mass matrices. Based on the previously presented formulation, Chapter 4 is focused on the numerical integration of the motion differential equations. A new predictor-corrector method based on index-3 formulae and on the use of multi-body independent variables is presented. The evaluation of the dynamic equations in a new time step needs the solution of a set on nonlinear equations by a Newton-Raphson iterative process. The computation of the corresponding residual vector is performed efficiently by taking advantage of the system’s topological structure. Three methods to compute the tangent matrix are presented: an approximated evaluation that considers only the most relevant terms, a numerical approach based on finite differences and a recursive method that uses the topological structure. The method presented for integrating the dynamic equations can use a variety of integration formulae. This Thesis analyses the use of the trapezoidal rule, the 2nd order BDF formula and the hybrid TR-BDF2 method. A variable-time step strategy is presented for the last one. Chapter 5 describes the implementation of the proposed method in a general purpose pro-gram for solving any multibody defined by a data file. This program is implemented both in C++ and Java. Four examples are used to check the validity of the formulation and to compare this method with other methods commonly used to solve the dynamic equations of multi-body systems containing flexible bodies. The efficiency of the programming methodology used and the effect of the possible simplifications proposed are also analyzed. Chapter 6 summarizes the main Conclusions obtained in this Thesis and the new lines of research that have been opened.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente Tesis constituye un avance en el conocimiento de los efectos de la variabilidad climática en los cultivos en la Península Ibérica (PI). Es bien conocido que la temperatura del océano, particularmente de la región tropical, es una de las variables más convenientes para ser utilizado como predictor climático. Los océanos son considerados como la principal fuente de almacenamiento de calor del planeta debido a la alta capacidad calorífica del agua. Cuando se libera esta energía, altera los regímenes globales de circulación atmosférica por mecanismos de teleconexión. Estos cambios en la circulación general de la atmósfera afectan a la temperatura, precipitación, humedad, viento, etc., a escala regional, los cuales afectan al crecimiento, desarrollo y rendimiento de los cultivos. Para el caso de Europa, esto implica que la variabilidad atmosférica en una región específica se asocia con la variabilidad de otras regiones adyacentes y/o remotas, como consecuencia Europa está siendo afectada por los patrones de circulaciones globales, que a su vez, se ven afectados por patrones oceánicos. El objetivo general de esta tesis es analizar la variabilidad del rendimiento de los cultivos y su relación con la variabilidad climática y teleconexiones, así como evaluar su predictibilidad. Además, esta Tesis tiene como objetivo establecer una metodología para estudiar la predictibilidad de las anomalías del rendimiento de los cultivos. El análisis se centra en trigo y maíz como referencia para otros cultivos de la PI, cultivos de invierno en secano y cultivos de verano en regadío respectivamente. Experimentos de simulación de cultivos utilizando una metodología en cadena de modelos (clima + cultivos) son diseñados para evaluar los impactos de los patrones de variabilidad climática en el rendimiento y su predictibilidad. La presente Tesis se estructura en dos partes: La primera se centra en el análisis de la variabilidad del clima y la segunda es una aplicación de predicción cuantitativa de cosechas. La primera parte está dividida en 3 capítulos y la segundo en un capitulo cubriendo los objetivos específicos del presente trabajo de investigación. Parte I. Análisis de variabilidad climática El primer capítulo muestra un análisis de la variabilidad del rendimiento potencial en una localidad como indicador bioclimático de las teleconexiones de El Niño con Europa, mostrando su importancia en la mejora de predictibilidad tanto en clima como en agricultura. Además, se presenta la metodología elegida para relacionar el rendimiento con las variables atmosféricas y oceánicas. El rendimiento de los cultivos es parcialmente determinado por la variabilidad climática atmosférica, que a su vez depende de los cambios en la temperatura de la superficie del mar (TSM). El Niño es el principal modo de variabilidad interanual de la TSM, y sus efectos se extienden en todo el mundo. Sin embargo, la predictibilidad de estos impactos es controversial, especialmente aquellos asociados con la variabilidad climática Europea, que se ha encontrado que es no estacionaria y no lineal. Este estudio mostró cómo el rendimiento potencial de los cultivos obtenidos a partir de datos de reanálisis y modelos de cultivos sirve como un índice alternativo y más eficaz de las teleconexiones de El Niño, ya que integra las no linealidades entre las variables climáticas en una única serie temporal. Las relaciones entre El Niño y las anomalías de rendimiento de los cultivos son más significativas que las contribuciones individuales de cada una de las variables atmosféricas utilizadas como entrada en el modelo de cultivo. Además, la no estacionariedad entre El Niño y la variabilidad climática europea se detectan con mayor claridad cuando se analiza la variabilidad de los rendimiento de los cultivos. La comprensión de esta relación permite una cierta predictibilidad hasta un año antes de la cosecha del cultivo. Esta predictibilidad no es constante, sino que depende tanto la modulación de la alta y baja frecuencia. En el segundo capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de verano en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de maíz en la PI para todo el siglo veinte, usando un modelo de cultivo calibrado en 5 localidades españolas y datos climáticos de reanálisis para obtener series temporales largas de rendimiento potencial. Este estudio evalúa el uso de datos de reanálisis para obtener series de rendimiento de cultivos que dependen solo del clima, y utilizar estos rendimientos para analizar la influencia de los patrones oceánicos y atmosféricos. Los resultados muestran una gran fiabilidad de los datos de reanálisis. La distribución espacial asociada a la primera componente principal de la variabilidad del rendimiento muestra un comportamiento similar en todos los lugares estudiados de la PI. Se observa una alta correlación lineal entre el índice de El Niño y el rendimiento, pero no es estacionaria en el tiempo. Sin embargo, la relación entre la temperatura del aire y el rendimiento se mantiene constante a lo largo del tiempo, siendo los meses de mayor influencia durante el período de llenado del grano. En cuanto a los patrones atmosféricos, el patrón Escandinavia presentó una influencia significativa en el rendimiento en PI. En el tercer capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de invierno en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de trigo en secano del Noreste (NE) de la PI. La variabilidad climática es el principal motor de los cambios en el crecimiento, desarrollo y rendimiento de los cultivos, especialmente en los sistemas de producción en secano. En la PI, los rendimientos de trigo son fuertemente dependientes de la cantidad de precipitación estacional y la distribución temporal de las mismas durante el periodo de crecimiento del cultivo. La principal fuente de variabilidad interanual de la precipitación en la PI es la Oscilación del Atlántico Norte (NAO), que se ha relacionado, en parte, con los cambios en la temperatura de la superficie del mar en el Pacífico Tropical (El Niño) y el Atlántico Tropical (TNA). La existencia de cierta predictibilidad nos ha animado a analizar la posible predicción de los rendimientos de trigo en la PI utilizando anomalías de TSM como predictor. Para ello, se ha utilizado un modelo de cultivo (calibrado en dos localidades del NE de la PI) y datos climáticos de reanálisis para obtener series temporales largas de rendimiento de trigo alcanzable y relacionar su variabilidad con anomalías de la TSM. Los resultados muestran que El Niño y la TNA influyen en el desarrollo y rendimiento del trigo en el NE de la PI, y estos impactos depende del estado concurrente de la NAO. Aunque la relación cultivo-TSM no es igual durante todo el periodo analizado, se puede explicar por un mecanismo eco-fisiológico estacionario. Durante la segunda mitad del siglo veinte, el calentamiento (enfriamiento) en la superficie del Atlántico tropical se asocia a una fase negativa (positiva) de la NAO, que ejerce una influencia positiva (negativa) en la temperatura mínima y precipitación durante el invierno y, por lo tanto, aumenta (disminuye) el rendimiento de trigo en la PI. En relación con El Niño, la correlación más alta se observó en el período 1981 -2001. En estas décadas, los altos (bajos) rendimientos se asocian con una transición El Niño - La Niña (La Niña - El Niño) o con eventos de El Niño (La Niña) que están finalizando. Para estos eventos, el patrón atmosférica asociada se asemeja a la NAO, que también influye directamente en la temperatura máxima y precipitación experimentadas por el cultivo durante la floración y llenado de grano. Los co- efectos de los dos patrones de teleconexión oceánicos ayudan a aumentar (disminuir) la precipitación y a disminuir (aumentar) la temperatura máxima en PI, por lo tanto el rendimiento de trigo aumenta (disminuye). Parte II. Predicción de cultivos. En el último capítulo se analiza los beneficios potenciales del uso de predicciones climáticas estacionales (por ejemplo de precipitación) en las predicciones de rendimientos de trigo y maíz, y explora métodos para aplicar dichos pronósticos climáticos en modelos de cultivo. Las predicciones climáticas estacionales tienen un gran potencial en las predicciones de cultivos, contribuyendo de esta manera a una mayor eficiencia de la gestión agrícola, seguridad alimentaria y de subsistencia. Los pronósticos climáticos se expresan en diferentes formas, sin embargo todos ellos son probabilísticos. Para ello, se evalúan y aplican dos métodos para desagregar las predicciones climáticas estacionales en datos diarios: 1) un generador climático estocástico condicionado (predictWTD) y 2) un simple re-muestreador basado en las probabilidades del pronóstico (FResampler1). Los dos métodos se evaluaron en un caso de estudio en el que se analizaron los impactos de tres escenarios de predicciones de precipitación estacional (predicción seco, medio y lluvioso) en el rendimiento de trigo en secano, sobre las necesidades de riego y rendimiento de maíz en la PI. Además, se estimó el margen bruto y los riesgos de la producción asociada con las predicciones de precipitación estacional extremas (seca y lluviosa). Los métodos predWTD y FResampler1 usados para desagregar los pronósticos de precipitación estacional en datos diarios, que serán usados como inputs en los modelos de cultivos, proporcionan una predicción comparable. Por lo tanto, ambos métodos parecen opciones factibles/viables para la vinculación de los pronósticos estacionales con modelos de simulación de cultivos para establecer predicciones de rendimiento o las necesidades de riego en el caso de maíz. El análisis del impacto en el margen bruto de los precios del grano de los dos cultivos (trigo y maíz) y el coste de riego (maíz) sugieren que la combinación de los precios de mercado previstos y la predicción climática estacional pueden ser una buena herramienta en la toma de decisiones de los agricultores, especialmente en predicciones secas y/o localidades con baja precipitación anual. Estos métodos permiten cuantificar los beneficios y riesgos de los agricultores ante una predicción climática estacional en la PI. Por lo tanto, seríamos capaces de establecer sistemas de alerta temprana y diseñar estrategias de adaptación del manejo del cultivo para aprovechar las condiciones favorables o reducir los efectos de condiciones adversas. La utilidad potencial de esta Tesis es la aplicación de las relaciones encontradas para predicción de cosechas de la próxima campaña agrícola. Una correcta predicción de los rendimientos podría ayudar a los agricultores a planear con antelación sus prácticas agronómicas y todos los demás aspectos relacionados con el manejo de los cultivos. Esta metodología se puede utilizar también para la predicción de las tendencias futuras de la variabilidad del rendimiento en la PI. Tanto los sectores públicos (mejora de la planificación agrícola) como privados (agricultores, compañías de seguros agrarios) pueden beneficiarse de esta mejora en la predicción de cosechas. ABSTRACT The present thesis constitutes a step forward in advancing of knowledge of the effects of climate variability on crops in the Iberian Peninsula (IP). It is well known that ocean temperature, particularly the tropical ocean, is one of the most convenient variables to be used as climate predictor. Oceans are considered as the principal heat storage of the planet due to the high heat capacity of water. When this energy is released, it alters the global atmospheric circulation regimes by teleconnection1 mechanisms. These changes in the general circulation of the atmosphere affect the regional temperature, precipitation, moisture, wind, etc., and those influence crop growth, development and yield. For the case of Europe, this implies that the atmospheric variability in a specific region is associated with the variability of others adjacent and/or remote regions as a consequence of Europe being affected by global circulations patterns which, in turn, are affected by oceanic patterns. The general objective of this Thesis is to analyze the variability of crop yields at climate time scales and its relation to the climate variability and teleconnections, as well as to evaluate their predictability. Moreover, this Thesis aims to establish a methodology to study the predictability of crop yield anomalies. The analysis focuses on wheat and maize as a reference crops for other field crops in the IP, for winter rainfed crops and summer irrigated crops respectively. Crop simulation experiments using a model chain methodology (climate + crop) are designed to evaluate the impacts of climate variability patterns on yield and its predictability. The present Thesis is structured in two parts. The first part is focused on the climate variability analyses, and the second part is an application of the quantitative crop forecasting for years that fulfill specific conditions identified in the first part. This Thesis is divided into 4 chapters, covering the specific objectives of the present research work. Part I. Climate variability analyses The first chapter shows an analysis of potential yield variability in one location, as a bioclimatic indicator of the El Niño teleconnections with Europe, putting forward its importance for improving predictability in both climate and agriculture. It also presents the chosen methodology to relate yield with atmospheric and oceanic variables. Crop yield is partially determined by atmospheric climate variability, which in turn depends on changes in the sea surface temperature (SST). El Niño is the leading mode of SST interannual variability, and its impacts extend worldwide. Nevertheless, the predictability of these impacts is controversial, especially those associated with European climate variability, which have been found to be non-stationary and non-linear. The study showed how potential2 crop yield obtained from reanalysis data and crop models serves as an alternative and more effective index of El Niño teleconnections because it integrates the nonlinearities between the climate variables in a unique time series. The relationships between El Niño and crop yield anomalies are more significant than the individual contributions of each of the atmospheric variables used as input in the crop model. Additionally, the non-stationarities between El Niño and European climate variability are more clearly detected when analyzing crop-yield variability. The understanding of this relationship allows for some predictability up to one year before the crop is harvested. This predictability is not constant, but depends on both high and low frequency modulation. The second chapter identifies the oceanic and atmospheric patterns of climate variability affecting summer cropping systems in the IP. Moreover, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of maize yield variability in IP for the whole twenty century, using a calibrated crop model at five contrasting Spanish locations and reanalyses climate datasets to obtain long time series of potential yield. The study tests the use of reanalysis data for obtaining only climate dependent time series of simulated crop yield for the whole region, and to use these yield to analyze the influences of oceanic and atmospheric patterns. The results show a good reliability of reanalysis data. The spatial distribution of the leading principal component of yield variability shows a similar behaviour over all the studied locations in the IP. The strong linear correlation between El Niño index and yield is remarkable, being this relation non-stationary on time, although the air temperature-yield relationship remains on time, being the highest influences during grain filling period. Regarding atmospheric patterns, the summer Scandinavian pattern has significant influence on yield in IP. The third chapter identifies the oceanic and atmospheric patterns of climate variability affecting winter cropping systems in the IP. Also, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of rainfed wheat yield variability in IP. Climate variability is the main driver of changes in crop growth, development and yield, especially for rainfed production systems. In IP, wheat yields are strongly dependent on seasonal rainfall amount and temporal distribution of rainfall during the growing season. The major source of precipitation interannual variability in IP is the North Atlantic Oscillation (NAO) which has been related in part with changes in the Tropical Pacific (El Niño) and Atlantic (TNA) sea surface temperature (SST). The existence of some predictability has encouraged us to analyze the possible predictability of the wheat yield in the IP using SSTs anomalies as predictor. For this purpose, a crop model with a site specific calibration for the Northeast of IP and reanalysis climate datasets have been used to obtain long time series of attainable wheat yield and relate their variability with SST anomalies. The results show that El Niño and TNA influence rainfed wheat development and yield in IP and these impacts depend on the concurrent state of the NAO. Although crop-SST relationships do not equally hold on during the whole analyzed period, they can be explained by an understood and stationary ecophysiological mechanism. During the second half of the twenty century, the positive (negative) TNA index is associated to a negative (positive) phase of NAO, which exerts a positive (negative) influence on minimum temperatures (Tmin) and precipitation (Prec) during winter and, thus, yield increases (decreases) in IP. In relation to El Niño, the highest correlation takes place in the period 1981-2001. For these decades, high (low) yields are associated with an El Niño to La Niña (La Niña to El Niño) transitions or to El Niño events finishing. For these events, the regional associated atmospheric pattern resembles the NAO, which also influences directly on the maximum temperatures (Tmax) and precipitation experienced by the crop during flowering and grain filling. The co-effects of the two teleconnection patterns help to increase (decrease) the rainfall and decrease (increase) Tmax in IP, thus on increase (decrease) wheat yield. Part II. Crop forecasting The last chapter analyses the potential benefits for wheat and maize yields prediction from using seasonal climate forecasts (precipitation), and explores methods to apply such a climate forecast to crop models. Seasonal climate prediction has significant potential to contribute to the efficiency of agricultural management, and to food and livelihood security. Climate forecasts come in different forms, but probabilistic. For this purpose, two methods were evaluated and applied for disaggregating seasonal climate forecast into daily weather realizations: 1) a conditioned stochastic weather generator (predictWTD) and 2) a simple forecast probability resampler (FResampler1). The two methods were evaluated in a case study where the impacts of three scenarios of seasonal rainfall forecasts on rainfed wheat yield, on irrigation requirements and yields of maize in IP were analyzed. In addition, we estimated the economic margins and production risks associated with extreme scenarios of seasonal rainfall forecasts (dry and wet). The predWTD and FResampler1 methods used for disaggregating seasonal rainfall forecast into daily data needed by the crop simulation models provided comparable predictability. Therefore both methods seem feasible options for linking seasonal forecasts with crop simulation models for establishing yield forecasts or irrigation water requirements. The analysis of the impact on gross margin of grain prices for both crops and maize irrigation costs suggests the combination of market prices expected and the seasonal climate forecast can be a good tool in farmer’s decision-making, especially on dry forecast and/or in locations with low annual precipitation. These methodologies would allow quantifying the benefits and risks of a seasonal weather forecast to farmers in IP. Therefore, we would be able to establish early warning systems and to design crop management adaptation strategies that take advantage of favorable conditions or reduce the effect of adverse conditions. The potential usefulness of this Thesis is to apply the relationships found to crop forecasting on the next cropping season, suggesting opportunity time windows for the prediction. The methodology can be used as well for the prediction of future trends of IP yield variability. Both public (improvement of agricultural planning) and private (decision support to farmers, insurance companies) sectors may benefit from such an improvement of crop forecasting.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis se centra en la generación de ondas superficiales subarmónicas en fluidos sometidos a vibración forzada en el régimen gravitatorio capilar con líquidos de baja viscosidad. Tres problemas diferentes han sido estudiados: un contenedor rectangular con vibración horizontal, la misma geometría pero con una combinación de vibración vertical y horizontal y un obstáculo completamente sumergido vibrado verticalmente en un contenedor grande. Se deriva una ecuación de amplitud desde primeros principios para describir las ondas subarmónicas con forzamiento parámetrico inducido por la vibración. La ecuación es bidimensional mientras que el problema original es tridimensional y admite un forzamiento espacial no uniforme. Usando esta ecuación los tres sistemas han sido analizados, centrándose en calcular la amplitud crítica, la orientación de los patrones y el carácter temporal de los patrones espaciotemporales, que pueden ser estrictamente subarmónicos o cuasiperiodicos con una frecuencia de modulación temporal. La dependencia con los parámetros adimensionales también se considera. La teoría será comparada con los experimentos disponibles en la literatura. Abstract This thesis focus on the generation of subharmonic surface waves on fluids subject to forced vibration in the gravity-capillary regime with liquids of small viscosity. Three different problems have been considered: a rectangular container under horizontal vibration; the same geometry but under a combination of horizontal and vertical vibration; and a fully submerged vertically vibrated obstacle in a large container. An amplitude equation is derived from first principles that fairly precisely describes the subharmonic surfaces waves parametrically driven by vibration. That equation is two dimensional while the underlying problem is three-dimensional and permits spatially nonuniform forcing. Using this equation, the three systems have been analyzed, focusing on the calculation of the threshold amplitude, the pattern orientation, and the temporal character of the spatio-temporal patterns, which can be either strictly subharmonic or quasi-periodic, showing an additional modulation frequency. Dependence on the non-dimensional parameters is also considered. The theory is compared with the experiments available in the literature.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RDB to RDF Mapping Language (R2RML) es una recomendación del W3C que permite especificar reglas para transformar bases de datos relacionales a RDF. Estos datos en RDF se pueden materializar y almacenar en un sistema gestor de tripletas RDF (normalmente conocidos con el nombre triple store), en el cual se pueden evaluar consultas SPARQL. Sin embargo, hay casos en los cuales la materialización no es adecuada o posible, por ejemplo, cuando la base de datos se actualiza frecuentemente. En estos casos, lo mejor es considerar los datos en RDF como datos virtuales, de tal manera que las consultas SPARQL anteriormente mencionadas se traduzcan a consultas SQL que se pueden evaluar sobre los sistemas gestores de bases de datos relacionales (SGBD) originales. Para esta traducción se tienen en cuenta los mapeos R2RML. La primera parte de esta tesis se centra en la traducción de consultas. Se propone una formalización de la traducción de SPARQL a SQL utilizando mapeos R2RML. Además se proponen varias técnicas de optimización para generar consultas SQL que son más eficientes cuando son evaluadas en sistemas gestores de bases de datos relacionales. Este enfoque se evalúa mediante un benchmark sintético y varios casos reales. Otra recomendación relacionada con R2RML es la conocida como Direct Mapping (DM), que establece reglas fijas para la transformación de datos relacionales a RDF. A pesar de que ambas recomendaciones se publicaron al mismo tiempo, en septiembre de 2012, todavía no se ha realizado un estudio formal sobre la relación entre ellas. Por tanto, la segunda parte de esta tesis se centra en el estudio de la relación entre R2RML y DM. Se divide este estudio en dos partes: de R2RML a DM, y de DM a R2RML. En el primer caso, se estudia un fragmento de R2RML que tiene la misma expresividad que DM. En el segundo caso, se representan las reglas de DM como mapeos R2RML, y también se añade la semántica implícita (relaciones de subclase, 1-N y M-N) que se puede encontrar codificada en la base de datos. Esta tesis muestra que es posible usar R2RML en casos reales, sin necesidad de realizar materializaciones de los datos, puesto que las consultas SQL generadas son suficientemente eficientes cuando son evaluadas en el sistema gestor de base de datos relacional. Asimismo, esta tesis profundiza en el entendimiento de la relación existente entre las dos recomendaciones del W3C, algo que no había sido estudiado con anterioridad. ABSTRACT. RDB to RDF Mapping Language (R2RML) is a W3C recommendation that allows specifying rules for transforming relational databases into RDF. This RDF data can be materialized and stored in a triple store, so that SPARQL queries can be evaluated by the triple store. However, there are several cases where materialization is not adequate or possible, for example, if the underlying relational database is updated frequently. In those cases, RDF data is better kept virtual, and hence SPARQL queries over it have to be translated into SQL queries to the underlying relational database system considering that the translation process has to take into account the specified R2RML mappings. The first part of this thesis focuses on query translation. We discuss the formalization of the translation from SPARQL to SQL queries that takes into account R2RML mappings. Furthermore, we propose several optimization techniques so that the translation procedure generates SQL queries that can be evaluated more efficiently over the underlying databases. We evaluate our approach using a synthetic benchmark and several real cases, and show positive results that we obtained. Direct Mapping (DM) is another W3C recommendation for the generation of RDF data from relational databases. While R2RML allows users to specify their own transformation rules, DM establishes fixed transformation rules. Although both recommendations were published at the same time, September 2012, there has not been any study regarding the relationship between them. The second part of this thesis focuses on the study of the relationship between R2RML and DM. We divide this study into two directions: from R2RML to DM, and from DM to R2RML. From R2RML to DM, we study a fragment of R2RML having the same expressive power than DM. From DM to R2RML, we represent DM transformation rules as R2RML mappings, and also add the implicit semantics encoded in databases, such as subclass, 1-N and N-N relationships. This thesis shows that by formalizing and optimizing R2RML-based SPARQL to SQL query translation, it is possible to use R2RML engines in real cases as the resulting SQL is efficient enough to be evaluated by the underlying relational databases. In addition to that, this thesis facilitates the understanding of bidirectional relationship between the two W3C recommendations, something that had not been studied before.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante las últimas décadas se ha producido un fenómeno global de envejecimiento en la población. Esta tendencia se puede observar prácticamente en todos los países del mundo y se debe principalmente a los avances en la medicina, y a los descensos en las tasas de fertilidad y mortalidad. El envejecimiento de la población tiene un gran impacto en la salud de los ciudadanos, y a menudo es la causa de aparición de enfermedades crónicas. Este tipo de enfermedades supone una amenaza y una carga importantes para la sociedad, especialmente en aspectos como la mortalidad o los gastos en los sistemas sanitarios. Entre las enfermedades cardiovasculares, la insuficiencia cardíaca es probablemente la condición con mayor prevalencia y afecta a 23-26 millones de personas en todo el mundo. Normalmente, la insuficiencia cardíaca presenta un mal pronóstico y una tasa de supervivencia bajas, en algunos casos peores que algún tipo de cáncer. Además, suele ser la causa de hospitalizaciones frecuentes y es una de las enfermedades más costosas para los sistemas sanitarios. La tendencia al envejecimiento de la población y la creciente incidencia de las enfermedades crónicas están llevando a una situación en la que los sistemas de salud no son capaces de hacer frente a la demanda de la sociedad. Los servicios de salud existentes tendrán que adaptarse para ser efectivos y sostenibles en el futuro. Es necesario identificar nuevos paradigmas de cuidado de pacientes, así como mecanismos para la provisión de servicios que ayuden a transformar estos sistemas sanitarios. En este contexto, esta tesis se plantea la búsqueda de soluciones, basadas en las Tecnologías de la Información y la Comunicación (TIC), que contribuyan a realizar la transformación en los sistemas sanitarios. En concreto, la tesis se centra en abordar los problemas de una de las enfermedades con mayor impacto en estos sistemas: la insuficiencia cardíaca. Las siguientes hipótesis constituyen la base para la realización de este trabajo de investigación: 1. Es posible definir un modelo basado en el paradigma de lazo cerrado y herramientas TIC que formalice el diseño de mejores servicios para pacientes con insuficiencia cardíaca. 2. El modelo de lazo cerrado definido se puede utilizar para definir un servicio real que ayude a gestionar la insuficiencia cardíaca crónica. 3. La introducción, la adopción y el uso de un servicio basado en el modelo definido se traducirá en mejoras en el estado de salud de los pacientes que sufren insuficiencia cardíaca. a. La utilización de un sistema basado en el modelo de lazo cerrado definido mejorará la experiencia del usuario de los pacientes. La definición del modelo planteado se ha basado en el estándar ISO / EN 13940- Sistema de conceptos para dar soporte a la continuidad de la asistencia. Comprende un conjunto de conceptos, procesos, flujos de trabajo, y servicios como componentes principales, y representa una formalización de los servicios para los pacientes con insuficiencia cardíaca. Para evaluar el modelo definido se ha definido un servicio real basado en el mismo, además de la implementación de un sistema de apoyo a dicho servicio. El diseño e implementación de dicho sistema se realizó siguiendo la metodología de Diseño Orientado a Objetivos. El objetivo de la evaluación consistía en investigar el efecto que tiene un servicio basado en el modelo de lazo cerrado sobre el estado de salud de los pacientes con insuficiencia cardíaca. La evaluación se realizó en el marco de un estudio clínico observacional. El análisis de los resultados ha comprendido métodos de análisis cuantitativos y cualitativos. El análisis cuantitativo se ha centrado en determinar el estado de salud de los pacientes en base a datos objetivos (obtenidos en pruebas de laboratorio o exámenes médicos). Para realizar este análisis se definieron dos índices específicos: el índice de estabilidad y el índice de la evolución del estado de salud. El análisis cualitativo ha evaluado la autopercepción del estado de salud de los pacientes en términos de calidad de vida, auto-cuidado, el conocimiento, la ansiedad y la depresión, así como niveles de conocimiento. Se ha basado en los datos recogidos mediante varios cuestionarios o instrumentos estándar (i.e. EQ-5D, la Escala de Ansiedad y Depresión (HADS), el Cuestionario de Cardiomiopatía de Kansas City (KCCQ), la Escala Holandesa de Conocimiento de Insuficiencia Cardíaca (DHFKS), y la Escala Europea de Autocuidado en Insuficiencia Cardíaca (EHFScBS), así como cuestionarios dedicados no estandarizados de experiencia de usuario. Los resultados obtenidos en ambos análisis, cuantitativo y cualitativo, se compararon con el fin de evaluar la correlación entre el estado de salud objetivo y subjetivo de los pacientes. Los resultados de la validación demostraron que el modelo propuesto tiene efectos positivos en el cuidado de los pacientes con insuficiencia cardíaca y contribuye a mejorar su estado de salud. Asimismo, ratificaron al modelo como instrumento válido para la definición de servicios mejorados para la gestión de esta enfermedad. ABSTRACT During the last decades we have witnessed a global aging phenomenon in the population. This can be observed in practically every country in the world, and it is mainly caused by the advances in medicine, and the decrease of mortality and fertility rates. Population aging has an important impact on citizens’ health and it is often the cause for chronic diseases, which constitute global burden and threat to the society in terms of mortality and healthcare expenditure. Among chronic diseases, Chronic Heart Failure (CHF) or Heart Failure (HF) is probably the one with highest prevalence, affecting between 23 and 26 million people worldwide. Heart failure is a chronic, long-term and serious condition with very poor prognosis and worse survival rates than some type of cancers. Additionally, it is often the cause of frequent hospitalizations and one of the most expensive conditions for the healthcare systems. The aging trends in the population and the increasing incidence of chronic diseases are leading to a situation where healthcare systems are not able to cope with the society demand. Current healthcare services will have to be adapted and redefined in order to be effective and sustainable in the future. There is a need to find new paradigms for patients’ care, and to identify new mechanisms for services’ provision that help to transform the healthcare systems. In this context, this thesis aims to explore new solutions, based on ICT, that contribute to achieve the needed transformation within the healthcare systems. In particular, it focuses on addressing the problems of one of the diseases with higher impact within these systems: Heart Failure. The following hypotheses represent the basis to the elaboration of this research: 1. It is possible to define a model based on a closed-loop paradigm and ICT tools that formalises the design of enhanced healthcare services for chronic heart failure patients. 2. The described closed-loop model can be exemplified in a real service that supports the management of chronic heart failure disease. 3. The introduction, adoption and use of a service based on the outlined model will result in improvements in the health status of patients suffering heart failure. 4. The user experience of patients when utilizing a system based on the defined closed-loop model will be enhanced. The definition of the closed-loop model for health care support of heart failure patients have been based on the standard ISO/EN 13940 System of concepts to support continuity of care. It includes a set of concept, processes and workflows, and services as main components, and it represent a formalization of services for heart failure patients. In order to be validated, the proposed closed-loop model has been instantiated into a real service and a supporting IT system. The design and implementation of the system followed the user centred design methodology Goal Oriented Design. The validation, that included an observational clinical study, aimed to investigate the effect that a service based on the closed-loop model had on heart failure patients’ health status. The analysis of results comprised quantitative and qualitative analysis methods. The quantitative analysis was focused on determining the health status of patients based on objective data (obtained in lab tests or physical examinations). Two specific indexes where defined and considered in this analysis: the stability index and the health status evolution index. The qualitative analysis assessed the self-perception of patients’ health status in terms of quality of life, self-care, knowledge, anxiety and depression, as well as knowledge levels. It was based on the data gathered through several standard instruments (i.e. EQ-5D, the Hospital Anxiety and Depression Scale, the Kansas City Cardiomyopathy Questionnaire, the Dutch Heart Failure Knowledge Scale, and the European Heart Failure Self-care Behaviour Scale) as well as dedicated non-standardized user experience questionnaires. The results obtained in both analyses, quantitative and qualitative, were compared in order to assess the correlation between the objective and subjective health status of patients. The results of the validation showed that the proposed model contributed to improve the health status of the patients and had a positive effect on the patients’ care. It also proved that the model is a valid instrument for designing enhanced healthcare services for heart failure patients.