8 resultados para Tempestades severas
em Universidad Politécnica de Madrid
Resumo:
La producción de durazno mejorado en Chiautzingo, Puebla, se realiza aproximadamente por 100 productores que disponen de una hectárea cada uno. La presencia de heladas severas ha afectado la producción y el ingreso, por lo que ha recurrido a préstamos del Ayuntamiento para adquirir insumos. El objetivo en este trabajo fue elaborar una propuesta de modelo de desarrollo local, y su aplicación en el caso de la producción de durazno de Chiautzingo. El modelo se formuló con base en cuatro elementos, dos en el contexto rural: ámbito de actuación territorial y, participación social en forma organizada; y otros dos en el contexto institucional: generación de conocimiento y uso de información y, apoyos técnicos y económicos para operar programas y financiar proyectos productivos. La aplicación del modelo se inició en un grupo de 52 productores, donde mediante una acción de acompañamiento, fue posible contribuir en el proceso de organización. Se proporcionó los servicios de investigación, capacitación, asesoría técnica continua, información, tecnología, plantas, insumos, herramienta profesional para poda, equipo de aspersión. Esto se logró mediante la interacción de los productores con personal del Colegio de Postgraduados, Ayuntamiento municipal, Consejo estatal de productores de durazno y la Secretaría de Desarrollo Rural.
Resumo:
La Diabetes Mellitus se define como el trastorno del metabolismo de los carbohidratos, resultante de una producción insuficiente o nula de insulina en las células beta del páncreas, o la manifestación de una sensibilidad reducida a la insulina por parte del sistema metabólico. La diabetes tipo 1 se caracteriza por la nula producción de insulina por la destrucción de las células beta del páncreas. Si no hay insulina en el torrente sanguíneo, la glucosa no puede ser absorbida por las células, produciéndose un estado de hiperglucemia en el paciente, que a medio y largo plazo si no es tratado puede ocasionar severas enfermedades, conocidos como síndromes de la diabetes. La diabetes tipo 1 es una enfermedad incurable pero controlable. La terapia para esta enfermedad consiste en la aplicación exógena de insulina con el objetivo de mantener el nivel de glucosa en sangre dentro de los límites normales. Dentro de las múltiples formas de aplicación de la insulina, en este proyecto se usará una bomba de infusión, que unida a un sensor subcutáneo de glucosa permitirá crear un lazo de control autónomo que regule la cantidad optima de insulina aplicada en cada momento. Cuando el algoritmo de control se utiliza en un sistema digital, junto con el sensor subcutáneo y bomba de infusión subcutánea, se conoce como páncreas artificial endocrino (PAE) de uso ambulatorio, hoy día todavía en fase de investigación. Estos algoritmos de control metabólico deben de ser evaluados en simulación para asegurar la integridad física de los pacientes, por lo que es necesario diseñar un sistema de simulación mediante el cual asegure la fiabilidad del PAE. Este sistema de simulación conecta los algoritmos con modelos metabólicos matemáticos para obtener una visión previa de su funcionamiento. En este escenario se diseñó DIABSIM, una herramienta desarrollada en LabViewTM, que posteriormente se trasladó a MATLABTM, y basada en el modelo matemático compartimental propuesto por Hovorka, con la que poder simular y evaluar distintos tipos de terapias y reguladores en lazo cerrado. Para comprobar que estas terapias y reguladores funcionan, una vez simulados y evaluados, se tiene que pasar a la experimentación real a través de un protocolo de ensayo clínico real, como paso previo al PEA ambulatorio. Para poder gestionar este protocolo de ensayo clínico real para la verificación de los algoritmos de control, se creó una interfaz de usuario a través de una serie de funciones de simulación y evaluación de terapias con insulina realizadas con MATLABTM (GUI: Graphics User Interface), conocido como Entorno de Páncreas artificial con Interfaz Clínica (EPIC). EPIC ha sido ya utilizada en 10 ensayos clínicos de los que se han ido proponiendo posibles mejoras, ampliaciones y/o cambios. Este proyecto propone una versión mejorada de la interfaz de usuario EPIC propuesta en un proyecto anterior para gestionar un protocolo de ensayo clínico real para la verificación de algoritmos de control en un ambiente hospitalario muy controlado, además de estudiar la viabilidad de conectar el GUI con SimulinkTM (entorno gráfico de Matlab de simulación de sistemas) para su conexión con un nuevo simulador de pacientes aprobado por la JDRF (Juvenil Diabetes Research Foundation). SUMMARY The diabetes mellitus is a metabolic disorder of carbohydrates, as result of an insufficient or null production of insulin in the beta cellules of pancreas, or the manifestation of a reduced sensibility to the insulin from the metabolic system. The type 1 diabetes is characterized for a null production of insulin due to destruction of the beta cellules. Without insulin in the bloodstream, glucose can’t be absorbed by the cellules, producing a hyperglycemia state in the patient and if pass a medium or long time and is not treated can cause severe disease like diabetes syndrome. The type 1 diabetes is an incurable disease but controllable one. The therapy for this disease consists on the exogenous insulin administration with the objective to maintain the glucose level in blood within the normal limits. For the insulin administration, in this project is used an infusion pump, that permit with a subcutaneous glucose sensor, create an autonomous control loop that regulate the optimal insulin amount apply in each moment. When the control algorithm is used in a digital system, with the subcutaneous senor and infusion subcutaneous pump, is named as “Artificial Endocrine Pancreas” for ambulatory use, currently under investigate. These metabolic control algorithms should be evaluates in simulation for assure patients’ physical integrity, for this reason is necessary to design a simulation system that assure the reliability of PAE. This simulation system connects algorithms with metabolic mathematics models for get a previous vision of its performance. In this scenario was created DIABSIMTM, a tool developed in LabView, that later was converted to MATLABTM, and based in the compartmental mathematic model proposed by Hovorka that could simulate and evaluate several different types of therapy and regulators in closed loop. To check the performance of these therapies and regulators, when have been simulated and evaluated, will be necessary to pass to real experimentation through a protocol of real clinical test like previous step to ambulatory PEA. To manage this protocol was created an user interface through the simulation and evaluation functions od therapies with insulin realized with MATLABTM (GUI: Graphics User Interface), known as “Entorno de Páncreas artificial con Interfaz Clínica” (EPIC).EPIC have been used in 10 clinical tests which have been proposed improvements, adds and changes. This project proposes a best version of user interface EPIC proposed in another project for manage a real test clinical protocol for checking control algorithms in a controlled hospital environment and besides studying viability to connect the GUI with SimulinkTM (Matlab graphical environment in systems simulation) for its connection with a new patients simulator approved for the JDRF (Juvenil Diabetes Research Foundation).
Resumo:
En esta comunicación presentamos un procedimiento para identificar la forma de la curva elástica de un túnel o refuerzo de mina, cuando se conocen las distancias entre unos puntos determinados. Este procedimiento puede emplearse para identificar esfuerzos y presiones, comparando los resultados obtenidos a partir de deformaciones sucesivas de la estructura. El método ha sido implementado en un programa de computador que puede emplearse en microcomputadores. Como se ha visto, el método propuesto es suficientemente robusto y seguro para ser aplicado en las severas condiciones de muchos trabajos de ingeniería civil y de minas. La técnica de mínimos cuadrados ha demostrado ser particularmente efectiva para la obtención de las coordenadas de los puntos. El conocimiento de las pendientes o las curvaturas en los puntos extremos mejora notablemente los resultados en las proximidades de estos puntos, aunque no mejora apreciablemente los resultados en los puntos más alejados. La extensión clara del procedimiento es hacia el cálculo de esfuerzos y la identificación de presiones. Esto puede realizarse mediante un método paso a paso, que permita la posibilidad de considerar una respuesta elástica lineal. Si las medidas se toman en intervalos suficientemente cortos, resultaría posible localizar articulaciones plásticas y repetir el método, identificando la forma de la estructura por tramos. Obviamente, al mismo resultado se llegaría si estas articulaciones plásticas se detectaran durante la realización de las mediciones.
Resumo:
Los virus de plantas pueden causar enfermedades severas que conllevan serias pérdidas económicas a nivel mundial. Además, en la naturaleza son comunes las infecciones simultáneas con distintos virus que conducen a la exacerbación de los síntomas de enfermedad, fenómeno al que se conoce como sinergismo viral. Una de las sintomatologías más severas causadas por los virus en plantas susceptibles es la necrosis sistémica (NS), que incluso puede conducir a la muerte del huésped. Este fenotipo ha sido comparado en ocasiones con la respuesta de resistencia de tipo HR, permitiendo establecer una serie de paralelismos entre ambos tipos de respuesta que sugieren que la NS producida en interacciones compatibles sería el resultado de una respuesta hipersensible sistémica (SHR). Sin embargo, los mecanismos moleculares implicados en el desarrollo de la NS, su relación con procesos de defensa antiviral o su relevancia biológica aún no son bien entendidos, al igual que tampoco han sido estudiados los cambios producidos en la planta a escala genómica en infecciones múltiples que muestran sinergismo en patología. En esta tesis doctoral se han empleado distintas aproximaciones de análisis de expresión génica, junto con otras técnicas genéticas y bioquímicas, en el sistema modelo de Nicotiana benthamiana para estudiar la NS producida por la infección sinérgica entre el Virus X de la patata (PVX) y diversos potyvirus. Se han comparado los cambios producidos en el huésped a nivel genómico y fisiológico entre la infección doble con PVX y el Virus Y de la patata (PVY), y las infecciones simples con PVX o PVY. Además, los cambios transcriptómicos y hormonales asociados a la infección con la quimera viral PVX/HC‐Pro, que reproduce los síntomas del sinergismo entre PVX‐potyvirus, se han comparado con aquellos producidos por otros dos tipos de muerte celular, la PCD ligada a una interacción incompatible y la PCD producida por la disfunción del proteasoma. Por último, técnicas de genética reversa han permitido conocer la implicación de factores del huésped, como las oxilipinas, en el desarrollo de la NS asociada al sinergismo entre PVXpotyvirus. Los resultados revelan que, respecto a las infecciones con solo uno de los virus, la infección doble con PVX‐PVY produce en el huésped diferencias cualitativas además de cuantitativas en el perfil transcriptómico relacionado con el metabolismo primario. Otros cambios en la expresión génica, que reflejan la activación de mecanismos de defensa, correlacionan con un fuerte estrés oxidativo en las plantas doblemente infectadas que no se detecta en las infecciones simples. Además, medidas en la acumulación de determinados miRNAs implicados en diversos procesos celulares muestran como la infección doble altera de manera diferencial tanto la acumulación de estos miRNAs como su funcionalidad, lo cual podría estar relacionado con los cambios en el transcriptoma, así como con la sintomatología de la infección. La comparación a nivel transcriptómico y hormonal entre la NS producida por PVX/HC‐Pro y la interacción incompatible del Virus del mosaico del tabaco en plantas que expresan el gen N de resistencia (SHR), muestra que la respuesta en la interacción compatible es similar a la que se produce durante la SHR, si bien se presenta de manera retardada en el tiempo. Sin embargo, los perfiles de expresión de genes de defensa y de respuesta a hormonas, así como la acumulación relativa de ácido salicílico (SA), ácido jasmonico (JA) y ácido abscísico, en la interacción compatible son más semejantes a la respuesta PCD producida por la disfunción del proteasoma que a la interacción incompatible. Estos datos sugieren una contribución de la interferencia sobre la funcionalidad del proteasoma en el incremento de la patogenicidad, observado en el sinergismo PVX‐potyvirus. Por último, los resultados obtenidos al disminuir la expresión de 9‐LOX, α‐DOX1 y COI1, relacionados con la síntesis o con la señalización de oxilipinas, y mediante la aplicación exógena de JA y SA, muestran la implicación del metabolismo de las oxilipinas en el desarrollo de la NS producida por la infección sinérgica entre PVXpotyvirus en N. benthamiana. Además, estos resultados indican que la PCD asociada a esta infección, al igual que ocurre en interacciones incompatibles, no contiene necesariamente la acumulación viral, lo cual indica que necrosis e inhibición de la multiplicación viral son procesos independientes. ABSTRACT Plant viruses cause severe diseases that lead to serious economic losses worldwide. Moreover, simultaneous infections with several viruses are common in nature leading to exacerbation of the disease symptoms. This phenomenon is known as viral synergism. Systemic necrosis (SN) is one of the most severe symptoms caused by plant viruses in susceptible plants, even leading to death of the host. This phenotype has been compared with the hypersensitive response (HR) displayed by resistant plants, and some parallelisms have been found between both responses, which suggest that SN induced by compatible interactions could be the result of a systemic hypersensitive response (SHR). However, the molecular mechanisms involved in the development of SN, its relationship with antiviral defence processes and its biological relevance are still unknown. Furthermore, the changes produced in plants by mixed infections that cause synergistic pathological effects have not been studied in a genome‐wide scale. In this doctoral thesis different approaches have been used to analyse gene expression, together with other genetic and biochemical techniques, in the model plant Nicotiana benthamiana, in order to study the SN produced by the synergistic infection of Potato virus X (PVX) with several potyviruses. Genomic and physiological changes produced in the host by double infection with PVX and Potato virus Y (PVY), and by single infection with PVX or PVY have been compared. In addition, transcriptional and hormonal changes associated with infection by the chimeric virus PVX/HC‐Pro, which produces synergistic symptoms similar to those caused by PVX‐potyvirus, have been compared with those produced by other types of cell death. These types of cell death are: PCD associated with an incompatible interaction, and PCD produced by proteasome disruption. Finally, reverse genetic techniques have revealed the involvement of host factors, such as oxylipins, in the development of SN associated with PVX‐potyvirus synergism. The results revealed that compared with single infections, double infection with PVX‐PVY produced qualitative and quantitative differences in the transcriptome profile, mainly related to primary metabolism. Other changes in gene expression, which reflected the activation of defence mechanisms, correlated with a severe oxidative stress in doubly infected plants that was undetected in single infections. Additionally, accumulation levels of several miRNAs involved in different cellular processes were measured, and the results showed that double infection not only produced the greatest variations in miRNA accumulation levels but also in miRNA functionality. These variations could be related with transcriptomic changes and the symptomatology of the infection. Transcriptome and hormone level comparisons between SN induced by PVX/HCPro and the incompatible interaction produced by Tobacco mosaic virus in plants expressing the N resistance gene (SHR), showed some similarities between both responses, even though the compatible interaction appeared retarded in time. Nevertheless, the expression profiles of both defence‐related genes and hormoneresponsive genes, as well as the relative accumulation of salicylic acid (SA), jasmonic acid (JA) and abscisic acid in the compatible interaction are more similar to the PCD response produced by proteasome disruption. These data suggest that interference with proteasome functionality contributes to the increase in pathogenicity associated with PVX‐potyvirus synergism. Finally, the results obtained by reducing the expression of 9‐LOX, α‐DOX1 and COI1, related with synthesis or signalling of oxylipins, and by applying exogenously JA and SA, revealed that oxylipin metabolism is involved in the development of SN induced by PVX‐potyvirus synergistic infections in N. benthamiana. Moreover, these results also indicated that PVX‐potyvirus associated PCD does not necessarily restrict viral accumulation, as is also the case in incompatible interactions. This indicates that both necrosis and inhibition of viral multiplication are independent processes.
Resumo:
El presente proyecto muestra el estudio realizado para evaluar la capacidad de drenaje de la canalización construida en el río Forcón-Barranca, en la población de San Miguel de Reinante (Lugo), a consecuencia de las severas inundaciones acaecidas los días 9 y 10 de junio de 2010. Para evaluar y analizar la peligrosidad se ha seguido un método hidrometeorológico agregado, debido a la falta de aforos, pluviómetros y datos, y se han usado Modelos Digitales de Elevaciones como punto de partida. Todo ello ha llevado a la conclusión de la ineficacia del canal para un período de retorno de 500 años. ABSTRACT After severe flooding in San Miguel de Reinante (Lugo) the 9th and 10th June 2010, a concrete channel was built. This project assesses the drainage capacity of such channel, performing a flood hazard analysis. Because no flow measures or rain gauge data were available a lumped model was followed in order to evaluate flood hazard, using Digital Elevation Models as a starting point. This has led to the conclusion that the channel cannot effectively drain a flow after a rainfall with a return period of 500 years.
Resumo:
A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.
Resumo:
En esta tesis se recoge el trabajo realizado centrado en el estudio del vídeo estereoscópico y, en particular, la información que aportan los mapas de disparidad y sus posibles aplicaciones. El trabajo se ha dividido en tres bloques diferenciados: En primer lugar se presentan los resultados de un codificador de vídeo multivista basado en mapas de disparidad previamente computados. La finalidad del estudio es comprobar los efectos de la aplicación directa de la disparidad para la compensación entre vistas en cuanto a reducción del tiempo de procesado y calidad de la compresión sobre algoritmos basados en división de bloques, como AVC o HEVC. También se ha trabajado para obtener un flujo de vídeo compatible con MVC que contenga la información de los mapas de disparidad embebida en el flujo en forma de vectores de compensación. Estos mapas se usan como base para obtener la compensación entre bloques de la imagen derecha e izquierda. Para reducir aún más el coste computacional, se ha diseñado un algoritmo de decisión previa del tamaño del bloque de compensación. Aquí se presentan los resultados de ambas estrategias, con decisión previa y sin ella, para evaluar las alternativas. Se presentan los resultados tanto sobre imágenes estereoscópicas estáticas como secuencias de vídeo estereoscópico, cada una de ellas a diferentes valores de compresión de forma que se obtenga una referencia parametrizada del comportamiento del algoritmo. Dichos resultados revelan una reducción drástica del tiempo de procesado con estabilización de la tasa binaria para valores de compresión moderados (compresión de alta calidad), mientras que para compresiones severas, la tasa binaria crece en comparación con el software de referencia JMVC. En segundo lugar se realiza un análisis de calidad relacionado con la información de disparidad de las secuencias estereoscópicas, sus valores absolutos y sus derivadas temporales, de modo que pueda servir tanto para generar sistemas automáticos de evaluación de la calidad, como para sintetizar una lista de buenas prácticas para la creación de contenidos audiovisuales estereoscópicos que ofrezcan una calidad de la experiencia elevada. Para relacionar la calidad de la experiencia y el confort visual generado por una secuencia estereoscópica se ha llevado a cabo una serie de tests de visualización por parte de un grupo de observadores, de secuencias previamente generadas y catalogadas en base a sus variaciones de la disparidad y de movimiento. Las conclusiones extraídas indican que los paralajes negativos son más efectistas y ofrecen una inmersión mayor y, por tanto, mejor calidad de la experiencia, cuando se utilizan de forma moderada. Variaciones rápidas de los valores de disparidad negativa y variaciones de movimiento de objetos con disparidad negativa generan disconfort visual. La probabilidad de que paralajes positivos generen disconfort visual son mucho menores, por lo que resulta interesante en este caso utilizar variaciones rápidas de disparidad y movimiento para compensar la falta de efectismo que producen dichos paralajes. Por último, se ha planteado el diseño de un sistema de inserción coherente de gráficos, en tiempo real, en una escena estereoscópica. Se ha hecho hincapié en la necesidad de la coherencia entre la disparidad de los objetos que conforman una escena y las oclusiones que éstos producen, por lo que la inserción de un elemento no nativo de la escena debe tener en cuenta esta circunstancia para mantener la calidad de la experiencia estereoscópica. Se ha estudiado la influencia de la calidad del mapa de disparidad de la escena como base sobre la que realizar la inserción, así como posibles formas de modificar dicho mapa para que la inserción produzca el efecto deseado de coherencia. En concreto se ha postulado que es preferible sacrificar la precisión punto a punto del mapa de disparidad si, de esa manera, se evita cometer pequeños errores aislados de inserción, a costa de introducir un ajuste menos fino en los bordes de los objetos.
Resumo:
Los recubrimientos lubricantes sólidos son requeridos para reducir la fricción y prevenir el desgaste en componentes que operan a altas temperaturas o en vacío (vehículos espaciales, industria química, motores diésel, turbinas aeronáuticas y de generación de energía…). Los lubricantes líquidos pierden sus características cuando las condiciones de presión, temperatura o ambientales son severas (oxidación, inestabilidad térmica, volatilidad,…), por ejemplo los aceites minerales convencionales se descomponen a temperaturas próximas a 200 ºC. Por tanto, la única manera de poder conseguir una adecuada lubricación a temperaturas extremas es por medio de sólidos, que cada vez más, se aplican en forma de recubrimientos. Estos recubrimientos podrían ser empleados en componentes de vehículos espaciales reutilizables, donde se pueden alcanzar, en la reentrada en la atmósfera, temperaturas de 700 ºC (bisagras, rodamientos, articulaciones y zonas de sellado en las superficies de control, y rodamientos de las turbobombas y las cajas de engranajes). Dichos recubrimientos también deberían ser capaces de proporcionar una lubricación efectiva a bajas temperaturas para las operaciones en tierra, para las operaciones de arranque en frío, incluso en el espacio. El conjunto de requisitos que tendrían que satisfacer las capas tribológicas relacionadas con estas condiciones extremas es muy diverso, lo que hace que el concepto de capas tipo composite (aquéllas constituidas por varios componentes) sea, en principio, muy adecuado para estas aplicaciones. Recubrimientos composite proyectados térmicamente constituidos por una matriz dura y conteniendo lubricantes sólidos pueden ser una buena solución desde el punto de vista tribológico. El “Lewis Research Centre” de la NASA ha estado desarrollando recubrimientos autolubricantes tipo composite, constituidos por la combinación de materiales duros como el carburo de cromo, junto con lubricantes sólidos como plata o la eutéctica de fluoruros de calcio y bario, en una matriz de NiCr, para su uso en aplicaciones terrestres a alta temperatura. Estos recubrimientos han sido aplicados mediante proyección térmica, siendo denominados como series PS100, PS200, PS300 y PS400, reduciendo de forma significativa el coeficiente de fricción y mejorando la resistencia al desgaste en un amplio margen de temperaturas. Otra nueva familia de materiales con comportamiento tribológico prometedor son las aleaciones cuasicristalinas (QC). Presentan características muy atractivas: alta dureza, baja fricción, alto límite elástico de compresión... Son muy frágiles como materiales másicos, por lo que se intentan aplicar en forma de recubrimientos. Se pueden depositar mediante proyección térmica. Algunos de estos materiales cuasicristalinos, como AlCoFeCr, poseen coeficientes de dilatación próximos al de los materiales metálicos, alta estabilidad térmica, baja conductividad térmica y una elevada resistencia a la oxidación y a la corrosión en caliente. En esta tesis se han desarrollado recubrimientos tipo composite conteniendo cuasicristales como componente antidesgaste, NiCr como componente tenaz, y Ag y la eutéctica de BaF2-CaF2, como lubricantes sólidos. Estos recubrimientos han sido depositados con diferentes composiciones (denominadas TH100, TH103, TH200, TH400, TH600…) mediante distintos procesos de proyección térmica: plasma en aire (PS), plasma en baja presión (LPPS) y combustión a alta velocidad (HVOF). Los recubrimientos se han generado sobre el sustrato X-750, una superaleación base níquel, endurecible por precipitación, con muy buena resistencia mecánica y a la oxidación hasta temperaturas de 870 ºC y, además, es empleada en aplicaciones aeroespaciales e industriales. Los recubrimientos han sido caracterizados microestructuralmente en INTA (Instituto Nacional de Técnica Aeroespacial), mediante SEM-EDS (Scanning Electronic Microscopy-Energy Dispersive Spectroscopy) y XRD (X-Ray Diffraction), y tribológicamente mediante medidas de microdureza y ensayos en tribómetro POD (Pin On Disc) para determinar los coeficientes de fricción y de desgaste. Los recubrimientos han sido ensayados tribológicamente a alta temperatura en INTA y en vacío en AMTTARC (Aerospace and Space Materials Technology Testhouse – Austrian Research Centres), en Seibersdorf (Austria). Se ha estudiado la influencia de la carga normal aplicada, la velocidad lineal y el material del pin. De entre las diferentes series de recubrimientos cuasicristalinos tipo composite desarrolladas, dos de ellas, TH100 y TH103 han presentado una excelente calidad microestructural (baja porosidad, distribución uniforme de fases…) y se han mostrado como excelentes recubrimientos antidesgaste. Sin embargo, estas capas presentan un pobre comportamiento como autolubricantes a temperatura ambiente, aunque mejoran mucho a alta temperatura o en vacío. Los resultados del trabajo presentado en esta tesis han proporcionado nuevo conocimiento respecto al comportamiento tribológico de recubrimientos autolubricantes cuasicristalinos tipo composite depositados por proyección térmica. Sin embargo, dichos resultados, aunque son muy prometedores, no han puesto de manifiesto el adecuado comportamiento autolubricante que se pretendía y, además, como ocurre en cualquier trabajo de investigación, durante el desarrollo del mismo siempre aparecen nuevas dudas por resolver. Se proponen nuevas líneas de trabajo futuro que complementen los resultados obtenidos y que puedan encaminar hacia la obtención de un recubrimiento que mejore su comportamiento autolubricante. ABSTRACT Solid lubricant coatings are required to reduce friction and prevent wear in components that operate at high temperatures or under vacuum (space vehicles, chemical industry, diesel engines, power generation turbines and aeronautical turbines, for instance). In these cases neither greases nor liquid lubricants can be employed and the only practicable approach to lubrication in such conditions is by means of solids. These are increasingly applied in the form of coatings which should exhibit low shear strength, whilst maintaining their chemical stability at extremes temperatures and in the space environment. In the space field, these coatings would be employed in re-usable space plane applications, such as elevon hinges, where temperatures of 700 ºC are reached during re-entry into the Earth’s atmosphere. These coatings should also be capable of providing effective lubrication at lower temperatures since “cold start” operation may be necessary, even in the space environment. The diverse and sometimes conflictive requirements in high temperature and space-related tribological coatings make the concept of composite coatings highly suitable for these applications. Thermal-sprayed composites containing solid lubricants in a hard matrix perform well tribologically. NASA‘s Lewis Research Centre had developed self-lubricating composite coatings for terrestrial use, comprising hard materials like chromium carbide as well as solid lubricant additives such as silver and BaF2-CaF2 eutectic on a Ni-Cr matrix. These coatings series, named PS100, PS200, PS300 and PS400, are applied by thermal spray and significantly reduce friction coefficients, improving wear resistance over a wide temperature range. Quasicrystalline alloys (QC) constitute a new family of materials with promising tribological behaviour. Some QC materials exhibit a combination of adequate antifriction properties: low friction coefficient, high hardness and high yield strength under compression, and can be easily produced as coatings on top of metallic and non-metallic materials. Among these QC alloys, AlCoFeCr has high hardness (700 HV0.1), a thermal expansion coefficient close to that of metals, high thermal stability, low thermal conductivity and good oxidation and hot corrosion resistance. However most QC materials have the disadvantage of being very brittle. In order to take advantage of the excellent tribological properties of QCs, thick composite lubricant coatings were prepared containing them as the hard phase for wear resistance, Ag and BaF2-CaF2 eutectic as lubricating materials and NiCr as the tough component. These coatings were deposited in different composition mixtures (named TH100, TH103, TH200, TH400, TH600…) by different thermal spray processes: air plasma spray (PS), low pressure plasma spray (LPPS) and high velocity oxy-fuel (HVOF), on X-750 substrates. X-750 is an age-hardenable nickel-base superalloy with very good strength and a good resistance to oxidising combustion gas environments at temperatures up to about 870 ºC and it is widely used in aerospace and industrial applications. Coatings have been characterized microstructurally, at INTA (National Institute for Aerospace Technology), by means of SEM-EDS (Scanning Electronic Microscopy- Energy Dispersive Spectroscopy) and XRD (X-Ray Diffraction), and tribologically by microhardness measurements and pin-on-disc testing to determine friction coefficients as well as wear resistance. The coatings were tested tribologically at high temperature at INTA and under vacuum at AMTT-ARC (Aerospace and Space Materials Technology Testhouse – Austrian Research Centres), in Seibersdorf (Austria). Different loads, linear speeds and pin materials were studied. TH100 and TH103 QC alloy matrix composite coatings were deposited by HVOF with excellent microstructural quality (low porosity, uniform phase distribution) and showed to be excellent wear resistant coatings. However these QC alloy matrix composite coatings are poor as a self-lubricant at room temperature but much better at high temperature or in vacuum. The results from the work performed within the scope of this thesis have provided new knowledge concerning the tribological behavior of self-lubricating quasicrystalline composite coatings deposited by thermal spraying. Although these results are very promising, they have not shown an adequate self-lubricating behavior as was intended, and also, as in any research, the results have in addition raised new questions. Future work is suggested to complement the results of this thesis in order to improve the selflubricating behaviour of the coatings.