924 resultados para Optimizing time on-wing


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ocean acidity has increased by 30% since preindustrial times due to the uptake of anthropogenic CO2 and is projected to rise by another 120% before 2100 if CO2 emissions continue at current rates. Ocean acidification is expected to have wide-ranging impacts on marine life, including reduced growth and net erosion of coral reefs. Our present understanding of the impacts of ocean acidification on marine life, however, relies heavily on results from short-term CO2 perturbation studies. Here we present results from the first long-term CO2 perturbation study on the dominant reef-building cold-water coral Lophelia pertusa and relate them to results from a short-term study to compare the effect of exposure time on the coral's responses. Short-term (one week) high CO2 exposure resulted in a decline of calcification by 26-29% for a pH decrease of 0.1 units and net dissolution of calcium carbonate. In contrast, L. pertusa was capable to acclimate to acidified conditions in long-term (six months) incubations, leading to even slightly enhanced rates of calcification. Net growth is sustained even in waters sub-saturated with respect to aragonite. Acclimation to seawater acidification did not cause a measurable increase in metabolic rates. This is the first evidence of successful acclimation in a coral species to ocean acidification, emphasizing the general need for long-term incubations in ocean acidification research. To conclude on the sensitivity of cold-water coral reefs to future ocean acidification further ecophysiological studies are necessary which should also encompass the role of food availability and rising temperatures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Since pre-industrial times, uptake of anthropogenic CO2 by surface ocean waters has caused a documented change of 0.1 pH units. Calcifying organisms are sensitive to elevated CO2 concentrations due to their calcium carbonate skeletons. In temperate rocky intertidal environments, calcifying and noncalcifying macroalgae make up diverse benthic photoautotrophic communities. These communities may change as calcifiers and noncalcifiers respond differently to rising CO2 concentrations. In order to test this hypothesis, we conducted an 86?d mesocosm experiment to investigate the physiological and competitive responses of calcifying and noncalcifying temperate marine macroalgae to 385, 665, and 1486 µatm CO2. We focused on comparing 2 abundant red algae in the Northeast Atlantic: Corallina officinalis (calcifying) and Chondrus crispus (noncalcifying). We found an interactive effect of CO2 concentration and exposure time on growth rates of C. officinalis, and total protein and carbohydrate concentrations in both species. Photosynthetic rates did not show a strong response. Calcification in C. officinalis showed a parabolic response, while skeletal inorganic carbon decreased with increasing CO2. Community structure changed, as Chondrus crispus cover increased in all treatments, while C. officinalis cover decreased in both elevated-CO2 treatments. Photochemical parameters of other species are also presented. Our results suggest that CO2 will alter the competitive strengths of calcifying and noncalcifying temperate benthic macroalgae, resulting in different community structures, unless these species are able to adapt at a rate similar to or faster than the current rate of increasing sea-surface CO2 concentrations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Ocean Sampling Day (OSD) is a simultaneous sampling campaign of the world's oceans which took place (for the first time) on the summer solstice (June 21st) in the year 2014. These cumulative samples, related in time, space and environmental parameters, provide insights into fundamental rules describing microbial diversity and function and contribute to the blue economy through the identification of novel, ocean-derived biotechnologies. We see OSD data as a reference data set for generations of experiments to follow in the coming decade. The present data set includes a description of each sample collected during the Ocean Sampling Day 2014 and provides contextual environmental data measured concurrently with the collection of water samples for genomic analyses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Selective area growth of a-plane GaN nanocolumns by molecular beam epitaxy was performed for the first time on a-plane GaN templates. Ti masks with 150 nm diameter nanoholes were fabricated by colloidal lithography, an easy, fast and cheap process capable to handle large areas. Even though colloidal lithography does not provide a perfect geometrical arrangement like e-beam lithography, it produces a very homogeneous mask in terms of nanohole diameter and density, and is used here for the first time for the selective area growth of GaN. Selective area growth of a-plane GaN nanocolumns is compared, in terms of anisotropic lateral and vertical growth rates, with GaN nanocolumns grown selectively on the c-plane

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El modo tradicional de estimar el nivel de seguridad vial es el registro de accidentes de tráfico, sin embargo son altamente variables, aleatorios y necesitan un periodo de registro de al menos 3 años. Existen metodologías preventivas en las cuales no es necesario que ocurra un accidente para determinar el nivel de seguridad de una intersección, como lo es la técnica de los conflictos de tráfico, que introduce las mediciones alternativas de seguridad como cuantificadoras del riesgo de accidente. El objetivo general de la tesis es establecer una metodología que permita clasificar el riesgo en intersecciones interurbanas, en función del análisis de conflictos entre vehículos, realizado mediante las variables alternativas o indirectas de seguridad vial. La metodología para el análisis y evaluación temprana de la seguridad en una intersección, estará basada en dos medidas alternativas de seguridad: el tiempo hasta la colisión y el tiempo posterior a la invasión de la trayectoria. El desarrollo experimental se realizó mediante estudios de campo, para la parte exploratoria de la investigación, se seleccionaron 3 intersecciones interurbanas en forma de T donde se obtuvieron las variables que caracterizan los conflictos entre vehículos; luego mediante técnicas de análisis multivariante, se obtuvo los modelos de clasificación del riesgo cualitativo y cuantitativo. Para la homologación y el estudio final de concordancia entre el índice propuesto y el modelo de clasificación, se desarrollaron nuevos estudios de campo en 6 intersecciones interurbanas en forma de T. El índice de riesgo obtenido resulta una herramienta muy útil para realizar evaluaciones rápidas conducentes a estimar la peligrosidad de una intersección en T, debido a lo simple y económico que resulta obtener los registros de datos en campo, por medio de una rápida capacitación a operarios; la elaboración del informe de resultados debe ser por un especialista. Los índices de riesgo obtenidos muestran que las variables originales más influyentes son las mediciones de tiempo. Se pudo determinar que los valores más altos del índice de riesgo están relacionados a un mayor riesgo de que un conflicto termine en accidente. Dentro de este índice, la única variable cuyo aporte es proporcionalmente directo es la velocidad de aproximación, lo que concuerda con lo que sucede en un conflicto, pues una velocidad excesiva se manifiesta como un claro factor de riesgo ya que potencia todos los fallos humanos en la conducción. Una de las principales aportaciones de esta tesis doctoral a la ingeniería de carreteras, es la posibilidad de aplicación de la metodología por parte de administraciones de carreteras locales, las cuales muchas veces cuentan con recursos de inversión limitados para efectuar estudios preventivos, sobretodo en países en vías de desarrollo. La evaluación del riesgo de una intersección luego de una mejora en cuanto a infraestructura y/o dispositivos de control de tráfico, al igual que un análisis antes – después, pero sin realizar una comparación mediante la ocurrencia de accidentes, sino que por medio de la técnica de conflictos de tráfico, se puede convertir en una aplicación directa y económica. Además, se pudo comprobar que el análisis de componentes principales utilizado en la creación del índice de riesgo de la intersección, es una herramienta útil para resumir todo el conjunto de mediciones que son posibles de obtener con la técnica de conflictos de tráfico y que permiten el diagnóstico del riesgo de accidentalidad en una intersección. En cuanto a la metodología para la homologación de los modelos, se pudo establecer la validez y confiabilidad al conjunto de respuestas entregadas por los observadores en el registro de datos en campo, ya que los resultados de la validación establecen que la medición de concordancia de las respuestas entregadas por los modelos y lo observado, son significativas y sugieren una alta coincidencia entre ellos. ABSTRACT The traditional way of estimating road safety level is the record of occurrence of traffic accidents; however, they are highly variable, random, and require a recording period of at least three years. There are preventive methods which do not need an accident to determine the road safety level of an intersection, such as traffic conflict technique, which introduces surrogate safety measures as parameters for the evaluation of accident risks. The general objective of the thesis is to establish a methodology that will allow the classification of risk at interurban intersections as a function of the analysis of conflicts between vehicles performed by means of surrogate road safety variables. The proposal of a methodology for the analysis and early evaluation of safety at an intersection will be based on two surrogate safety measures: the time to collision and the post encroachment time. On the other hand, the experimental development has taken place by means of field studies in which the exploratory part of the investigation selected three interurban T-intersections where the application of the traffic conflict technique gave variables that characterize the conflicts between vehicles; then, using multivariate analysis techniques, the models for the classification of qualitative and quantitative risk were obtained. With the models new field studies were carried out at six interurban Tintersections with the purpose of developing the homologation and the final study of the agreement between the proposed index and the classification model. The risk index obtained is a very useful tool for making rapid evaluations to estimate the hazard of a T-intersection, as well as for getting simply and economically the field data records after a fast training of the workers and then preparing the report of results by a specialist. The risk indices obtained show that the most influential original variables are the measurements of time. It was determined that the highest risk index values are related with greater risk of a conflict resulting in an accident. Within this index, the only variable whose contribution is proportionally direct is the approach speed, in agreement with what happens in a conflict, because excessive speed appears as a clear risk factor at an intersection because it intensifies all the human driving faults. One of the main contributions of this doctoral thesis to road engineering is the possibility of applying the methodology by local road administrations, which very often have limited investment resources to carry out these kinds of preventive studies, particularly in developing countries. The evaluation of the risk at an intersection after an improvement in terms of infrastructure and/or traffic control devices, the same as a before/after analysis, without comparison of accident occurrence but by means of the traffic conflict technique, can become a direct and economical application. It is also shown that main components analysis used for producing the risk index of the intersection is a useful tool for summarizing the whole set of measurements that can be obtained with the traffic conflict technique and allow diagnosing accident risk at an intersection. As to the methodology for the homologation of the models, the validity and reliability of the set of responses delivered by the observers recording the field data could be established, because the results of the validation show that agreement between the observations and the responses delivered by the models is significant and highly coincident.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro de la computación con membranas. Se trata de un tipo de computación bio-inspirado, concretamente basado en las células de los organismos vivos, en las que se producen múltiples reacciones de forma simultánea. A partir de la estructura y funcionamiento de las células se han definido diferentes modelos formales, denominados P sistemas. Estos modelos no tratan de modelar el comportamiento biológico de una célula, sino que abstraen sus principios básicos con objeto de encontrar nuevos paradigmas computacionales. Los P sistemas son modelos de computación no deterministas y masivamente paralelos. De ahí el interés que en los últimos años estos modelos han suscitado para la resolución de problemas complejos. En muchos casos, consiguen resolver de forma teórica problemas NP-completos en tiempo polinómico o lineal. Por otra parte, cabe destacar también la aplicación que la computación con membranas ha tenido en la investigación de otros muchos campos, sobre todo relacionados con la biología. Actualmente, una gran cantidad de estos modelos de computación han sido estudiados desde el punto de vista teórico. Sin embargo, el modo en que pueden ser implementados es un reto de investigación todavía abierto. Existen varias líneas en este sentido, basadas en arquitecturas distribuidas o en hardware dedicado, que pretenden acercarse en lo posible a su carácter no determinista y masivamente paralelo, dentro de un contexto de viabilidad y eficiencia. En esta tesis doctoral se propone la realización de un análisis estático del P sistema, como vía para optimizar la ejecución del mismo en estas plataformas. Se pretende que la información recogida en tiempo de análisis sirva para configurar adecuadamente la plataforma donde se vaya a ejecutar posteriormente el P sistema, obteniendo como consecuencia una mejora en el rendimiento. Concretamente, en esta tesis se han tomado como referencia los P sistemas de transiciones para llevar a cabo el estudio de dicho análisis estático. De manera un poco más específica, el análisis estático propuesto en esta tesis persigue que cada membrana sea capaz de determinar sus reglas activas de forma eficiente en cada paso de evolución, es decir, aquellas reglas que reúnen las condiciones adecuadas para poder ser aplicadas. En esta línea, se afronta el problema de los estados de utilidad de una membrana dada, que en tiempo de ejecución permitirán a la misma conocer en todo momento las membranas con las que puede comunicarse, cuestión que determina las reglas que pueden aplicarse en cada momento. Además, el análisis estático propuesto en esta tesis se basa en otra serie de características del P sistema como la estructura de membranas, antecedentes de las reglas, consecuentes de las reglas o prioridades. Una vez obtenida toda esta información en tiempo de análisis, se estructura en forma de árbol de decisión, con objeto de que en tiempo de ejecución la membrana obtenga las reglas activas de la forma más eficiente posible. Por otra parte, en esta tesis se lleva a cabo un recorrido por un número importante de arquitecturas hardware y software que diferentes autores han propuesto para implementar P sistemas. Fundamentalmente, arquitecturas distribuidas, hardware dedicado basado en tarjetas FPGA y plataformas basadas en microcontroladores PIC. El objetivo es proponer soluciones que permitan implantar en dichas arquitecturas los resultados obtenidos del análisis estático (estados de utilidad y árboles de decisión para reglas activas). En líneas generales, se obtienen conclusiones positivas, en el sentido de que dichas optimizaciones se integran adecuadamente en las arquitecturas sin penalizaciones significativas. Summary Membrane computing is the focus of this doctoral thesis. It can be considered a bio-inspired computing type. Specifically, it is based on living cells, in which many reactions take place simultaneously. From cell structure and operation, many different formal models have been defined, named P systems. These models do not try to model the biological behavior of the cell, but they abstract the basic principles of the cell in order to find out new computational paradigms. P systems are non-deterministic and massively parallel computational models. This is why, they have aroused interest when dealing with complex problems nowadays. In many cases, they manage to solve in theory NP problems in polynomial or lineal time. On the other hand, it is important to note that membrane computing has been successfully applied in many researching areas, specially related to biology. Nowadays, lots of these computing models have been sufficiently characterized from a theoretical point of view. However, the way in which they can be implemented is a research challenge, that it is still open nowadays. There are some lines in this way, based on distributed architectures or dedicated hardware. All of them are trying to approach to its non-deterministic and parallel character as much as possible, taking into account viability and efficiency. In this doctoral thesis it is proposed carrying out a static analysis of the P system in order to optimize its performance in a computing platform. The general idea is that after data are collected in analysis time, they are used for getting a suitable configuration of the computing platform in which P system is going to be performed. As a consequence, the system throughput will improve. Specifically, this thesis has made use of Transition P systems for carrying out the study in static analysis. In particular, the static analysis proposed in this doctoral thesis tries to achieve that every membrane can efficiently determine its active rules in every evolution step. These rules are the ones that can be applied depending on the system configuration at each computational step. In this line, we are going to tackle the problem of the usefulness states for a membrane. This state will allow this membrane to know the set of membranes with which communication is possible at any time. This is a very important issue in determining the set of rules that can be applied. Moreover, static analysis in this thesis is carried out taking into account other properties such as membrane structure, rule antecedents, rule consequents and priorities among rules. After collecting all data in analysis time, they are arranged in a decision tree structure, enabling membranes to obtain the set of active rules as efficiently as possible in run-time system. On the other hand, in this doctoral thesis is going to carry out an overview of hardware and software architectures, proposed by different authors in order to implement P systems, such as distributed architectures, dedicated hardware based on PFGA, and computing platforms based on PIC microcontrollers. The aim of this overview is to propose solutions for implementing the results of the static analysis, that is, usefulness states and decision trees for active rules. In general, conclusions are satisfactory, because these optimizations can be properly integrated in most of the architectures without significant penalties.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The recognition of an increasing and worldwide demand for high quality in fruits and vegetables has grown in recent years. Evidence of severe problems of mechanical damage is increasing, and this is affecting the trade of fruits in European and other countries. The potential market for fresh high-quality vegetables and fruits remains restricted by the lack of quality of the majority of products that reach consumers; this is the case for local as well as import/export markets, so a reduction in the consumption of fresh fruits in favour of other fixed-quality products (dairy in particular) may become widespread. In a recent survey (King, 1988, cited in Bellon, 1989), it appears that, for the moment, one third of the surveyed consumers are still continuing to increase their fresh produce consumption. The factors that appear as being most important in influencing the shopping behaviour of these consumers are taste/flavour, freshness/ripeness, appealing look, and cleanliness. Research on mechanical damage in fruit and vegetables has been underway for several years. The first research made on physical properties of fruits was in fact directed towards analysing the response to slow or rapid loading of selected fruits (Fridley et al, 1968; Horsefield et al., 1972). From that time on, research has expanded greatly, and different aspects of the problem have been approached. These include applicable mechanical models for the contact problem, the response of biological tissues to loading, devices for detecting damage causes in machines and equipment, and procedures for sensing bruises in grading and sorting. This chapter will be devoted to the study of actual research results relative to the cause and mechanisms of mechanical damage in fruits (secondarily in vegetables), the development of bruises in these commodities, the models that have been used up to now, and the different factors which have been recognized as influencing the appearance and development of mechanical damage in fruits. The study will be focused mainly on contact-damage - that is, slow or rapid loads applied to the surface of the products and causing bruises. (A bruise is defined as an altered volume of fruit tissues below the skin that is discoloured and softened.) Other types of mechanical damage, like abrasion and scuffing, punctures and cuts, will be also mentioned briefly.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

AUTOFLY-Aid Project aims to develop and demonstrate novel automation support algorithms and tools to the flight crew for flight critical collision avoidance using “dynamic 4D trajectory management”. The automation support system is envisioned to improve the primary shortcomings of TCAS, and to aid the pilot through add-on avionics/head-up displays and reality augmentation devices in dynamically evolving collision avoidance scenarios. The main theoretical innovative and novel concepts to be developed by AUTOFLY-Aid project are a) design and development of the mathematical models of the full composite airspace picture from the flight deck’s perspective, as seen/measured/informed by the aircraft flying in SESAR 2020, b) design and development of a dynamic trajectory planning algorithm that can generate at real-time (on the order of seconds) flyable (i.e. dynamically and performance-wise feasible) alternative trajectories across the evolving stochastic composite airspace picture (which includes new conflicts, blunder risks, terrain and weather limitations) and c) development and testing of the Collision Avoidance Automation Support System on a Boeing 737 NG FNPT II Flight Simulator with synthetic vision and reality augmentation while providing the flight crew with quantified and visual understanding of collision risks in terms of time and directions and countermeasures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los alimentos son sistemas complejos, formados por diversas estructuras a diferentes escalas: macroscópica y microscópica. Muchas propiedades de los alimentos, que son importantes para su procesamiento, calidad y tratamiento postcosecha, están relacionados con su microestructura. La presente tesis doctoral propone una metodología completa para la determinación de la estructura de alimentos desde un punto de vista multi-escala, basándose en métodos de Resonancia Magnética Nuclear (NMR). Las técnicas de NMR son no invasivas y no destructivas y permiten el estudio tanto de macro- como de microestructura. Se han utilizado distintos procedimientos de NMR dependiendo del nivel que se desea estudiar. Para el nivel macroestructural, la Imagen de Resonancia Magnética (MRI) ha resultado ser muy útil para la caracterización de alimentos. Para el estudio microestructural, la MRI requiere altos tiempos de adquisición, lo que hace muy difícil la transferencia de esta técnica a aplicaciones en industria. Por tanto, la optimización de procedimientos de NMR basados en secuencias relaxometría 2D T1/T2 ha resultado ser una estrategia primordial en esta tesis. Estos protocolos de NMR se han implementado satisfactoriamente por primera vez en alto campo magnético. Se ha caracterizado la microestructura de productos alimentarios enteros por primera vez utilizando este tipo de protocolos. Como muestras, se han utilizado dos tipos de productos: modelos de alimentos y alimentos reales (manzanas). Además, como primer paso para su posterior implementación en la industria agroalimentaria, se ha mejorado una línea transportadora, especialmente diseñada para trabajar bajo condiciones de NMR en trabajos anteriores del grupo LPF-TAGRALIA. Se han estudiado y seleccionado las secuencias más rápidas y óptimas para la detección de dos tipos de desórdenes internos en manzanas: vitrescencia y roturas internas. La corrección de las imágenes en movimiento se realiza en tiempo real. Asimismo, se han utilizado protocolos de visión artificial para la clasificación automática de manzanas potencialmente afectadas por vitrescencia. El presente documento está dividido en diferentes capítulos: el Capítulo 2 explica los antecedentes de la presente tesis y el marco del proyecto en el que se ha desarrollado. El Capítulo 3 recoge el estado del arte. El Capítulo 4 establece los objetivos de esta tesis doctoral. Los resultados se dividen en cinco sub-secciones (dentro del Capítulo 5) que corresponden con los trabajos publicados bien en revistas revisadas por pares, bien en congresos internacionales o bien como capítulos de libros revisados por pares. La Sección 5.1. es un estudio del desarrollo de la vitrescencia en manzanas mediante MRI y lo relaciona con la posición de la fruta dentro de la copa del árbol. La Sección 5.2 presenta un trabajo sobre macro- y microestructura en modelos de alimentos. La Sección 5.3 es un artículo en revisión en una revista revisada por pares, en el que se hace un estudio microestrcutural no destructivo mediante relaxometría 2D T1/T2. la Sección 5.4, hace una comparación entre manzanas afectadas por vitrescencia mediante dos técnicas: tomografía de rayos X e MRI, en manzana. Por último, en la Sección 5.5 se muestra un trabajo en el que se hace un estudio de secuencias de MRI en línea para la evaluación de calidad interna en manzanas. Los siguientes capítulos ofrecen una discusión y conclusiones (Capítulo 6 y 7 respectivamente) de todos los capítulos de esta tesis doctoral. Finalmente, se han añadido tres apéndices: el primero con una introducción de los principios básicos de resonancia magnética nuclear (NMR) y en los otros dos, se presentan sendos estudios sobre el efecto de las fibras en la rehidratación de cereales de desayuno extrusionados, mediante diversas técnicas. Ambos trabajos se presentaron en un congreso internacional. Los resultados más relevantes de la presente tesis doctoral, se pueden dividir en tres grandes bloques: resultados sobre macroestructura, resultados sobre microestructura y resultados sobre MRI en línea. Resultados sobre macroestructura: - La imagen de resonancia magnética (MRI) se aplicó satisfactoriamente para la caracterización de macroestructura. En particular, la reconstrucción 3D de imágenes de resonancia magnética permitió identificar y caracterizar dos tipos distintos de vitrescencia en manzanas: central y radial, que se caracterizan por el porcentaje de daño y la conectividad (número de Euler). - La MRI proveía un mejor contraste para manzanas afectadas por vitrescencia que las imágenes de tomografía de rayos X (X-Ray CT), como se pudo verificar en muestras idénticas de manzana. Además, el tiempo de adquisición de la tomografía de rayos X fue alrededor de 12 veces mayor (25 minutos) que la adquisición de las imágenes de resonancia magnética (2 minutos 2 segundos). Resultados sobre microestructura: - Para el estudio de microestructura (nivel subcelular) se utilizaron con éxito secuencias de relaxometría 2D T1/T2. Estas secuencias se usaron por primera vez en alto campo y sobre piezas de alimento completo, convirtiéndose en una forma no destructiva de llevar a cabo estudios de microestructura. - El uso de MRI junto con relaxometría 2D T1/T2 permite realizar estudios multiescala en alimentos de forma no destructiva. Resultados sobre MRI en línea: - El uso de imagen de resonancia magnética en línea fue factible para la identificación de dos tipos de desórdenes internos en manzanas: vitrescencia y podredumbre interna. Las secuencias de imagen tipo FLASH resultaron adecuadas para la identificación en línea de vitrescencia en manzanas. Se realizó sin selección de corte, debido a que la vitrescencia puede desarrollarse en cualquier punto del volumen de la manzana. Se consiguió reducir el tiempo de adquisición, de modo que se llegaron a adquirir 1.3 frutos por segundos (758 ms por fruto). Las secuencias de imagen tipo UFLARE fueron adecuadas para la detección en línea de la podredumbre interna en manzanas. En este caso, se utilizó selección de corte, ya que se trata de un desorden que se suele localizar en la parte central del volumen de la manzana. Se consiguió reducir el tiempo de adquisicón hasta 0.67 frutos por segundo (1475 ms por fruto). En ambos casos (FLASH y UFLARE) fueron necesarios algoritmos para la corrección del movimiento de las imágenes en tiempo real. ABSTRACT Food is a complex system formed by several structures at different scales: macroscopic and microscopic. Many properties of foods that are relevant to process engineering or quality and postharvest treatments are related to their microstructure. This Ph.D Thesis proposes a complete methodology for food structure determination, in a multiscale way, based on the Nuclear Magnetic Resonance (NMR) phenomenon since NMR techniques are non-invasive and non-destructive, and allow both, macro- and micro-structure study. Different NMR procedures are used depending on the structure level under study. For the macrostructure level, Magnetic Resonance Imaging (MRI) revealed its usefulness for food characterization. For microstructure insight, MRI required high acquisition times, which is a hindrance for transference to industry applications. Therefore, optimization of NMR procedures based on T1/T2 relaxometry sequences was a key strategy in this Thesis. These NMR relaxometry protocols, are successfully implemented in high magnetic field. Microstructure of entire food products have been characterized for the first time using these protocols. Two different types of food products have been studied: food models and actual food (apples). Furthermore, as a first step for the food industry implementation, a grading line system, specially designed for working under NMR conditions in previous works of the LPF-TAGRALIA group, is improved. The study and selection of the most suitable rapid sequence to detect two different types of disorders in apples (watercore and internal breakdown) is performed and the real time image motion correction is applied. In addition, artificial vision protocols for the automatic classification of apples potentially affected by watercore are applied. This document is divided into seven different chapters: Chapter 2 explains the thesis background and the framework of the project in which it has been worked. Chapter 3 comprises the state of the art. Chapter 4 establishes de objectives of this Ph.D thesis. The results are divided into five different sections (in Chapter 5) that correspond to published peered reviewed works. Section 5.1 assesses the watercore development in apples with MRI and studies the effect of fruit location in the canopy. Section 5.2 is an MRI and 2D relaxometry study for macro- and microstructure assessment in food models. Section 5.3 is a non-destructive microstructural study using 2D T1/T2 relaxometry on watercore affected apples. Section 5.4 makes a comparison of X-ray CT and MRI on watercore disorder of different apple cultivars. Section 5.5, that is a study of online MRI sequences for the evaluation of apple internal quality. The subsequent chapters offer a general discussion and conclusions (Chapter 6 and Chapter 7 respectively) of all the works performed in the frame of this Ph.D thesis (two peer reviewed journals, one book chapter and one international congress).Finally, three appendices are included in which an introduction to NMR principles is offered and two published proceedings regarding the effect of fiber on the rehydration of extruded breakfast cereal are displayed. The most relevant results can be summarized into three sections: results on macrostructure, results on microstructure and results on on-line MRI. Results on macrostructure: - MRI was successfully used for macrostructure characterization. Indeed, 3D reconstruction of MRI in apples allows to identify two different types of watercore (radial and block), which are characterized by the percentage of damage and the connectivity (Euler number). - MRI provides better contrast for watercore than X-Ray CT as verified on identical samples. Furthermore, X-Ray CT images acquisition time was around 12 times higher (25 minutes) than MRI acquisition time (2 minutes 2 seconds). Results on microstructure: - 2D T1/T2 relaxometry were successfully applied for microstructure (subcellular level) characterization. 2D T1/T2 relaxometry sequences have been applied for the first time on high field for entire food pieces, being a non-destructive way to achieve microstructure study. - The use of MRI together with 2D T1/T2 relaxometry sequences allows a non-destructive multiscale study of food. Results on on-line MRI: - The use of on-line MRI was successful for the identification of two different internal disorders in apples: watercore and internal breakdown. FLASH imaging was a suitable technique for the on-line detection of watercore disorder in apples, with no slice selection, since watercore is a physiological disorder that may be developed anywhere in the apple volume. 1.3 fruits were imaged per second (768 ms per fruit). UFLARE imaging is a suitable sequence for the on-line detection of internal breakdown disorder in apples. Slice selection was used, as internal breakdown is usually located in the central slice of the apple volume. 0.67 fruits were imaged per second (1475 ms per fruit). In both cases (FLASH and UFLARE) motion correction was performed in real time, during the acquisition of the images.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis Doctoral se centra en la investigación del proceso de producción de polisilicio para aplicaciones fotovoltaicas (FV) por la vía química; mediante procesos de depósito en fase vapor (CVD). El polisilicio para la industria FV recibe el nombre de silicio de grado solar (SoG Si). Por un lado, el proceso que domina hoy en día la producción de SoG Si está basado en la síntesis, destilación y descomposición de triclorosilano (TCS) en un reactor CVD -denominado reactor Siemens-. El material obtenido mediante este proceso es de muy alta pureza, pero a costa de un elevado consumo energético. Así, para alcanzar los dos principales objetivos de la industria FV basada en silicio, bajos costes de producción y bajo tiempo de retorno de la energía invertida en su fabricación, es esencial disminuir el consumo energético de los reactores Siemens. Por otro lado, una alternativa al proceso Siemens considera la descomposición de monosilano (MS) en un reactor de lecho fluidizado (FBR). Este proceso alternativo tiene un consumo energético mucho menor que el de un reactor Siemens, si bien la calidad del material resultante es también menor; pero ésta puede ser suficiente para la industria FV. A día de hoy los FBR deben aún abordar una serie de retos para que su menor consumo energético sea una ventaja suficiente comparada con otras desventajas de estos reactores. En resumen, la investigación desarrollada se centra en el proceso de depósito de polysilicio por CVD a partir de TCS -reactor Siemens-; pero también se investiga el proceso de producción de SoG Si en los FBR exponiendo las fortalezas y debilidades de esta alternativa. Para poder profundizar en el conocimiento del proceso CVD para la producción de polisilicio es clave el conocimiento de las reacciones químicas fundamentales y cómo éstas influencian la calidad del producto resultante, al mismo tiempo que comprender los fenómenos responsables del consumo energético. Por medio de un reactor Siemens de laboratorio en el que se llevan a cabo un elevado número de experimentos de depósito de polisilicio de forma satisfactoria se adquiere el conocimiento previamente descrito. Se pone de manifiesto la complejidad de los reactores CVD y de los problemas asociados a la pérdidas de calor de estos procesos. Se identifican las contribuciones a las pérdidas de calor de los reactores CVD, éstas pérdidas de calor son debidas principalmente a los fenómenos de radiación y, conducción y convección vía gases. En el caso de los reactores Siemens el fenómeno que contribuye en mayor medida al alto consumo energético son las pérdidas de calor por radiación, mientras que en los FBRs tanto la radiación como el calor transferido por transporte másico contribuyen de forma importante. Se desarrolla un modelo teórico integral para el cálculo de las pérdidas de calor en reactores Siemens. Este modelo está formado a su vez por un modelo para la evaluación de las pérdidas de calor por radiación y modelos para la evaluación de las pérdidas de calor por conducción y convección vía gases. Se ponen de manifiesto una serie de limitaciones del modelo de pérdidas de calor por radiación, y se desarrollan una serie de modificaciones que mejoran el modelo previo. El modelo integral se valida por medio un reactor Siemens de laboratorio, y una vez validado se presenta su extrapolación a la escala industrial. El proceso de conversión de TCS y MS a polisilicio se investiga mediante modelos de fluidodinámica computacional (CFD). Se desarrollan modelados CFD para un reactor Siemens de laboratorio y para un prototipo FBR. Los resultados obtenidos mediante simulación son comparados, en ambos casos, con resultados experimentales. Los modelos desarrollados se convierten en herramientas para la identificación de aquellos parámetros que tienen mayor influencia en los procesos CVD. En el caso del reactor Siemens, ambos modelos -el modelo integral y el modelado CFD permiten el estudio de los parámetros que afectan en mayor medida al elevado consumo energético, y mediante su análisis se sugieren modificaciones para este tipo de reactores que se traducirían en un menor número de kilovatios-hora consumidos por kilogramo de silicio producido. Para el caso del FBR, el modelado CFD permite analizar el efecto de una serie de parámetros sobre la distribución de temperaturas en el lecho fluidizado; y dicha distribución de temperaturas está directamente relacionada con los principales retos de este tipo de reactores. Por último, existen nuevos conceptos de depósito de polisilicio; éstos se aprovechan de la ventaja teórica de un mayor volumen depositado por unidad de tiempo -cuando una mayor superficie de depósito está disponible- con el objetivo de reducir la energía consumida por los reactores Siemens. Estos conceptos se exploran mediante cálculos teóricos y pruebas en el reactor Siemens de laboratorio. ABSTRACT This Doctoral Thesis comprises research on polysilicon production for photovoltaic (PV) applications through the chemical route: chemical vapor deposition (CVD) process. PV polysilicon is named solar grade silicon (SoG Si). On the one hand, the besetting CVD process for SoG Si production is based on the synthesis, distillation, and decomposition of thriclorosilane (TCS) in the so called Siemens reactor; high purity silicon is obtained at the expense of high energy consumption. Thus, lowering the energy consumption of the Siemens process is essential to achieve the two wider objectives for silicon-based PV technology: low production cost and low energy payback time. On the other hand, a valuable variation of this process considers the use of monosilane (MS) in a fluidized bed reactor (FBR); lower output material quality is obtained but it may fulfil the requirements for the PV industry. FBRs demand lower energy consumption than Siemens reactors but further research is necessary to address the actual challenges of these reactors. In short, this work is centered in polysilicon CVD process from TCS -Siemens reactor-; but it also offers insights on the strengths and weaknesses of the FBR for SoG Si production. In order to aid further development in polysilicon CVD is key the understanding of the fundamental reactions and how they influence the product quality, at the same time as to comprehend the phenomena responsible for the energy consumption. Experiments conducted in a laboratory Siemens reactor prove the satisfactory operation of the prototype reactor, and allow to acquire the knowledge that has been described. Complexity of the CVD reactors is stated and the heat loss problem associated with polysilicon CVD is addressed. All contributions to the energy consumption of Siemens reactors and FBRs are put forward; these phenomena are radiation and, conduction and convection via gases heat loss. In a Siemens reactor the major contributor to the energy consumption is radiation heat loss; in case of FBRs radiation and heat transfer due to mass transport are both important contributors. Theoretical models for radiation, conduction and convection heat loss in a Siemens reactor are developed; shaping a comprehensive theoretical model for heat loss in Siemens reactors. Limitations of the radiation heat loss model are put forward, and a novel contribution to the existing model is developed. The comprehensive model for heat loss is validated through a laboratory Siemens reactor, and results are scaled to industrial reactors. The process of conversion of TCS and MS gases to solid polysilicon is investigated by means of computational fluid-dynamics models. CFD models for a laboratory Siemens reactor and a FBR prototype are developed. Simulated results for both CVD prototypes are compared with experimental data. The developed models are used as a tool to investigate the parameters that more strongly influence both processes. For the Siemens reactors, both, the comprehensive theoretical model and the CFD model allow to identify the parameters responsible for the great power consumption, and thus, suggest some modifications that could decrease the ratio kilowatts-hour per kilogram of silicon produced. For the FBR, the CFD model allows to explore the effect of a number of parameters on the thermal distribution of the fluidized bed; that is the main actual challenge of these type of reactors. Finally, there exist new deposition surface concepts that take advantage of higher volume deposited per time unit -when higher deposition area is available- trying to reduce the high energy consumption of the Siemens reactors. These novel concepts are explored by means of theoretical calculations and tests in the laboratory Siemens prototype.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la literatura se ha descrito el perfil antropométrico y la respuesta psicofisiológica en escalada deportiva en roca, pero hasta la fecha, no se habían analizado las diferencias existentes entre sus principales modalidades. El objetivo de la presente tesis fue describir las características antropométricas del escalador de competición y comprobar la existencia de diferencias entre los participantes de distintas modalidades, así como analizar la respuesta psico-fisiológica durante la ejecución de un búlder y una vía, además de evaluar las diferencias entre su realización a vista o tras un ensayo. Para ello, efectuamos dos estudios diferentes: en el primero participaron voluntariamente 61 hombres y 18 mujeres, participantes en cuatro pruebas del circuito nacional de competición de escalada durante el año 2009, tres de ellas de la modalidad de dificultad a vista y una de búlder. Se realizaron mediciones antropométricas, prueba de fuerza de prensión manual antes y después de competir, y se cumplimentó un cuestionario donde se evaluaba la percepción del esfuerzo y la experiencia deportiva. En el segundo estudio, 23 escaladores, 15 hombres y 8 mujeres, divididos en tres grupos en función de su nivel de rendimiento, realizaron de manera voluntaria distintas pruebas durante tres días separados entre sí al menos 48 horas. El primer día rellenaron un cuestionario sobre su experiencia deportiva y nivel de rendimiento, fueron pesados, tallados y sometidos a un escáner de cuerpo completo en densitómetro con objeto de medir la composición corporal. El segundo día realizaron previo calentamiento, un búlder a vista y, tras un descanso de 15 minutos, escalaron una vía a vista acorde con su nivel. El tercer día, después de calentar y disponer de 20 minutos para ensayarlo, repitieron la escalada del búlder. Tras un descanso de 15 minutos y 20 minutos de ensayo, realizaron un segundo intento a la vía. Se registraron los valores en la respuesta cardiorrespiratoria, se obtuvieron muestras de lactato en sangre del lóbulo de la oreja y se realizaron pruebas de fuerza de prensión manual antes y después de la escalada. También se pasó un cuestionario para medir la ansiedad y autoconfianza así como el esfuerzo percibido. Los resultados no mostraron diferencias antropométricas significativas entre los participantes en competiciones de búlder y los que participaron en competiciones de escalada de dificultad a vista. Se dieron diferencias en la pérdida de fuerza antes y después de escalar entre dichos participantes. Las mujeres obtuvieron menor fuerza de prensión manual que los hombres pero la misma pérdida de fuerza entre el instante antes de competir y el posterior. La respuesta fisiológica durante la ejecución del búlder fue menor que la obtenida durante la ejecución de la vía. Hubo pérdida de fuerza de prensión manual entre el instante anterior y el posterior a ejecutar la vía, pero no al hacer el búlder. Sin embargo, no se dieron diferencias en la ansiedad y la autoestima provocada por ambas modalidades, por lo que deducimos que la ejecución de un búlder y una vía presentan una respuesta fisiológica distinta. Proponemos que la respuesta está relacionada, sobre todo, con las variables de ejecución, de tal manera que a mayor distancia y/o tiempo recorrido en la escalada, mayor será la contribución anaeróbica al esfuerzo y la fatiga manifestada como pérdida de fuerza que, en el caso del búlder, fue mínima o inexistente. En el segundo intento, tras un ensayo de 20 minutos en el búlder, se consiguió mejorar el rendimiento respecto al primer intento, que se manifestó con un aumento en la distancia recorrida. Sin embargo, en la vía no se dieron diferencias entre ambos intentos, ni en la ejecución, ni en la respuesta fisiológica, ni en la ansiedad, ni siquiera en la fuerza de prensión manual. ABSTRACT It has been described in the literature the anthropometric profile and psychophysiological response in rock climbing, but so far not been analyzed differences between its main modalities. The aim of this thesis was to describe the anthropometric characteristics of the climber competitor and check for differences between participants of different modalities and to analyze the psycho-physiological response during the execution of a boulder and a route also to assess differences between on sight and redpoint attempts. We made two different studies: in the first 61 men and 18 women who attended four competitions of national climbing circuit in 2009, three of them on-sight difficulty competitions and a boulder competition participated voluntarily. Anthropometric measurements, a hand grip strength test before and after competing were registered for each climber, and a questionnaire which assessed perception of effort and the climbing experience was fulfilled. In the second study, various tests were conducted on 23 volunteer climbers, 15 men and 8 women, during three days separated for, at least, 48 hours of resting, divided into three groups according to their performance. The first day, climbers completed a questionnaire on their experience and performance level. It was recorded weight, height and they underwent a full body scan densitometer in order to measure body composition. The second day, after previous warming-up, they climbed a boulder on sight and, after a break of 15 minutes, climbed a route on-sight according to their level. The third day, after warming-up and have 20 minutes to try it, they repeated the bouldering climbing. After a break of 15 minutes and 20 minutes of essaying, they made a second attempt at the route. Values in the cardiorespiratory response were recorded, blood lactate samples were obtained from earlobe, and hand grip strength was tested before and after the climb. They also filled a questionnaire to measure anxiety and self-confidence and perceived exertion. The results showed no significant anthropometric differences between participants in bouldering competitions and participants in competitions on-sight difficulty climbing. There were found differences in strength loss before and after climbing between those participants. Women had less hand grip strength than men but the same loss of strength between the records carried out before and after competing. The physiological response recorded for boulder climbing was lower than the obtained for the route. There was loss of hand grip strength between the time before and after running the route but not for bouldering. However, there were no differences in anxiety and self-esteem caused by both modalities, so we conclude that the implementation of a boulder and a route have different physiological responses. We think that this response is mainly related to performance variables, as a greater distance and/or travel time on the climb, the higher the anaerobic contribution to the effort and fatigue as manifested by loss of strength in the case of the boulder was minimal or nonexistent. In the second attempt after 20 minutes in the boulder better performance was achieved on the first attempt, which was manifested by an increment of climbing distance. However, there were the differences in the route between the two attempts, either in execution or in the physiological response, or anxiety, or even in hand grip strength.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo general de esta Tesis Doctoral fue evaluar nuevos sistemas de alojamiento y cría de conejos de granja, estudiando tanto parámetros comportamentales (experimento 1) como productivos y reproductivos (experimento 3). Además, se evaluaron diferentes técnicas de muestreo con el fin de optimizar el tiempo empleado para el estudio del comportamiento animal (experimento 2). En el experimento 1, se estudió el comportamiento de conejas alojadas en dos tipos de jaulas (TJ), convencionales vs. alternativas con una plataforma elevada, en distintos estados fisiológicos (EF), lactantes y gestantes. Se observó el comportamiento de 12 conejas reproductoras con grabaciones de una duración de 24 h continuas. Independientemente del EF y TJ, las conejas pasaron gran parte de su tiempo sobre el reposapatas (57,7 %, de media). Sin embargo, debido al uso de la plataforma (23,0% del tiempo, de media), las conejas lactantes permanecieron un 36,6 % menos de tiempo (P<0,001) sobre el reposapatas y las gestantes un 27,0% menos (P<0,001) sobre el enrejillado en jaulas alternativas que en convencionales. En las jaulas alternativas, las conejas podían adoptar la postura “levantada”, sin embargo ésta fue observada solamente en conejas gestantes una media de 4,6 veces al día. Las conejas bebieron con mas frecuencia en jaulas convencionales que en alternativas (24,6 vs 19,1 veces al día; P<0,05). Se observó una mayor duración y frecuencia del comportamiento “interactuando con compañeras” en conejas gestantes alojadas en jaulas convencionales (276 s/d y 4,6 veces/d; P<0,05). La frecuencia de “interactuando con gazapos” fue menor en jaulas alternativas que en convencionales (2,4 vs 8,6 veces al día; P<0,01). La hora del día afectó al comportamiento de las conejas, teniendo un comportamiento menos activo durante las horas centrales del día. Durante las horas de oscuridad, las conejas estuvieron más inquietas realizando comportamientos como ‘encabritarse’ o amamantar, coincidiendo éstos en el tiempo en el cual las conejas pasaron más tiempo en la plataforma. Las conejas utilizaron frecuentemente la plataforma, independientemente del estado fisiológico. En la fase de lactación, las conejas utilizaron la plataforma para huir de los intentos de mamar por parte de los gazapos cuando éstas no estaban receptivas. El uso de la plataforma puede dar lugar a problemas higiénicos debidos tanto por la acumulación de heces sobre ella como por la caída de heces y orina sobre los animales que están en la parte inferior. La ausencia de estereotipias por parte de las conejas tanto en jaulas alternativas como en convencionales no sugiere una falta de bienestar debida al sistema de alojamiento. En el experimento 2, se compararon distintos métodos de observación simplificada con respecto un método de referencia usando grabaciones continuas de 24 h para la evaluación del comportamiento de conejas en distintos estados fisiológicos (gestantes y lactantes) alojadas en dos tipos de jaulas (convencionales y alternativas). Se analizaron un total de 576 h de grabaciones continuas de 24 h en 12 conejas reproductoras al final del periodo de lactación y en las mismas conejas después del destete. Los comportamientos observados se clasificaron en tres categorías independientes (localización en la jaula, postura y comportamientos funcionales). Se utilizaron grabaciones continuas de 24 h como método de referencia para validar otros cuatro métodos de observación simplificados, utilizando grabaciones de distinta duración y frecuencia a lo largo del día. Métodos regulares: corto y largo con 2.4 y 8 h de observación respectivamente, y métodos irregulares: corto y largo con 6 y 8 h de observación, respectivamente. Como resultado, se observó que independientemente del sistema de alojamiento, el mejor método para reducir el tiempo de observación necesario para evaluar el comportamiento de conejas reproductoras depende del tipo de variable a estudiar y del estado fisiológico de las conejas. En gestantes, los métodos irregulares no fueron adecuados para estimar comportamientos de larga duración tales como tumbada, sentada, descansando y acicalándose. Sin embargo, en ambos estados fisiológicos, los métodos regulares fueron precisos para los comportamientos de los grupos localización y postura y para comportamientos funcionales de larga duración. Por otro lado, los coeficientes de variación de los comportamientos poco frecuentes realizados principalmente durante el periodo de oscuridad fueron muy altos, y el método irregular largo obtuvo los menores errores de estimación para éstos comportamientos. En el experimento 3, se estudió el efecto de un uso combinado de lactaciones largas (hasta 46 días) con jaulas alternativas sobre los parámetros productivos y reproductivos de 104 conejas y sus camadas durante cinco ciclos reproductivos. La mitad de las conejas fueron alojadas en jaulas polivalentes convencionales (39 cm x 100 cm x 30 cm) y la otra mitad en jaulas polivalentes alternativas (39 cm x 100 cm x 60 cm), con una plataforma elevada. Dentro de cada grupo de alojamiento, la mitad de las conejas se destetaron a 32 días y la otra mitad a 46 días tras el parto. Las lactaciones más largas afectaron negativamente al peso (P<0,001), contenido en grasa y energía (P<0,05) de las conejas al final del periodo de lactación, pero éste efecto disminuyó con el número de partos. La fertilidad, prolificidad y la mortalidad de las conejas no fue afectada por la duración de la lactación. El destete tardío dio lugar a un mayor tamaño y peso de la camada al final del periodo de crecimiento (8,9 y 11,3 %, respectivamente) y a un menor índice de conversión por jaula durante el todo el periodo experimental (13,5 %) con respecto al destete convencional (P<0,001). Éstos resultados fueron paralelos a la menor mortalidad global (12,6 vs 17,6 %; P<0,05) observada en gazapos con destete tardío. Las diferencias en los parámetros productivos con las distintas edades al destete sólo fueron observadas en los ciclos con peor estado sanitario (tercer y quinto ciclo), en los cuales el destete tardío redujo la mortalidad. El tipo de jaula no afectó al peso de la coneja, condición corporal, mortalidad, fertilidad ni tamaño de camada durante los cinco primeros ciclos reproductivos. Sin embargo, el peso de la camada y el índice de conversión a los 21 días de edad fueron 4,2% mayor (P<0,001) y 5,0% menor (P<0,005) en animales alojados en jaulas alternativas que en jaulas convencionales. A día 59 las jaulas alternativas dieron lugar a camadas más pesadas (P<0,01); sin embargo, éste efecto fue influenciado por la densidad alcanzada en cada ciclo, ya que cuando la densidad de los animales fue menor que 40kg/m2 (tercer y quinto ciclo), el efecto del tipo de jaula sobre el peso de la camada no fue significativo. De los resultados obtenidos se puede concluir que el uso combinado de lactaciones más largas y jaulas con mayor superficie disponible con una plataforma elevada podría ser una alternativa para mejorar el bienestar animal en determinadas situaciones productivas. ABSTRACT The general aim of this PhD Thesis was to evaluate new housing and husbandry systems of farmed rabbits, studying behavioral (experiment 1), productive and reproductive (experiment 3) parameters. Moreover, different sampling techniques were evaluated in order to optimize the assessment of rabbit behaviour (experiment 2). In experiment 1, the behaviour of rabbit does housed in two different types of cage (TC), conventional vs. alternative with an elevated platform, at different physiological stages (PS), lactation and gestation was to study. Behavioural observations were carried out on 12 commercial rabbit does using continuous 24 hour video recording. Independently of PS and TC, rabbit does spent most of their time on foot mats (57.7 %, as average). However, due to the use of platforms (23.0% of time, as average), lactating does spent 36.6% less time (P<0.001) on foot mats and gestating does spent 27.0% less (P<0.001) time on wire mesh in alternative cages than in conventional cages. Alternative cages allowed for standing posture but this behaviour was only observed in gestating does (4.6 times a day, as average). Frequency of drinking was higher in conventional than in alternative cages (24.6 vs. 19.1 times a day; P<0.05). Gestating does housed in conventional cages reached the highest duration and frequency of interacting with neighbours (276 s/d and 4.6 times/d; P<0.05). The frequency of interacting with kits was lower in alternative than in conventional cages (2.4 vs. 8.6 times a day; P<0.01). Does’ behaviour was influenced by hour of day, being less active at the midday hours. During dark hours rabbit does more frequently performed restless behaviour such as hyperactivity or nursing, matching the time at which rabbit does spent more time on the platform. The platform was frequently used by rabbit does, independent of their physiological state, and during late lactation phase, when mothers were not receptive to nursing, does housed in alternative cages used the platform as a mean to flee from kids trying to suckle. The use of the platform might lead to hygienic problems due to retained faeces on the platform and faeces and urine falling onto animals located in the lower part of the cage. Stereotypies were not observed in any housing system, therefore conventional cages do not suggest lack of animal welfare. In experiment 2, it was compared the results of different simplified sampling methods of behavioural data with respect to reference records of 24-h in order to assess rabbit does behaviours at different physiological stages (gestation and lactation) in animals housed in two types of cages (conventional and alternative). A total of 576 h of continuous video of 12 rabbit does at the end of lactation and on the same females after weaning were analysed. The behavioural observations were studied using three independent categories of classification (location in the cage, posture and functional behaviours). Continuous behavioural recordings of 24 h were considered as the reference method to validate another 4 sampling methods of data collection by aggregated video recordings of different frequency and duration (regular short and long methods with 2.4 and 8 h of observation respectively, and irregular short and long methods with 6 and 8 h of observation, respectively). The current results showed that, independently of housing system, the best method to reduce the total observation time required to assess rabbit does behaviour depends on the trait studied and physiological stage of does. In gestating does, irregular methods were not suitable to estimate behaviours of long duration such as lying, sitting, resting and grooming. However, in both physiological stages, regular methods were accurate for location behaviours, postures and functional behaviours of long duration. Instead, for the study of infrequent behaviours performed mainly during dark period, where coefficients of variation were high, the irregular long method led to the lowest mean estimation errors. In experiment 3, the effects of the combined use of long lactation periods (46 days) with alternative cages on the reproductive and growth performance of 104 rabbit does and their litters during five consecutive reproductive cycles were studied. Half of does were housed in conventional polyvalent cages (39 cm x 100 cm x 30 cm) and the other half in alternative polyvalent cages (39 cm x 100 cm x 60 cm), with a raised platform. Half of the rabbit does in each type of cages were weaned at 32 and the other half at 46 days after parturition. Longer lactations affected negatively to body weight (P<0.001), fat and energy content (P<0.05) of rabbit does at the end of the lactation period, but this effect decreased with the number of parturitions. Fertility, prolificacy and doe mortality were not affected by lactation length. Late weaning led to higher litter size (by 8.9 %) and litter weight (by 11.3 %) at the end of growing period and lower feed conversion ratio per cage during the overall experimental period (13.5 %) than standard weaning (P<0.001). These results were parallels to a lower mortality (12.6 vs 17.6 %; P<0.05) of young rabbit weaned later during the overall experimental period. Differences in performances at different weaning ages were only observed during cycles with worst health status (third and fifth cycles) in which late weaning decreased mortality. Type of cage did not affect doe body weight and body condition, mortality, fertility, prolificacy and litter size during the five firsts reproductive cycles. Nevertheless, at day 21 litter weight and feed conversion ratio were 4.2 % higher (P<0.001) and 5.0 % lower (P<0.005) in animals housed in alternative than in conventional cages. Alternative cages also led to heavier litters at 59 days (P<0.01); however, this effect was influenced by density reached in each cycle, as when the density of animals was lower than 40 kg/m2 (cycles three and five), the difference of litter weight between alternative and conventional cages was not significant. From the results obtained it can be concluded that the combined use of longer lactations and cages with higher available surface with a raised platform could be an alternative to improve animal welfare in some productive situations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Si el hombre es el cuidador de las palabras y sólo de ellas emerge el sentido de las cosas, la arquitectura tiene un cometido preciso: hacer de las condiciones ya dadas de cada lugar palabras que signifiquen las cualidades de la existencia, y que desvelen la riqueza y contenidos que en ellas se contienen potencialmente" Ignasi Solá Morales. Lugar: permanencia o producción, 1992. Esta tesis surge tanto del afán por comprender la identidad de uno de los espacios más representativos de mi ciudad, asumido familiarmente pero que plantea muchas dudas respecto a su caracterización, como de la preocupación personal respecto a la aparente hegemonía del modelo urbano de la "ciudad genérica", crudamente expuesto por Rem Koolhaas a finales del siglo XX, que pone en crisis la ciudad histórica. El territorio, espacio físico concreto, y la memoria asociada a este, obliterados, son considerados como punto de partida para confrontarlos con la proclamación del nuevo modelo de "ciudad genérica", de raíz eminentemente económica y tecnológica. La realidad tangible de un espacio, aparentemente forjado en base a los valores denostados por el nuevo modelo propuesto, se estudia desde las premisas opuestas. La idea del no-lugar, teorizado por Marc Augé y tomado como modelo por Koolhaas, supone éste emancipado tanto de las preexistencias históricas como de su ubicación física concreta, planteando un tipo de espacio de representación al margen del territorio y la memoria. Sin pretender adoptar una postura resistente u opuesta, sino antitética y complementaria, se toman aquí las premisas de Koolhaas para contrastarlas con una porción del territorio a medio camino entre la arquitectura y la ciudad, a fin de desarrollar una reflexión que sirva de complemento y contrapeso al paradigma espacial que la “ciudad genérica” implica y cuya inmediatez y supuesta anomia parecen anular cualquier intención interpretativa al neutralizar los centros históricos y proclamar el agotamiento de la historia. El planteamiento de una teoría dicotómica frente al espacio y las teorías arquitectónicas asociadas a este ya fue formulado por Colin Rowe y Fred Koetter a finales de los años setenta del siglo pasado. Se plantea aquí la idea de una “ciudad tangible” como opuesta a la idea de la "ciudad genérica" enunciada por Koolhaas. Tomando el territorio y la memoria como referencia principal en un lugar concreto y huyendo de la premisa de la inmediatez del instante y el "presente perpetuo" proclamado por Koolhaas, del que según él seríamos prisioneros, se establece una distancia respecto al objeto de análisis que desarrolla el estudio en la dirección opuesta al supuesto origen del mismo, planteando la posibilidad de reactivar una reflexión en torno al territorio y la memoria en el seno del proceso global de habitación para poner de manifiesto determinados mecanismos de configuración de un espacio de representación al margen de la urgencia del presente, reactivando la memoria y su relación con el territorio como punto de partida. Desde de la reconstrucción hipotética del territorio, partiendo de la propia presencia física del mismo, su orografía, la paleo-biología, las analogías etológicas, los restos arqueológicos, la antropología o la historia, se reivindica la reflexión arquitectónica como disciplina diversa y privilegiada en cuanto al análisis espacial, tratando de discernir el proceso mediante el cual el Prado pasó de territorio a escenario. La organización cronológica del estudio y la incorporación de muy diversas fuentes, en su mayoría directas, pretende poner de manifiesto la condición transitiva del espacio de representación y contrastar el pasado remoto del lugar y su construcción con el momento actual, inevitablemente encarnado por el punto de vista desde el cual se desarrolla la tesis. El Prado parece albergar, agazapado en su nombre, la raíz de un origen remoto y olvidado. Si como enunciaba Ignasi Solá-Morales la función de la arquitectura es hacer aflorar los significados inherentes al lugar, esta tesis se plantea como una recuperación de la idea del vínculo entre el territorio y la memoria como fuente fundamental en la definición de un espacio de representación específico. El escrutinio del pasado constituye un acto eminentemente contemporáneo, pues el punto de vista y la distancia, inevitablemente condicionados por el presente, determinan la mirada. El culto contemporáneo a la inmediatez y la proclamación de la superación de los procesos históricos han relegado el pasado, en cierto grado, a depósito de restos o referente a superar, obviando su ineluctable condición de origen o momento anterior condicionante. Partiendo de la reconstrucción del lugar sobre el cual se halla el Prado ubicado y reconsiderando, según las premisas desarrolladas por la moderna historiografía, fundamentalmente desarrolladas por la Escuela francesa de los Annales, la cotidianeidad y lo anónimo como fuente de la que dimanan muchos de los actuales significados de nuestros espacios de representación, tomando como punto de partida un lugar remoto y olvidado, se estudia como se fue consolidando el Prado hasta devenir un lugar insigne de referencia asociado a los poderes fácticos y el espacio áulico de la capital de las Españas en el siglo XVII. El proceso mediante el cual el Prado pasó de territorio a escenario implica la recuperación de la memoria de un espacio agropecuario anónimo y el análisis de cómo, poco a poco, se fue depositando sobre el mismo el acervo de los diversos pobladores de la región que con sus particularidades culturales y sociales fueron condicionando, en mayor o menor grado, un lugar cuyo origen se extiende retrospectivamente hasta hace más de dos mil años, cuando se considera que pudo darse la primera habitación a partir de la cual, de manera ininterrumpida, el Prado ha venido siendo parte de lo que devino, más tarde, Madrid. La llegada de nuevos agentes, vinculados con estructuras de poder y territoriales que trascendían la inmediatez del territorio sobre el que se comenzó a erigir dicho lugar, sirven para repasar los diferentes depósitos ideológicos y culturales que han ido conformando el mismo, reivindicando la diversidad y lo heterogéneo del espacio de representación frente a la idea homogeneizadora que el modelo genérico implica. La constitución del Prado como un espacio de referencia asociado al paganismo arcaico a partir de la praxis espacial cotidiana, su relación con las estructuras defensivas de Al-Andalus y la atalaya Omeya, la apropiación del los primitivos santuarios por parte la iglesia, su relación con un determinado tipo de espiritualidad y las órdenes religiosas más poderosas de la época, la preferencia de Carlos V por Madrid y sus vínculos con la cultura europea del momento, o la definitiva metamorfosis del lugar a partir del siglo XVI y el advenimiento de un nuevo paganismo emblemático y estetizado, culminan con el advenimiento de lo económico como representación del poder en el seno de la corte y la erección del Palacio del Buen Retiro como manifestación tangible de la definitiva exaltación del Prado a espacio de representación áulico. Decía T.S. Elliot que la pugna por el espacio de la memoria constituye el principal rasgo del clasicismo, y el Prado, ciertamente, participa de ese carácter al que está profundamente asociado en la conciencia espacial de los madrileños como lugar de referencia. Acaso la obliteración del territorio y la memoria, propuestas en la “ciudad genérica” también tengan algo que ver con ello. ABSTRACT "If man is the caretaker of words and only they provide the sense of things, the architecture has a precise mission: to make out from the given conditions of each place words that mean the qualities of existence, and which unveil the wealth and content they potentially contain " Ignasi Solá Morales. Place: permanence or production, 1992. This thesis arises from both the desire to understand the identity of one of the most representative spaces of my city, assumed in a familiar way but that raises many doubts about its characterization, and from a personal concern about the apparent hegemony of the urban model of the "generic city " so crudely exposed by Rem Koolhaas in the late twentieth century that puts a strain on the historic city. The obliteration of the territory, specific physical space, and its associated memory, are considered as a starting point to confront them with the proclamation of the new model of "generic city" raised from eminently economic and technological roots. The tangible reality of a space, apparently forged based on the values reviled by the proposed new model, is studied from opposite premises. The idea of non-place, theorized by Marc Augé and modeled by Koolhaas, implies the emancipation from both historical preexistences and physical location, posing a type of space representation outside the territory and memory. Without wishing to establish a confrontational or opposite position, but an antithetical and complementary stance, the premises of Koolhaas are here taken to contrast them with a portion of territory halfway between architecture and the city, to develop a study that will complement and counterbalance the spatial paradigm that the "generic city" means and whose alleged immediacy and anomie appear to nullify any interpretative intention by neutralizing the historic centers and proclaiming the exhaustion of history. The approach of a dichotomous theory versus space and architectural theories associated with this were already formulated by Colin Rowe and Fred Koetter during the late seventies of last century. The idea of a "tangible city" as opposed to the idea of the "generic city" enunciated by Koolhaas arises here. Taking the territory and memory as the main reference in a particular place and trying to avoid the premise of the immediacy of the moment and the "perpetual present" proclaimed by Koolhaas, of which he pleas we would be prisoners, a distance is established from the object of analysis developing the study in the opposite direction to the alleged origin of it, raising the possibility of reactivating a reflection on the territory and memory within the overall process of inhabiting to reveal certain representational space configuration mechanisms outside the urgency of the present, reviving the memory and its relationship with the territory as a starting point. From the hypothetical reconstruction of the territory, starting from its physical presence, geography, paleo-biology, ethological analogies, archaeological remains, anthropology or history, architecture is claimed as a diverse as privileged discipline for spatial analysis, trying to discern the process by which the Prado moved from territory to stage. The chronological organization of the study and incorporating a variety of sources, most direct, aims to highlight the transitive condition of representational space and contrast the remote past of the place and its construction with the current moment, inevitably played by the view point from which the thesis develops. The Prado seems to harbor, in its name, the root of a remote and forgotten origin. If, as Ignasi Sola-Morales said, the aim of architecture is to bring out the meanings inherent in the site, this thesis is presented as a recovery of the idea of the link between the territory and memory as a key source in defining a specific space of representation. The scrutiny of the past is an eminently contemporary act, for the view and distance inevitably conditioned by the present, determine the way we look. The contemporary cult of immediacy and the proclamation of overcoming historical processes have relegated the past, to some extent, to remains deposit or a reference to overcome, ignoring its ineluctable condition as origin or previous constraint. From rebuilding the site on which the Prado is located and reconsidering everyday life and the anonymous as a source of many arising current meanings of our space of representation, according to the premises developed by modern historiography mainly developed by the French school of Annales, trying to recover the remote and forgotten is attempted, the thesis studies how el Prado was consolidated to become the most significant place of Madrid, deeply associated with the power in the capital of Spain during the XVII century. The process by which the Prado evolved from territory to stage involves the recovery of the memory of an anonymous agricultural space and the analysis of how, little by little, the influence of the various inhabitants of the region with their own and how their cultural and social peculiarities was deposited through time on the common ground and how that determined, to a greater or lesser degree, a place whose origin retrospectively extends over more than two thousand years ago, when we can consider the first inhabiting from which, without interruption, the Prado has come to be part of what became, later, Madrid. The arrival of new players, linked to power structures and territorial issues which transcended the immediacy of the territory on which the place begun to be a characteristic space, serve to review the different ideological and cultural deposits that have shaped the place, claiming diversity and heterogeneous space of representation before the homogenizing idea which the generic model implies. The constitution of the Prado as a benchmark associated with the archaic paganism developed from the ancient everyday spatial praxis, its relationship with the defensive structures of Al-Andalus and the Umayyad watchtower, the appropriation of the early sanctuaries by the roman church, its relationship with a certain type of spirituality and the most powerful religious orders of the time, the preference of Carlos V towards Madrid and its links with the European culture of the moment and the final metamorphosis of the place during the sixteenth century, end at the moment on which the advent of the economic as a representation of power within the court and the erection of the Palacio del Buen Retiro, as a tangible manifestation of the ultimate exaltation of courtly Prado space representation, happened in the mid XVII century. T. S. Elliot said that the struggle for memory space is the main feature of classicism, and the Prado certainly shares part of that character deeply associated in the mental spatial structure of the locals as a landmark. Perhaps the obliteration of territory and memory proposed in the "generic city" might also have something to do with that.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.