625 resultados para Cercano


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El emprendimiento de base tecnológica es un tema crítico para la generación de crecimiento económico, por lo que conocer los determinantes de la intención emprendedora de estudiantes de universidades técnicas adquiere una especial relevancia. En este estudio se analiza la importancia de los modelos de conducta en la intención emprendedora entre los estudiantes de carreras técnicas. Los resultados muestran que los estudiantes de padres empresarios tienen una intención emprendedora superior a la media, mientras que los de hijos de padres funcionarios están por debajo de ella. Igualmente, la ausencia de modelos de conducta emprendedora en el entorno cercano disminuye la intención emprendedora, mientras que la ausencia de funcionarios no la hace aumentar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnología de múltiples antenas ha evolucionado para dar soporte a los actuales y futuros sistemas de comunicaciones inalámbricas en su afán por proporcionar la calidad de señal y las altas tasas de transmisión que demandan los nuevos servicios de voz, datos y multimedia. Sin embargo, es fundamental comprender las características espaciales del canal radio, ya que son las características del propio canal lo que limita en gran medida las prestaciones de los sistemas de comunicación actuales. Por ello surge la necesidad de estudiar la estructura espacial del canal de propagación para poder diseñar, evaluar e implementar de forma más eficiente tecnologías multiantena en los actuales y futuros sistemas de comunicación inalámbrica. Las tecnologías multiantena denominadas antenas inteligentes y MIMO han generado un gran interés en el área de comunicaciones inalámbricas, por ejemplo los sistemas de telefonía celular o más recientemente en las redes WLAN (Wireless Local Area Network), principalmente por la mejora que proporcionan en la calidad de las señales y en la tasa de transmisión de datos, respectivamente. Las ventajas de estas tecnologías se fundamentan en el uso de la dimensión espacial para obtener ganancia por diversidad espacial, como ya sucediera con las tecnologías FDMA (Frequency Division Multiplexing Access), TDMA (Time Division Multiplexing Access) y CDMA (Code Division Multiplexing Access) para obtener diversidad en las dimensiones de frecuencia, tiempo y código, respectivamente. Esta Tesis se centra en estudiar las características espaciales del canal con sistemas de múltiples antenas mediante la estimación de los perfiles de ángulos de llegada (DoA, Direction-of- Arrival) considerando esquemas de diversidad en espacio, polarización y frecuencia. Como primer paso se realiza una revisión de los sistemas con antenas inteligentes y los sistemas MIMO, describiendo con detalle la base matemática que sustenta las prestaciones ofrecidas por estos sistemas. Posteriormente se aportan distintos estudios sobre la estimación de los perfiles de DoA de canales radio con sistemas multiantena evaluando distintos aspectos de antenas, algoritmos de estimación, esquemas de polarización, campo lejano y campo cercano de las fuentes. Así mismo, se presenta un prototipo de medida MIMO-OFDM-SPAA3D en la banda ISM (Industrial, Scientific and Medical) de 2,45 Ghz, el cual está preparado para caracterizar experimentalmente el rendimiento de los sistemas MIMO, y para caracterizar espacialmente canales de propagación, considerando los esquemas de diversidad espacial, por polarización y frecuencia. Los estudios aportados se describen a continuación. Los sistemas de antenas inteligentes dependen en gran medida de la posición de los usuarios. Estos sistemas están equipados con arrays de antenas, los cuales aportan la diversidad espacial necesaria para obtener una representación espacial fidedigna del canal radio a través de los perfiles de DoA (DoA, Direction-of-Arrival) y por tanto, la posición de las fuentes de señal. Sin embargo, los errores de fabricación de arrays así como ciertos parámetros de señal conlleva un efecto negativo en las prestaciones de estos sistemas. Por ello se plantea un modelo de señal parametrizado que permite estudiar la influencia que tienen estos factores sobre los errores de estimación de DoA, tanto en acimut como en elevación, utilizando los algoritmos de estimación de DOA más conocidos en la literatura. A partir de las curvas de error, se pueden obtener parámetros de diseño para sistemas de localización basados en arrays. En un segundo estudio se evalúan esquemas de diversidad por polarización con los sistemas multiantena para mejorar la estimación de los perfiles de DoA en canales que presentan pérdidas por despolarización. Para ello se desarrolla un modelo de señal en array con sensibilidad de polarización que toma en cuenta el campo electromagnético de ondas planas. Se realizan simulaciones MC del modelo para estudiar el efecto de la orientación de la polarización como el número de polarizaciones usadas en el transmisor como en el receptor sobre la precisión en la estimación de los perfiles de DoA observados en el receptor. Además, se presentan los perfiles DoA obtenidos en escenarios quasiestáticos de interior con un prototipo de medida MIMO 4x4 de banda estrecha en la banda de 2,45 GHz, los cuales muestran gran fidelidad con el escenario real. Para la obtención de los perfiles DoA se propone un método basado en arrays virtuales, validado con los datos de simulación y los datos experimentales. Con relación a la localización 3D de fuentes en campo cercano (zona de Fresnel), se presenta un tercer estudio para obtener con gran exactitud la estructura espacial del canal de propagación en entornos de interior controlados (en cámara anecóica) utilizando arrays virtuales. El estudio analiza la influencia del tamaño del array y el diagrama de radiación en la estimación de los parámetros de localización proponiendo, para ello, un modelo de señal basado en un vector de enfoque de onda esférico (SWSV). Al aumentar el número de antenas del array se consigue reducir el error RMS de estimación y mejorar sustancialmente la representación espacial del canal. La estimación de los parámetros de localización se lleva a cabo con un nuevo método de búsqueda multinivel adaptativo, propuesto con el fin de reducir drásticamente el tiempo de procesado que demandan otros algoritmos multivariable basados en subespacios, como el MUSIC, a costa de incrementar los requisitos de memoria. Las simulaciones del modelo arrojan resultados que son validados con resultados experimentales y comparados con el límite de Cramer Rao en términos del error cuadrático medio. La compensación del diagrama de radiación acerca sustancialmente la exactitud de estimación de la distancia al límite de Cramer Rao. Finalmente, es igual de importante la evaluación teórica como experimental de las prestaciones de los sistemas MIMO-OFDM. Por ello, se presenta el diseño e implementación de un prototipo de medida MIMO-OFDM-SPAA3D autocalibrado con sistema de posicionamiento de antena automático en la banda de 2,45 Ghz con capacidad para evaluar la capacidad de los sistemas MIMO. Además, tiene la capacidad de caracterizar espacialmente canales MIMO, incorporando para ello una etapa de autocalibración para medir la respuesta en frecuencia de los transmisores y receptores de RF, y así poder caracterizar la respuesta de fase del canal con mayor precisión. Este sistema incorpora un posicionador de antena automático 3D (SPAA3D) basado en un scanner con 3 brazos mecánicos sobre los que se desplaza un posicionador de antena de forma independiente, controlado desde un PC. Este posicionador permite obtener una gran cantidad de mediciones del canal en regiones locales, lo cual favorece la caracterización estadística de los parámetros del sistema MIMO. Con este prototipo se realizan varias campañas de medida para evaluar el canal MIMO en términos de capacidad comparando 2 esquemas de polarización y tomando en cuenta la diversidad en frecuencia aportada por la modulación OFDM en distintos escenarios. ABSTRACT Multiple-antennas technologies have been evolved to be the support of the actual and future wireless communication systems in its way to provide the high quality and high data rates required by new data, voice and data services. However, it is important to understand the behavior of the spatial characteristics of the radio channel, since the channel by itself limits the performance of the actual wireless communications systems. This drawback raises the need to understand the spatial structure of the propagation channel in order to design, assess, and develop more efficient multiantenna technologies for the actual and future wireless communications systems. Multiantenna technologies such as ‘Smart Antennas’ and MIMO systems have generated great interest in the field of wireless communications, i.e. cellular communications systems and more recently WLAN (Wireless Local Area Networks), mainly because the higher quality and the high data rate they are able to provide. Their technological benefits are based on the exploitation of the spatial diversity provided by the use of multiple antennas as happened in the past with some multiaccess technologies such as FDMA (Frequency Division Multiplexing Access), TDMA (Time Division Multiplexing Access), and CDMA (Code Division Multiplexing Access), which give diversity in the domains of frequency, time and code, respectively. This Thesis is mainly focus to study the spatial channel characteristics using schemes of multiple antennas considering several diversity schemes such as space, polarization, and frequency. The spatial characteristics will be study in terms of the direction-of-arrival profiles viewed at the receiver side of the radio link. The first step is to do a review of the smart antennas and MIMO systems technologies highlighting their advantages and drawbacks from a mathematical point of view. In the second step, a set of studies concerning the spatial characterization of the radio channel through the DoA profiles are addressed. The performance of several DoA estimation methods is assessed considering several aspects regarding antenna array structure, polarization diversity, and far-field and near-field conditions. Most of the results of these studies come from simulations of data models and measurements with real multiantena prototypes. In the same way, having understand the importance of validate the theoretical data models with experimental results, a 2,4 GHz MIMO-OFDM-SPAA2D prototype is presented. This prototype is intended for evaluating MIMO-OFDM capacity in indoor and outdoor scenarios, characterize the spatial structure of radio channels, assess several diversity schemes such as polarization, space, and frequency diversity, among others aspects. The studies reported are briefly described below. As is stated in Chapter two, the determination of user position is a fundamental task to be resolved for the smart antenna systems. As these systems are equipped with antenna arrays, they can provide the enough spatial diversity to accurately draw the spatial characterization of the radio channel through the DoA profiles, and therefore the source location. However, certain real implementation factors related to antenna errors, signals, and receivers will certainly reduce the performance of such direction finding systems. In that sense, a parameterized narrowband signal model is proposed to evaluate the influence of these factors in the location parameter estimation through extensive MC simulations. The results obtained from several DoA algorithms may be useful to extract some parameter design for directing finding systems based on arrays. The second study goes through the importance that polarization schemes can have for estimating far-field DoA profiles in radio channels, particularly for scenarios that may introduce polarization losses. For this purpose, a narrowband signal model with polarization sensibility is developed to conduct an analysis of several polarization schemes at transmitter (TX) and receiver (RX) through extensive MC simulations. In addition, spatial characterization of quasistatic indoor scenarios is also carried out using a 2.45 GHz MIMO prototype equipped with single and dual-polarized antennas. A good agreement between the measured DoA profiles with the propagation scenario is achieved. The theoretical and experimental evaluation of polarization schemes is performed using virtual arrays. In that case, a DoA estimation method is proposed based on adding an phase reference to properly track the DoA, which shows good results. In the third study, the special case of near-field source localization with virtual arrays is addressed. Most of DoA estimation algorithms are focused in far-field source localization where the radiated wavefronts are assume to be planar waves at the receive array. However, when source are located close to the array, the assumption of plane waves is no longer valid as the wavefronts exhibit a spherical behavior along the array. Thus, a faster and effective method of azimuth, elevation angles-of-arrival, and range estimation for near-field sources is proposed. The efficacy of the proposed method is evaluated with simulation and validated with measurements collected from a measurement campaign carried out in a controlled propagation environment, i.e. anechoic chamber. Moreover, the performance of the method is assessed in terms of the RMSE for several array sizes, several source positions, and taking into account the effect of radiation pattern. In general, better results are obtained with larger array and larger source distances. The effect of the antennas is included in the data model leading to more accurate results, particularly for range rather than for angle estimation. Moreover, a new multivariable searching method based on the MUSIC algorithm, called MUSA (multilevel MUSIC-based algorithm), is presented. This method is proposed to estimate the 3D location parameters in a faster way than other multivariable algorithms, such as MUSIC algorithm, at the cost of increasing the memory size. Finally, in the last chapter, a MIMO-OFDM-SPAA3D prototype is presented to experimentally evaluate different MIMO schemes regarding antennas, polarization, and frequency in different indoor and outdoor scenarios. The prototype has been developed on a Software-Defined Radio (SDR) platform. It allows taking measurements where future wireless systems will be developed. The novelty of this prototype is concerning the following 2 subsystems. The first one is the tridimensional (3D) antenna positioning system (SPAA3D) based on three linear scanners which is developed for making automatic testing possible reducing errors of the antenna array positioning. A set of software has been developed for research works such as MIMO channel characterization, MIMO capacity, OFDM synchronization, and so on. The second subsystem is the RF autocalibration module at the TX and RX. This subsystem allows to properly tracking the spatial structure of indoor and outdoor channels in terms of DoA profiles. Some results are draw regarding performance of MIMO-OFDM systems with different polarization schemes and different propagation environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las imágenes satelitales son una importante fuente de información para el seguimiento de la vegetación y de la cartografía de la tierra en varias escalas. Varios índices de vegetación se han empleado para evaluar la calidad y cantidad de la vegetación utilizando datos satelitales. Dado que las características de las bandas espectrales del infrarrojo cercano (NIR, radiación reflejada en la longitud de onda 800 nm) y el rojo (RED, radiación reflejada en la longitud de onda 670 nm) son muy distintas según el tipo de sensor, los valores del Índice de Vegetación de la Diferencia Normalizada (NDVI) variarán según el tamaño del píxel y de la heterogeneidad y la escala de las superficies. Se seleccionaron dos zonas de dehesa (Salamanca y Córdoba) y se tomaron imágenes mensuales del satélite DEIMOS-1 con una resolución espacial de 22 m × 22 m. El objetivo de este estudio es establecer una comparación entre diferentes resoluciones, mediante los valores de NDVI obtenidos en diferentes épocas del año en el que la actividad fotosintética de las plantas varía. Los resultados a diferentes escalas mostraron un comportamiento fractal del NDVI por lo que puede concluirse que las áreas de pasto herbáceo evaluadas presentan un comportamiento homogéneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesar de los avances en materia de predicción, los desastres naturales siguen teniendo consecuencias devastadoras. Entre los principales problemas a los que se enfrentan los equipos de ayuda y rescate después de un desastre natural o provocado por el hombre se encuentra la planificación de las tareas de reparación de carreteras para conseguir la máxima ventaja de los limitados recursos económicos y humanos. En la presente Tesis Fin de Máster se intenta dar solución al problema de la accesibilidad, es decir, maximizar el número de supervivientes que consiguen alcanzar el centro regional más cercano en un tiempo mínimo mediante la planificación de qué carreteras rurales deberían ser reparadas dados unos recursos económicos y humanos limitados. Como se puede observar, es un problema combinatorio ya que el número de planes de reparación y conexiones entre las ciudades y los centros regionales crece de forma exponencial con el tamaño del problema. Para la resolución del problema se comienza analizando una adaptación básica de los sistemas de colonias de hormigas propuesta por otro autor y se proponen múltiples mejoras sobre la misma. Posteriormente, se propone una nueva adaptación más avanzada de los sistemas de colonias de hormiga al problema, el ACS con doble hormiga. Este sistema hace uso de dos tipos distintos de hormigas, la exploradora y la trabajadora, para resolver simultáneamente el problema de encontrar los caminos más rápidos desde cada ciudad a su centro regional más cercano (exploradora), y el de obtener el plan óptimo de reparación que maximice la accesibilidad de la red (trabajadora). El algoritmo propuesto se ilustra por medio de un ejemplo de gran tamaño que simula el desastre natural ocurrido en Haití, y su rendimiento es comparado con la combinación de dos metaheurísticas, GRASP y VNS.---ABSTRACT---In spite of the advances in forecasting, natural disaster continue to ocasionate devastating consequences. One of the main problems relief teams face after a natural or man-made disaster is how to plan rural road repair work to take maximum advantage of the limited available financial and human resources. In this Master´s Final Project we account for the accesability issue, that is, to maximize the number of survivors that reach the nearest regional center in a minimum time by planning whic rural roads should be repaired given the limited financial and human resources. This is a combinatorial problem since the number of possible repairing solutions and connections between cities and regional centers grows exponentially with the size of the problem. In order to solve the problem, we analyze the basic ant colony system adaptation proposed by another author and point out multiple improvements on it. Then, we propose a novel and more advance adaptation of the ant colony systems to the problem, the double- ant ACS. This system makes use of two diferent type of ants, the explorer and the worker, to simultaneously solve the problem of finding the shorthest paths from each city to their nearest regional center (explorer), and the problem of identifying the optimal repairing plan that maximize the network accesability (worker). The proposed algorithm is illustrated by means of a big size example that simulates the natural disaster occurred in Haiti, and its performance is compared with a combination of two metaheuristics, GRASP and VNS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Ingeniería de Pruebas está especializada en la verificación y validación del Software,y formalmente se define como: “Proceso de desarrollo que emplea métodos rigurosos para evaluar la corrección y calidad del producto a lo largo de todo su ciclo de vida” [3]. Este proceso comprende un conjunto de métodos, procedimientos y técnicas formalmente definidas las cuales, usadas de forma sistemática, facilitan la identificación de la mayor cantidad de errores y fallos posibles de un software. Un software que pase un proceso riguroso de pruebas es un producto de calidad que seguramente facilitará la labor del Ingeniero de Software en la corrección de futuras incidencias, algunas de ellas generadas tras la implantación en el entorno real. Este proceso constituye un área de la Ingeniería del Software y una especialidad por tanto, de la misma. De forma simple, la consecución de una correcta Verificación y Validación del Software requiere de algunas actividades imprescindibles como: - Realizar un plan de pruebas del proyecto. - Actualizar dicho plan y corregirlo en caso necesario. - Revisar los documentos de análisis de requisitos. - Ejecutar las pruebas en las diferentes fases del desarrollo del proyecto. - Documentar el diseño y la ejecución de las pruebas. - Generar documentos con los resultados y anomalías de las pruebas ya ejecutadas. Actualmente, la Ingeniería de Pruebas no es muy reconocida como área de trabajo independiente sino más bien, un área inmersa dentro de la Ingeniería de Software. En el entorno laboral existe el perfil de Ingeniero de Pruebas, sin embargo pocos ingenieros de software tienen claro querer ser Ingenieros de Pruebas (probadores o testers) debido a que nunca han tenido la oportunidad de enfrentarse a actividades prácticas reales dentro de los centros de estudios universitarios donde cursan la carrera. Al ser un área de inherente ejercicio profesional, la parte correspondiente de la Ingeniería de Pruebas suele enfocarse desde un punto de vista teórico más que práctico. Hay muchas herramientas para la creación de pruebas y de ayuda para los ingenieros de pruebas, pero la mayoría son de pago o hechas a medida para grandes empresas que necesitan dicho software. Normalmente la gente conoce lo que es la Ingeniería de Pruebas únicamente cuando se empieza a adquirir experiencia en dicha área en el ejercicio profesional dentro de una empresa. Con lo cual, el acercamiento durante la carrera no necesariamente le ha ofrecido al profesional en Ingeniería, la oportunidad de trabajar en esta rama de la Ingeniería del Software y en algunos casos, NOVATests: Metodología y herramienta software de apoyo para los Ingenieros de Prueba Junior 4 los recién egresados comienzan su vida profesional con algún desconocimiento en este sentido. Es por el conjunto de estas razones, que mi intención en este proyecto es proponer una metodología y una herramienta software de apoyo a dicha metodología, para que los estudiantes de carreras de Ingeniería Software y afines, e ingenieros recién egresados con poca experiencia o ninguna en esta área (Ingenieros de Pruebas Junior), puedan poner en práctica las actividades de la Ingeniería de Pruebas dentro de un entorno lo más cercano posible al ejercicio de la labor profesional. De esta forma, podrían desarrollar las tareas propias de dicha área de una manera fácil e intuitiva, favoreciendo un mayor conocimiento y experiencia de la misma. ABSTRACT The software engineering is specialized in the verification and validation of Software and it is formally defined as: “Development process which by strict methods evaluates and corrects the quality of the product along its lifecycle”. This process contains a number of methods, procedures and techniques formally defined which used systematically make easier the identification of the highest quantity of error and failures within a Software. A software going through this rigorous process of tests will become a quality product that will help the software engineer`s work while correcting incidences. Some of them probably generated after the deployment in a real environment. This process belongs to the Software engineering and therefore it is a specialization itself. Simplifying, the correct verification and validation of a software requires some essential activities such as: -Create a Test Plan of the project - Update this Test Plan and correct if necessary - Check Requirement’s specification documents -Execute the different tests among all the phases of the project - Create the pertinent documentation about design and execution of these tests. - Generate the result documents and all the possible incidences the tests could contain. Currently, the Test engineering is not recognized as a work area but an area immerse within the Software engineering. The professional environment includes the role of Test engineer, but only a few software engineers have clear to become Test engineers (testers) because they have never had the chance to face this activities within the university study centers where they take study of this degree. Since there are little professional environments, this area is focused from a theoretical way instead of a more practical vision. There are plenty of tools helping the Test engineer, but most of them are paid tools or bespoke tools for big companies in need of this software. Usually people know what test engineering is by starting working on it and not before, when people start acquiring experience in this field within a company. Therefore, the degree studied have not approach this field of the Software engineering before and in some cases the graduated students start working without any knowledge in this area. Because of this reasons explained, it is my intention to propose this Project: a methodology and a software tool supporting this methodology so the students of software engineering and similar ones but also graduated students with little experience in this area (Junior Test Engineers), can afford practice in this field and get used to the activities related with the test engineering. Because of this they will be able to carry out the proper tasks of this area easier, enforcing higher and better knowledge and experience of it.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis considera dos tipos de aplicaciones del diseño óptico: óptica formadora de imagen por un lado, y óptica anidólica (nonimaging) o no formadora de imagen, por otro. Las ópticas formadoras de imagen tienen como objetivo la obtención de imágenes de puntos del objeto en el plano de la imagen. Por su parte, la óptica anidólica, surgida del desarrollo de aplicaciones de concentración e iluminación, se centra en la transferencia de energía en forma de luz de forma eficiente. En general, son preferibles los diseños ópticos que den como resultado sistemas compactos, para ambos tipos de ópticas (formadora de imagen y anidólica). En el caso de los sistemas anidólicos, una óptica compacta permite tener costes de producción reducidos. Hay dos razones: (1) una óptica compacta presenta volúmenes reducidos, lo que significa que se necesita menos material para la producción en masa; (2) una óptica compacta es pequeña y ligera, lo que ahorra costes en el transporte. Para los sistemas ópticos de formación de imagen, además de las ventajas anteriores, una óptica compacta aumenta la portabilidad de los dispositivos, que es una gran ventaja en tecnologías de visualización portátiles, tales como cascos de realidad virtual (HMD del inglés Head Mounted Display). Esta tesis se centra por tanto en nuevos enfoques de diseño de sistemas ópticos compactos para aplicaciones tanto de formación de imagen, como anidólicas. Los colimadores son uno de los diseños clásicos dentro la óptica anidólica, y se pueden utilizar en aplicaciones fotovoltaicas y de iluminación. Hay varios enfoques a la hora de diseñar estos colimadores. Los diseños convencionales tienen una relación de aspecto mayor que 0.5. Con el fin de reducir la altura del colimador manteniendo el área de iluminación, esta tesis presenta un diseño de un colimador multicanal. En óptica formadora de imagen, las superficies asféricas y las superficies sin simetría de revolución (o freeform) son de gran utilidad de cara al control de las aberraciones de la imagen y para reducir el número y tamaño de los elementos ópticos. Debido al rápido desarrollo de sistemas de computación digital, los trazados de rayos se pueden realizar de forma rápida y sencilla para evaluar el rendimiento del sistema óptico analizado. Esto ha llevado a los diseños ópticos modernos a ser generados mediante el uso de diferentes técnicas de optimización multi-paramétricas. Estas técnicas requieren un buen diseño inicial como punto de partida para el diseño final, que será obtenido tras un proceso de optimización. Este proceso precisa un método de diseño directo para superficies asféricas y freeform que den como resultado un diseño cercano al óptimo. Un método de diseño basado en ecuaciones diferenciales se presenta en esta tesis para obtener un diseño óptico formado por una superficie freeform y dos superficies asféricas. Esta tesis consta de cinco capítulos. En Capítulo 1, se presentan los conceptos básicos de la óptica formadora de imagen y de la óptica anidólica, y se introducen las técnicas clásicas del diseño de las mismas. El Capítulo 2 describe el diseño de un colimador ultra-compacto. La relación de aspecto ultra-baja de este colimador se logra mediante el uso de una estructura multicanal. Se presentará su procedimiento de diseño, así como un prototipo fabricado y la caracterización del mismo. El Capítulo 3 describe los conceptos principales de la optimización de los sistemas ópticos: función de mérito y método de mínimos cuadrados amortiguados. La importancia de un buen punto de partida se demuestra mediante la presentación de un mismo ejemplo visto a través de diferentes enfoques de diseño. El método de las ecuaciones diferenciales se presenta como una herramienta ideal para obtener un buen punto de partida para la solución final. Además, diferentes técnicas de interpolación y representación de superficies asféricas y freeform se presentan para el procedimiento de optimización. El Capítulo 4 describe la aplicación del método de las ecuaciones diferenciales para un diseño de un sistema óptico de una sola superficie freeform. Algunos conceptos básicos de geometría diferencial son presentados para una mejor comprensión de la derivación de las ecuaciones diferenciales parciales. También se presenta un procedimiento de solución numérica. La condición inicial está elegida como un grado de libertad adicional para controlar la superficie donde se forma la imagen. Basado en este enfoque, un diseño anastigmático se puede obtener fácilmente y se utiliza como punto de partida para un ejemplo de diseño de un HMD con una única superficie reflectante. Después de la optimización, dicho diseño muestra mejor rendimiento. El Capítulo 5 describe el método de las ecuaciones diferenciales ampliado para diseños de dos superficies asféricas. Para diseños ópticos de una superficie, ni la superficie de imagen ni la correspondencia entre puntos del objeto y la imagen pueden ser prescritas. Con esta superficie adicional, la superficie de la imagen se puede prescribir. Esto conduce a un conjunto de tres ecuaciones diferenciales ordinarias implícitas. La solución numérica se puede obtener a través de cualquier software de cálculo numérico. Dicho procedimiento también se explica en este capítulo. Este método de diseño da como resultado una lente anastigmática, que se comparará con una lente aplanática. El diseño anastigmático converge mucho más rápido en la optimización y la solución final muestra un mejor rendimiento. ABSTRACT We will consider optical design from two points of view: imaging optics and nonimaging optics. Imaging optics focuses on the imaging of the points of the object. Nonimaging optics arose from the development of concentrators and illuminators, focuses on the transfer of light energy, and has wide applications in illumination and concentration photovoltaics. In general, compact optical systems are necessary for both imaging and nonimaging designs. For nonimaging optical systems, compact optics use to be important for reducing cost. The reasons are twofold: (1) compact optics is small in volume, which means less material is needed for mass-production; (2) compact optics is small in size and light in weight, which saves cost in transportation. For imaging optical systems, in addition to the above advantages, compact optics increases portability of devices as well, which contributes a lot to wearable display technologies such as Head Mounted Displays (HMD). This thesis presents novel design approaches of compact optical systems for both imaging and nonimaging applications. Collimator is a typical application of nonimaging optics in illumination, and can be used in concentration photovoltaics as well due to the reciprocity of light. There are several approaches for collimator designs. In general, all of these approaches have an aperture diameter to collimator height not greater than 2. In order to reduce the height of the collimator while maintaining the illumination area, a multichannel design is presented in this thesis. In imaging optics, aspheric and freeform surfaces are useful in controlling image aberrations and reducing the number and size of optical elements. Due to the rapid development of digital computing systems, ray tracing can be easily performed to evaluate the performance of optical system. This has led to the modern optical designs created by using different multi-parametric optimization techniques. These techniques require a good initial design to be a starting point so that the final design after optimization procedure can reach the optimum solution. This requires a direct design method for aspheric and freeform surface close to the optimum. A differential equation based design method is presented in this thesis to obtain single freeform and double aspheric surfaces. The thesis comprises of five chapters. In Chapter 1, basic concepts of imaging and nonimaging optics are presented and typical design techniques are introduced. Readers can obtain an understanding for the following chapters. Chapter 2 describes the design of ultra-compact collimator. The ultra-low aspect ratio of this collimator is achieved by using a multichannel structure. Its design procedure is presented together with a prototype and its evaluation. The ultra-compactness of the device has been approved. Chapter 3 describes the main concepts of optimizing optical systems: merit function and Damped Least-Squares method. The importance of a good starting point is demonstrated by presenting an example through different design approaches. The differential equation method is introduced as an ideal tool to obtain a good starting point for the final solution. Additionally, different interpolation and representation techniques for aspheric and freeform surface are presented for optimization procedure. Chapter 4 describes the application of differential equation method in the design of single freeform surface optical system. Basic concepts of differential geometry are presented for understanding the derivation of partial differential equations. A numerical solution procedure is also presented. The initial condition is chosen as an additional freedom to control the image surface. Based on this approach, anastigmatic designs can be readily obtained and is used as starting point for a single reflective surface HMD design example. After optimization, the evaluation shows better MTF. Chapter 5 describes the differential equation method extended to double aspheric surface designs. For single optical surface designs, neither image surface nor the mapping from object to image can be prescribed. With one more surface added, the image surface can be prescribed. This leads to a set of three implicit ordinary differential equations. Numerical solution can be obtained by MATLAB and its procedure is also explained. An anastigmatic lens is derived from this design method and compared with an aplanatic lens. The anastigmatic design converges much faster in optimization and the final solution shows better performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto de fin de grado pretende demostrar la importancia y la utilidad de la creación de redes de dispositivos móviles conectados entre sí. Para ello se explicarán varios tipos de redes inalámbricas que permiten estas conexiones directas entre dispositivos sin la necesidad de un servidor. En estas redes inalámbricas se destacan las redes P2P y las redes Ad-hoc, las cuales se explicarán posteriormente. El despliegue de estas redes se puede encontrar en un amplio rango de campos como puede ser la agricultura, la medicina e incluso en el ámbito militar. Es objetivo de este proyecto, además, el estudio de la tecnología Wi-Fi Direct creada por la Wi-Fi Alliance. Como se explicará a lo largo del proyecto, Wi-Fi Direct está basado en las redes P2P. Esta tecnología permite a los dispositivos cercanos crear redes P2P a través de la red Wi-Fi sin la necesidad de un punto de acceso a Internet. Por otro lado, una gran cantidad de los dispositivos móviles que existen actualmente poseen el sistema operativo Android. Android ha incorporado en sus dispositivos más recientes la tecnología Wi-Fi Direct. Debido a ello han ido surgiendo aplicaciones que usando esta tecnología consiguen desde enviar ficheros hasta indicar la localización de un usuario. Esta tecnología combinada con este tipo de dispositivos puede ser muy útil para utilizar en casos de emergencia donde las infraestructuras de comunicaciones no estén disponibles ya que al no necesitar un punto de acceso a internet es posible la comunicación entre un usuario en peligro y otro que se encuentre dentro de un radio cercano. Por estos motivos otro de los principales objetivos de este proyecto es la implementación de una aplicación para dispositivos Android que use la tecnología Wi-Fi Direct para realizar varias funcionalidades diferentes, como es el intercambio de ficheros entre dispositivos y la creación de un chat para la comunicación simultanea entre dos dispositivos. Con esto se pretende conocer mejor el funcionamiento de la tecnología Wi-Fi Direct y demostrar su utilidad en los dispositivos móviles como son los dispositivos Android. ABSTRACT. This final degree Project tries to demonstrate the importance and utility of networking mobile devices. For this purpose several types of wireless networks will be explained. These networks allow direct connections between devices. The most prominent Wireless networks are P2P and Ad-hoc which will be explained later. The use of these networks can be found in a wide range of fields such as agriculture medicine, and even in the military sector. Besides, other aim of this project is the study of Wi-Fi Direct Technology which is created by Wi-Fi Alliance. As it explained along the project, Wi-Fi Direct is based on P2P networks. This technology lets nearby devices create P2P networks through Wi-Fi network without an Internet access point. On the other hand, a large number of mobile devices have the Android OS. Android has integrated Wi-Fi Direct technology in its latest devices. Because of this applications have emerged that using this technology they get from sending files to send the user’s location. This technology combined with these devices can be very useful to use in emergencies where communications infrastructures are not available. Since not need an Internet access point, communication between a user in danger and another within close radius is possible. For these reasons another of the main aims of this project is the implementation of an application for Android devices which use Wi-Fi Direct technology to perform several different functionalities, such as file exchange or chat for simultaneous communication between devices. This is intended to better understand the operation of Wi-Fi Direct technology and prove its utility on mobile devices such as Android devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1949 el arquitecto Casto Fernández-Shaw realiza un viaje de dos meses a diversas ciudades de EEUU (Los Ángeles, Nueva York, Washington...), y según sus propias palabras: "Confieso que me encontré en mi elemento. Por una parte veía realizados... mis sueños... En mi álbum de imágenes impactantes ocupa un puesto de honor la del helicóptero con la correspondencia aterrizando en la terraza de la Casa de Correos de Los Ángeles, como yo deseaba para mi Estación de Enlace madrileña". El proyecto, no realizado, al que se refiere Casto, está fechado en 1933 (reformado en 1936), adelantándose en su imaginación casi veinte años a lo que después visitó con admiración. Casto Fernández-Shaw (1896-1978), titulado en 1919, puede considerarse posiblemente el discípulo más cercano al arquitecto gallego Antonio Palacios, pero con un lenguaje personal contemporáneo. Como sugiere Miguel Ángel Baldellou: "Fernández-Shaw es capaz de reinterpretar y dar salida en forma de vanguardia a una tradición sustentada por Palacios de forma magistral." Así pues, sus referentes se mueven entre lo quimérico y el pragmatismo racionalista de principios del siglo XX, con importantes influencias de la arquitectura regionalista e historicista de sus maestros, Aníbal Álvarez, Modesto López Otero y, sobre todo, Antonio Palacios. En sus dibujos de ciudades aerostáticas y acorazadas, de garajes radiales, de torres espectáculo, de monumentos a la ciencia, de autogiródromos, casas aerotransportadas y hangares aerodinámicos..., descubrimos a un arquitecto que emprende un camino desde el futurismo más cercano a las ensoñaciones de una ciudad industrial dominada por la tecnología hasta una utopía basada en la creencia del triunfo de la civilización, las grandes conquistas de la humanidad y la paz universal. El objetivo de esta comunicación es analizar la búsqueda de Casto de una respuesta formal a su viaje interior hacia la utopía a través de las vanguardias figurativas de comienzos del siglo XX. Estudiaremos sus proyectos no construidos a través de sus dibujos, que representan grandes edificios futuristas, descontextualizados del entorno, obras másicas y monumentalistas de fuerte contenido simbólico. Y los compararemos con otras obras no materializadas de arquitectos contemporáneos como Sant¿Elia, Tchernikov, Tatlin, Poelzig... que tuvieron mayor o menor influencia en su carrera

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis doctoral fue desarrollada para estudiar las emisiones de amoniaco (NH3) y metano (CH4) en purines de cerdos, y los efectos ocasionados por cambios en la formulación de la dieta. Con este propósito, fueron llevados a cabo tres estudios. El experimento 1 fue realizado con el objetivo de analizar los factores de variación de la composición de purines y establecer ecuaciones de predicción para emisiones potenciales de NH3 y CH4. Fueron recogidas setenta y nueve muestras de piensos y purines durante dos estaciones del año (verano y invierno) de granjas comerciales situadas en dos regiones de España (Centro y Mediterráneo). Se muestrearon granjas de gestación, maternidad, lactación y cebo. Se determinó la composición de piensos y purines, y la emisión potencial de NH3 y CH4. El contenido de nutrientes de los piensos fue usado como covariable en el análisis. La espectroscopia de reflectancia del infrarrojo cercano (NIRS) se evaluó como herramienta de predicción de la composición y potencial emisión de gases del purín. Se encontró una amplia variabilidad en la composición de piensos y purines. Las granjas del Mediterráneo tenían mayor pH (P<0,001) y concentración de cenizas (P =0,02) en el purín que las del Centro. El tipo de granja también afectó al contenido de extracto etéreo (EE) del purín (P =0,02), observando los valores más elevados en las instalaciones de animales jóvenes. Los resultados sugieren un efecto tampón de la fibra de la dieta en el pH del purín y una relación directa (P<0,05) con el contenido de fibra fecal. El contenido de proteína del pienso no afectó al contenido de nitrógeno del purín, pero disminuyó (P=0,003) la concentración de sólidos totales (ST) y de sólidos volátiles (SV). Se obtuvieron modelos de predicción de la emisión potencial de NH3 (R2=0,89) y CH4 (R2=0,61) partir de la composición del purín. Los espectros NIRS mostraron una buena precisión para la estimación de la mayor parte de los constituyentes, con coeficientes de determinación de validación cruzada (R2cv) superiores a 0,90, así como para la predicción del potencial de emisiones de NH3 y CH4 (R2cv=0,84 y 0,68, respectivamente). El experimento 2 fue realizado para investigar los efectos del nivel de inclusión de dos fuentes de sub-productos fibrosos: pulpa de naranja (PN) y pulpa de algarroba (PA), en dietas iso-fibrosas de cerdos de cebo, sobre la composición del purín y las emisiones potenciales de NH3 y CH4. Treinta cerdos (85,4±12,3 kg) fueron alimentados con cinco dietas iso-nutritivas: control comercial trigo/cebada (C) y cuatro dietas experimentales incluyendo las dos fuentes de sub-productos a dos niveles (75 y 150 g/kg) en una estructura 2 × 2 factorial. Después de 14 días de periodo de adaptación, heces y orina fueron recogidas separadamente durante 7 días para medir la digestibilidad de los nutrientes y el nitrógeno (N) excretado (6 réplicas por dieta) en cerdos alojados individualmente en jaulas metabólicas. Las emisiones de NH3 y CH4 fueron medidas después de la recogida de los purínes durante 11 y 100 días respectivamente. La fuente y el nivel de subproductos fibrosos afectó a la eficiencia digestiva de diferentes formas, ya que los coeficientes de digestibilidad total aparente (CDTA) para la materia seca (MS), materia orgánica (MO), fracciones fibrosas y energía bruta (EB) aumentaron con la PN pero disminuyeron con la inclusión de PA (P<0,05). El CDTA de proteína bruta (PB) disminuyó con la inclusión de las dos fuentes de fibra, siendo más bajo al mayor nivel de inclusión. La concentración fecal de fracciones fibrosas aumentó (P<0,05) con el nivel de inclusión de PA pero disminuyó con el de PN (P<0,01). El nivel más alto de las dos fuentes de fibra en el pienso aumentó (P<0,02) el contenido de PB fecal pero disminuyó el contenido de N de la orina (de 205 para 168 g/kg MS, P<0,05) en todas las dietas suplementadas comparadas con la dieta C. Adicionalmente, las proporciones de nitrógeno indigerido, nitrógeno soluble en agua, nitrógeno bacteriano y endógeno excretado en heces no fueron afectados por los tratamientos. Las características iniciales del purín no difirieron entre las diferentes fuentes y niveles de fibra, excepto para el pH que disminuyó con la inclusión de altos niveles de sub-productos. La emisión de NH3 por kg de purín fue más baja en todas las dietas suplementadas con fibras que en la dieta C (2,44 vs.1,81g de promedio, P<0,05). Además, purines de dietas suplementadas con alto nivel de sub-productos tendieron (P<0,06) a emitir menos NH3 por kg de nitrógeno total y mostraron un potencial más bajo para emitir CH4, independientemente de la fuente de fibra. El experimento 3 investigó los efectos de la fuente de proteína en dietas prácticas. Tres piensos experimentales fueron diseñados para sustituir una mescla de harina y cascarilla de soja (SOJ) por harina de girasol (GIR) o por DDGS del trigo (DDGST). La proporción de otros ingredientes fue modificada para mantener los contenidos de nutrientes similares a través de las dietas. El cambio en la fuente de proteína dio lugar a diferencias en el contenido de fibra neutro detergente ligada a proteína bruta (FNDPB), fibra soluble (FS) y lignina ácido detergente (LAD) en la dieta. Veinticuatro cerdos (ocho por dieta), con 52,3 o 60,8 kg en la primera y segunda tanda respectivamente, fueron alojados individualmente en jaulas metabólicas. Durante un periodo de 7 días fue determinado el balance de MS, el CDTA de los nutrientes y la composición de heces y orina. Se realizó el mismo procedimiento del experimento 2 para medir las emisiones de NH3 y CH4 de los purines de cada animal. Ni la ingestión de MS ni el CDTA de la MS o de la energía fueron diferentes entre las dietas experimentales, pero el tipo de pienso afectó (P<0.001) la digestibilidad de la PB, que fue mayor para GIR (0,846) que para SOJ (0,775), mientras que la dieta DDGST mostró un valor intermedio (0,794). La concentración fecal de PB fue por tanto influenciada (P<0,001) por el tratamiento, observándose la menor concentración de PB en la dieta GIR y la mayor en la dieta SOJ. La proporción de N excretado en orina o heces disminuyó de 1,63 en la dieta GIR hasta 0,650 en la dieta SOJ, como consecuencia de perdidas más bajas en orina y más altas en heces, con todas las fracciones de nitrógeno fecales creciendo en paralelo a la excreción total. Este resultado fue paralelo a una disminución de la emisión potencial de NH3 (g/kg purín) en la dieta SOJ con respecto a la dieta GIR (desde 1,82 a 1,12, P<0,05), dando valores intermedios (1,58) para los purines de la dieta DDGST. Por otro lado, el CDTA de la FS y de la fibra neutro detergente (FND) fueron afectados (P<0,001 y 0,002, respectivamente) por el tipo de dieta, siendo más bajas en la dieta GIR que en la dieta SOJ; además, se observó un contenido más alto de FND (491 vs. 361g/kg) en la MS fecal para la dieta GIR que en la dieta SOJ, presentando la dieta DDGST valores intermedios. El grado de lignificación de la FND (FAD/FND x 100) de las heces disminuyó en el orden GIR>DDGST>SOJ (desde 0,171 hasta 0,109 y 0,086, respectivamente) en paralelo a la disminución del potencial de emisión de CH4 por g de SV del purín (desde 301 a 269 y 256 mL, respectivamente). Todos los purines obtenidos en estos tres experimentos y Antezana et al. (2015) fueron usados para desarrollar nuevas calibraciones con la tecnología NIRS, para predecir la composición del purín y el potencial de las emisiones de gases. Se observó una buena precisión (R2cv superior a 0,92) de las calibraciones cuando muestras de los ensayos controlados (2, 3 y Antezana et al., 2015) fueron añadidas, aumentando el rango de variación. Una menor exactitud fue observada para TAN y emisiones de NH3 y CH4, lo que podría explicarse por una menor homogeneidad en la distribución de las muestras cuando se amplía el rango de variación del estudio. ABSTRACT This PhD thesis was developed to study the emissions of ammonia (NH3) and methane (CH4) from pig slurry and the effects caused by changes on diet formulation. For these proposes three studies were conducted. Experiment 1 aimed to analyse several factors of variation of slurry composition and to establish prediction equations for potential CH4 and NH3 emissions. Seventy-nine feed and slurry samples were collected at two seasons (summer and winter) from commercial pig farms sited at two Spanish regions (Centre and Mediterranean). Nursery, growing-fattening, gestating and lactating facilities were sampled. Feed and slurry composition were determined, and potential CH4 and NH3 emissions measured. Feed nutrient contents were used as covariates in the analysis. Near infrared reflectance spectroscopy (NIRS) was evaluated as a predicting tool for slurry composition and potential gaseous emissions. A wide variability was found both in feed and slurry composition. Mediterranean farms had a higher pH (P<0.001) and ash (P=0.02) concentration than those located at the centre of Spain. Also, type of farm affected ether extract (EE) content of the slurry (P=0.02), with highest values obtained for the youngest animal facilities. Results suggested a buffer effect of dietary fibre on slurry pH and a direct relationship (P<0.05) with fibre constituents of manure. Dietary protein content did not affect slurry nitrogen content (N) but decreased (P=0.003) in total solid (TS) and volatile solids (VS) concentration. Prediction models of potential NH3 emissions (R2=0.89) and biochemical CH4 potential (B0) (R2=0.61) were obtained from slurry composition. Predictions from NIRS showed a high accuracy for most slurry constituents with coefficient of determination of cross validation (R2cv) above 0.90 and a similar accuracy of prediction of potential NH3 and CH4 emissions (R2cv=0.84 and 0.68, respectively) thus models based on slurry composition from commercial farms. Experiment 2 was conducted to investigate the effects of increasing the level of two sources of fibrous by-products, orange pulp (OP) and carob meal (CM), in iso-fibrous diets for growing-finishing pig, slurry composition and potential NH3 and CH4 emissions. Thirty pigs (85.4±12.3 kg) were fed five iso-nutritive diets: a commercial control wheat/barley (C) and four experimental diets including two sources of fibrous by-products OP and CM and two dietary levels (75 and 150 g/kg) in a 2 × 2 factorial arrangement. After a 14-day adaptation period, faeces and urine were collected separately for 7 days to measure nutrient digestibility and the excretory patterns of N from pigs (6 replicates per diet) housed individually in metabolic pens. For each animal, the derived NH3 and CH4 emissions were measured in samples of slurry over an 11 and 100-day storage periods, respectively. Source and level of the fibrous by-products affected digestion efficiency in a different way as the coefficients of total tract apparent digestibility (CTTAD) for dry matter (DM), organic matter (OM), fibre fractions and gross energy (GE) increased with OP but decreased with CM (P<0.05). Crude protein CTTAD decreased with the inclusion of both sources of fibre, being lower at the highest dietary level. Faecal concentration of fibre fractions increased (P<0.05) with the level of inclusion of CM but decreased with that of OP (P<0.01). High dietary level for both sources of fibre increased (P<0.02) CP faecal content but urine N content decreased (from 205 to 168 g/kg DM, P<0.05) in all the fibre-supplemented compared to C diet. Additionally, the proportions of undigested dietary, water soluble, and bacterial and endogenous debris of faecal N excretion were not affected by treatments. The initial slurry characteristics did not differ among different fibre sources and dietary levels, except pH, which decreased at the highest by-product inclusion levels. Ammonia emission per kg of slurry was lower in all the fibre-supplemented diets than in C diet (2.44 vs. 1.81g as average, P<0.05). Additionally, slurries from the highest dietary level of by-products tended (P<0.06) to emit less NH3 per kg of initial total Kjeldahl nitrogen (TKN) and showed a lower biochemical CH4 potential , independently of the fibre source. Experiment 3 investigated the effects of protein source in practical diets. Three experimental feeds were designed to substitute a mixture of soybean meal and soybean hulls (SB diet) with sunflower meal (SFM) or wheat DDGS (WDDGS). The proportion of other ingredients was also modified in order to maintain similar nutrient contents across diets. Changes in protein source led to differences in dietary content of neutral detergent insoluble crude protein (NDICP), soluble fibre (SF) and acid detergent lignin (ADL). Twenty-four pigs (eight per diet), weighing 52.3 or 60.8 kg at the first and second batch respectively, were housed individually in metabolic pens to determine during a 7-day period DM balance, CTTAD of nutrients, and faecal and urine composition. Representative slurry samples from each animal were used to measure NH3 and CH4 emissions over an 11 and or 100-day storage period, respectively. Neither DM intake, nor DM or energy CTTAD differed among experimental diets, but type of feed affected (P<0.001) CP digestibility, which was highest for SFM (0.846) than for SB (0.775) diet, with WDDGS-based diet giving an intermediate value (0.794). Faecal DM composition was influenced (P<0.001) accordingly, with the lowest CP concentration found for diet SFM and the highest for SB. The ratio of N excreted in urine or faeces decreased from SFM (1.63) to SB diet (0.650), as a consequence of both lower urine and higher faecal losses, with all the faecal N fractions increasing in parallel to total excretion. This result was parallel to a decrease of potential NH3 emission (g/kg slurry) in diet SB with respect to diet SFM (from 1.82 to 1.12, P<0.05), giving slurry from WDDGS-based diet an intermediate value (1.58). Otherwise, SF and insoluble neutral detergent fibre (NDF) CTTAD were affected (P<0.001 and P=0.002, respectively) by type of diet, being lower for SFM than in SB-diet; besides, a higher content of NDF (491 vs. 361 g/kg) in faecal DM was observed for SFM with respect to SB based diet, with WDDGS diet being intermediate. Degree of lignification of NDF (ADL/NDF x 100) of faeces decreased in the order SFM>WDDGS>SB (from 0.171 to 0.109 and 0.086, respectively) in parallel to a decrease of biochemical CH4 potential per g of VS of slurry (from 301 to 269 and 256 ml, respectively). All slurry samples obtained from these three experiments and Antezana et al. (2015) were used to develop new calibrations with NIRS technology, to predict the slurry composition and potential gaseous emissions of samples with greater variability in comparison to experiment 1. Better accuracy (R2cv above 0.92) was observed for calibrations when samples from controlled trials experiments (2, 3 and Antezana et al., 2015) were included, increasing the range of variation. A lower accuracy was observed for TAN, NH3 and CH4 gaseous emissions, which might be explained by the less homogeneous distribution with a wider range of data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

¿Cómo están cambiando las ciudades a comienzos del siglo XXI? ¿Qué importancia tiene la globalización en el entorno más cercano que podemos encontrar: nuestro barrio? El fenómeno urbano conocido como gentrificación está actuando con fuerza en los centros históricos de muchas ciudades europeas. Madrid no es una excepción, y las tendencias demográficas, comerciales e inmobiliarias de los últimos años en la ciudad la sitúan como una afectada más por este movimiento. Chamberí es un distrito que nació con identidad obrera, pero poco a poco fue elevando su posición social y se alzó como una zona acomodada de Madrid. Presenta los problemas comunes del centro consolidado de una ciudad: dificultades de crecimiento y renovación. En los últimos años está sufriendo numerosos cambios que, aunque no son visibles en el día a día, muestran una tendencia común algo diferente a la de la ciudad de Madrid. Para detectar si Chamberí se suma a la cada vez más presente gentrificación de las áreas históricas de las ciudades, este trabajo realiza el estudio analítico del distrito y de los barrios que lo componen mediante las variables estadísticas disponibles en el Ayuntamiento de Madrid. Se analizan los cambios producidos en los últimos años en una de las áreas más antiguas de la capital y se relacionan con una posible tendencia de gentrificación que, afectará en mayor medida a unos barrios que a otros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transformación de la energía cinética del mar en una fuente renovable de energía eléctrica podría ser un hecho relevante desde el punto de visto tecnológico en un futuro cercano. En el campo de las energías renovables marinas, las turbinas de corrientes de eje horizontal son posiblemente el dispositivo más adecuado para la obtención de electricidad. Las técnicas de cálculo existentes en la actualidad para obtener las distribuciones de cargas a las que está sometida una pala de una turbina de corrientes son las siguientes: Modelos de disco actuador, Método de líneas sustentadoras y método de elementos finitos. Estas técnicas presentan ciertas dificultades para su implementación y obtención de resultados preliminares, ya que entrañan gran complejidad conceptual y su entendimiento no resulta sencillo ni tampoco elaborar procedimientos de cálculo que se puedan utilizar durante la fase de diseño conceptual o básico de una turbina. En este trabajo, se analizarán los conceptos físicos y matemáticos que intervienen en el funcionamiento de una turbina de corrientes, para confeccionar un método o procedimiento de cálculo que sea relativamente intuitivo y sencillo de manejar. Esta herramienta de cálculo permitirá obtener resultados para el diseño básico, y también puede ser un punto de partida para manejar otras herramientas de cálculo más avanzadas ya que los principios fundamentales son los mismos. En la parte final del trabajo se aplicarán las ecuaciones obtenidas a varios casos reales de turbinas de corrientes. ABSTRACT Transforming the kinetic energy of the sea into renewable useful source electricity could be a relevant technologic development in the near future. In this field, marine horizontal axis turbines (HAT) are possibly, the most important devices. The current calculation techniques used to obtain the acting forces or loads in the marine current horizontal axis rotor blades: Actuator disc models, lifting lines and finite element method, have certain disadvantages which lead difficulties to obtain relatively quick results, in addition, these methods are not easy to understand and mastering, and furthermore, complex computing tools are required to obtain results. In the present work, the common physical and mathematic fundamentals will be studied and analyzed with the aim to create a new easier managing calculating tool. The proposed procedure of this document can be considered as a help towards to calculate preliminary solutions easier, and also a starting point to manage physical ideas which could be used with other calculation tools. And finally, the mathematic fundamentals will be explained and the implementation of the equations in a real case. Nevertheless, due to the real complexity of the problem, the assumed simplifications of this model must be taken into account, in order to know the possible calculating limitations of this procedure and consequently use it correctly.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Fotogrametría, como ciencia y técnica de obtención de información tridimensional del espacio objeto a partir de imágenes bidimensionales, requiere de medidas de precisión y en ese contexto, la calibración geométrica de cámaras ocupa un lugar importante. El conocimiento de la geometría interna de la cámara es fundamental para lograr mayor precisión en las medidas realizadas. En Fotogrametría Aérea se utilizan cámaras métricas (fabricadas exclusivamente para aplicaciones cartográficas), que incluyen objetivos fotográficos con sistemas de lentes complejos y de alta calidad. Pero en Fotogrametría de Objeto Cercano se está trabajando cada vez con más asiduidad con cámaras no métricas, con ópticas de peor calidad que exigen una calibración geométrica antes o después de cada trabajo. El proceso de calibración encierra tres conceptos fundamentales: modelo de cámara, modelo de distorsión y método de calibración. El modelo de cámara es un modelo matemático que aproxima la transformación proyectiva original a la realidad física de las lentes. Ese modelo matemático incluye una serie de parámetros entre los que se encuentran los correspondientes al modelo de distorsión, que se encarga de corregir los errores sistemáticos de la imagen. Finalmente, el método de calibración propone el método de estimación de los parámetros del modelo matemático y la técnica de optimización a emplear. En esta Tesis se propone la utilización de un patrón de calibración bidimensional que se desplaza en la dirección del eje óptico de la cámara, ofreciendo así tridimensionalidad a la escena fotografiada. El patrón incluye un número elevado de marcas, lo que permite realizar ensayos con distintas configuraciones geométricas. Tomando el modelo de proyección perspectiva (o pinhole) como modelo de cámara, se realizan ensayos con tres modelos de distorsión diferentes, el clásico de distorsión radial y tangencial propuesto por D.C. Brown, una aproximación por polinomios de Legendre y una interpolación bicúbica. De la combinación de diferentes configuraciones geométricas y del modelo de distorsión más adecuado, se llega al establecimiento de una metodología de calibración óptima. Para ayudar a la elección se realiza un estudio de las precisiones obtenidas en los distintos ensayos y un control estereoscópico de un panel test construido al efecto. ABSTRACT Photogrammetry, as science and technique for obtaining three-dimensional information of the space object from two-dimensional images, requires measurements of precision and in that context, the geometric camera calibration occupies an important place. The knowledge of the internal geometry of the camera is fundamental to achieve greater precision in measurements made. Metric cameras (manufactured exclusively for cartographic applications), including photographic lenses with complex lenses and high quality systems are used in Aerial Photogrammetry. But in Close Range Photogrammetry is working increasingly more frequently with non-metric cameras, worst quality optical components which require a geometric calibration before or after each job. The calibration process contains three fundamental concepts: camera model, distortion model and method of calibration. The camera model is a mathematical model that approximates the original projective transformation to the physical reality of the lenses. The mathematical model includes a series of parameters which include the correspondents to the model of distortion, which is in charge of correcting the systematic errors of the image. Finally, the calibration method proposes the method of estimation of the parameters of the mathematical modeling and optimization technique to employ. This Thesis is proposing the use of a pattern of two dimensional calibration that moves in the direction of the optical axis of the camera, thus offering three-dimensionality to the photographed scene. The pattern includes a large number of marks, which allows testing with different geometric configurations. Taking the projection model perspective (or pinhole) as a model of camera, tests are performed with three different models of distortion, the classical of distortion radial and tangential proposed by D.C. Brown, an approximation by Legendre polynomials and bicubic interpolation. From the combination of different geometric configurations and the most suitable distortion model, brings the establishment of a methodology for optimal calibration. To help the election, a study of the information obtained in the various tests and a purpose built test panel stereoscopic control is performed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis de los factores que determinan el establecimiento y supervivencia de orquídeas epífitas, incluyen: a) las condiciones microambientales de los bosques que las mantienen, b) preferencias por las características de los hospederos donde crecen, c) limitación en la dispersión de semillas, d) interacciones planta-planta, y e) asociaciones micorrízicas para la germinación y resultan esenciales para el desarrollo de estrategias para la conservación y manejo de este grupo de plantas. Este trabajo ha evaluado la importancia de estos factores en Epidendrum rhopalostele, orquídea epífita del bosque de niebla montano, a través de los análisis de los patrones espaciales de los árboles que la portan y de la propia orquídea, a escala de población, estudios de asociación y métodos moleculares. Estos últimos han consistido en el uso de marcadores AFLP para el análisis de la estructura genética de la orquídea y en la secuenciación-clonación de la región ITS para la identificación de los hongos micorrízicos asociados. El objetivo de esta tesis es, por tanto, una mejor comprensión de los factores que condicionan la presencia de orquídeas epífitas en los remanentes de bosque de niebla montano y una evaluación de las implicaciones para la conservación y mantenimiento de sus hábitats y la permanencia de sus poblaciones. El estudio fue realizado en un fragmento de bosque de niebla montano de sucesión secundaria situado al este de la Cordillera Real, en los Andes del sur de Ecuador, a 2250 m.s.n.m y caracterizado por una pendiente marcada, temperatura media anual de 20.8°C y precipitación anual de 2193 mm. En este fragmento se mapearon, identificaron y caracterizaron todos los árboles presentes con DBH > 1 cm y todos los individuos de Epidendrum rhopalostele. Así mismo se tomaron muestras de hoja para obtener ADN de todas las orquídeas registradas y muestras de raíces de individuos con flor de E. rhopalostele, uno por cada forófito, para el análisis filogenético de micorrizas. Análisis espaciales de patrones de puntos basados en la K de Ripley y la distancia al vecino más cercano fueron usados para los árboles, forófitos y la población de E. rhopalostele. Se observó que la distribución espacial de árboles y forófitos de E. rhopalostele no es aleatoria, ya que se ajusta a un proceso agregado de Poisson. De ahí se infiere una limitación en la dispersión de las semillas en el fragmento estudiado y en el establecimiento de la orquídea. El patrón de distribución de la población de E. rhopalostele en el fragmento muestra un agrupamiento a pequeña escala sugiriendo una preferencia por micro-sitios para el establecimiento de la orquídea con un kernel de dispersión de las semillas estimado de 0.4 m. Las características preferentes del micro-sitio como tipos de árboles (Clusia alata y árboles muertos), tolerancia a la sombra, corteza rugosa, distribución en los dos primeros metros sugieren una tendencia a distribuirse en el sotobosque. La existencia de una segregación espacial entre adultos y juveniles sugiere una competencia por recursos limitados condicionada por la preferencia de micro-sitio. La estructura genética de la población de E. rhopalostele analizada a través de Structure y PCoA evidencia la presencia de dos grupos genéticos coexistiendo en el fragmento y en los mismos forófitos, posiblemente por eventos de hibridización entre especies de Epidendrum simpátricas. Los resultados del análisis de autocorrelación espacial efectuados en GenAlex confirman una estructura genético-espacial a pequeña escala que es compatible con un mecanismo de dispersión de semillas a corta distancia ocasionada por gravedad o pequeñas escorrentías, frente a la dispersión a larga distancia promovida por el viento generalmente atribuida a las orquídeas. Para la identificación de los micobiontes se amplificó la región ITS1-5.8S-ITS2, y 47 secuencias fueron usadas para el análisis filogenético basado en neighborjoining, análisis bayesiano y máximum-likelihood que determinó que Epidendrum rhopalostele establece asociaciones micorrízicas con al menos dos especies diferentes de Tulasnella. Se registraron plantas que estaban asociadas con los dos clados de hongos encontrados, sugiriendo ausencia de limitación en la distribución del hongo. Con relación a las implicaciones para la conservación in situ resultado de este trabajo se recomienda la preservación de todo el fragmento de bosque así como de las interacciones existentes (polinizadores, micorrizas) a fin de conservar la diversidad genética de esta orquídea epífita. Si fuere necesaria una reintroducción se deben contemplar distancias entre los individuos en cada forófito dentro de un rango de 0.4 m. Para promover el reclutamiento y regeneración de E. rhopalostele, se recomienda que los forófitos correspondan preferentemente a árboles muertos o caídos y a especies, como Clusia alata, que posean además corteza rugosa, sean tolerantes a la sombra, y en el área del sotobosque con menor luminosidad. Además es conveniente que las orquídeas en su distribución vertical estén ubicadas en los primeros metros. En conclusión, la limitación en la dispersión, las características del micro-sitio, las interacciones intraespecíficas y con especies congenéricas simpátricas y las preferencias micorrízicas condicionan la presencia de esta orquídea epífita en este tipo de bosque. ABSTRACT The analysis of factors that determine the establishment and survival of epiphytic depends on factors such as a) microenvironmental conditions of forest, b) preference for host characteristics where orchids grow, c) seed dispersal limitation, d) plant-plant interaction, e) priority mycorrhizal associations for germination, are essential for the development of strategies for management and conservation. This work evaluated the importance of these factors in Epidendrum rhopalostele, an epiphytic orchid of montane cloud forest through the analysis of spatial patterns of host trees and the orchid, in a more specific scale, with association studies and molecular methods, including AFLPs for orchid population genetic structure and the sequencing of the ITS region for associated mycorrhizal fungi. The aim of this thesis is to understand the factors that condition the presence of epiphytic orchids in the remnants of montane cloud forest and to assess the implications for the conservation and preservation of their habitats and the persistence of the orchid populations. The study was carried out in a fragment of montane cloud forest of secondary succession on the eastern slope of Cordillera Real in the Andes of southern Ecuador, located at 2250 m a.s.l. characterized by a steep slope, mean annual temperature of 20.8°C and annual precipitation of 2193 mm. All trees with DBH > 1 cm were mapped, characterized and identified. All E. rhopalostele individuals present were counted, marked, characterized and mapped. Leaf samples of all orchid individuals were collected for DNA analysis. Root samples of flowering E. rhopalostele individuals were collected for phylogenetic analysis of mycorrhizae, one per phorophyte. Spatial point pattern analysis based on Ripley`s K function and nearest neighbor function was used for trees, phorophytes and orchid population. We observed that spatial distribution of trees and phorophytes is not random, as it adjusts to a Poisson cluster process. This suggests a limitation for seed dispersal in the study fragment that is affecting orchid establishment. Furthermore, the small-scale spatial pattern of E. rhopalostele evidences a clustering that suggests a microsite preference for orchid establishment with a dispersal kernel of 0.4 m. Microsite features such as types of trees (dead trees or Clusia alata), shade tolerance trees, rough bark, distribution in the first meters suggest a tendency to prefer the understory for their establishment. Regarding plant-plant interaction a spatial segregation between adults and juveniles was present suggesting competition for limited resources conditioned for a microsite preference. Analysis of genetic structure of E. rhopalostele population through Structure and PCoA shows two genetic groups coexisting in this fragment and in the same phorophyte, possibly as a result of hybridization between sympatric species of Epidendrum. Our results of spatial autocorrelation analysis develop in GenAlex confirm a small-scale spatial-genetic structure within the genetic groups that is compatible with a short-distance dispersal mechanism caused by gravity or water run-off, instead of the long-distance seed dispersal promoted by wind generally attributed to orchids. For mycobionts identification ITS1-5.8S-ITS2 rDNA region was amplified. Phylogenetic analysis was performed with neighborjoining, Bayesian likelihood and maximum-likelihood for 47 sequences yielded two Tulasnella clades. This orchid establishes mycorrhizal associations with at least two different Tulasnella species. In some cases both fungi clades were present in same root, suggesting no limitation in fungal distribution. Concerning the implications for in situ conservation resulting from this work, the preservation of all forest fragment and their interactions (pollinators, mycorrhiza) is recommended to conserve the genetic diversity of this species. If a reintroduction were necessary, distances between individuals in each phorophyte within a range of 0.4 m, are recommended. To promote recruitment and regeneration of E. rhopalostele it is recommended that phorophytes correspond to dead or fallen trees or species, such as Clusia alata. Trees that have rough bark and are shade tolerant are also recommended. Furthermore, regarding vertical distribution, it is also convenient that orchids are located in the first meter (in understory, area with less light). In conclusion, limitation on seed dispersal, microsite characteristics, plant-plant interactions or interaction with cogeneric sympatric species and mycorrhizal preferences conditioned the presence of this epiphytic orchid in this fragment forest.