25 resultados para HÍBRIDO
Resumo:
El objetivo fundamental de la presente tesis doctoral es el diseño de una arquitectura cognitiva, que pueda ser empleada para la navegación autónoma de vehículos aéreos no tripulados conocidos como UAV (Unmanned Aerial Vehicle). Dicha arquitectura cognitiva se apoya en la definición de una librería de comportamientos, que aportarán la inteligencia necesaria al UAV para alcanzar los objetivos establecidos, en base a la información sensorial recopilada del entorno de operación. La navegación autónoma del UAV se apoyará en la utilización de un mapa topológico visual, consistente en la definición de un grafo que engloba mediante nodos los diferentes landmarks ubicados en el entorno, y que le servirán al UAV de guía para alcanzar su objetivo. Los arcos establecidos entre los nodos del mapa topológico, le proporcionarán de la información necesaria para establecer el rumbo más adecuado para alcanzar el siguiente landmark a visitar, siguiendo siempre una secuencia lógica de navegación, basada en la distancia entre un determinado landmark con respecto al objetivo final ó landmark destino. La arquitectura define un mecanismo híbrido de control, el cual puede conmutar entre dos diferentes modos de navegación. El primero es el denominado como Search Mode, el cual se activará cuando el UAV se encuentre en un estado desconocido dentro del entorno, para lo cual hará uso de cálculos basado en la entropía para la búsqueda de posibles landmarks. Se empleará como estrategia novedosa la idea de que la entropía de una imagen tiene una correlación directa con respecto a la probabilidad de que dicha imagen contenga uno ó varios landmarks. De esta forma, la estrategia para la búsqueda de nuevos landmarks en el entorno, se basará en un proceso continuo de maximización de la entropía. Si por el contrario el UAV identifica la existencia de un posible landmark entre los definidos en su mapa topológico, se considerará que está sobre un estado conocido, por lo que se conmutará al segundo modo de navegación denominado como Homing Mode, el cual se encargará de calcular señales de control para la aproximación del UAV al landmark localizado. Éste último modo implementa un control dual basado en dos tipos de controladores (FeedForward/FeedBack) que mediante su combinación, aportarán al UAV señales de control cada vez más óptimas, además de llevar a cabo un entrenamiento continuo y en tiempo real. Para cumplir con los requisitos de ejecución y aprendizaje en tiempo real de la arquitectura, se han tomado como principales referencias dos paradigmas empleados en diferentes estudios dentro del área de la robótica, como son el paradigma de robots de desarrollo (developmental robots) basado en un aprendizaje del robot en tiempo real y de forma adaptativa con su entorno, así como del paradigma de modelos internos (internal models) basado en los resultados obtenidos a partir de estudios neurocientíficos del cerebelo humano; dicho modelo interno sirve de base para la construcción del control dual de la arquitectura. Se presentarán los detalles de diseño e implementación de los diferentes módulos que componen la arquitectura cognitiva híbrida, y posteriormente, los diferentes resultados obtenidos a partir de las pruebas experimentales ejecutadas, empleando como UAV la plataforma robótica aérea de AR.Drone. Como resultado final se ha obtenido una validación completa de la arquitectura cognitiva híbrida objetivo de la tesis, cumplimento con la totalidad de requisitos especificados y garantizando su viabilidad como aplicación operativa en el mundo real. Finalmente, se muestran las distintas conclusiones a las cuales se ha llegado a partir de los resultados experimentales, y se presentan las diferentes líneas de investigación futuras que podrán ser ejecutadas.
Resumo:
El requerimiento de proveer alta frecuencia de datos en los modernos sistema de comunicación inalámbricos resulta en complejas señales moduladas de radio-frequencia (RF) con un gran ancho de banda y alto ratio pico-promedio (PAPR). Para garantizar la linealidad del comportamiento, los amplificadores lineales de potencia comunes funcionan típicamente entre 4 y 10 dB de back-o_ desde la máxima potencia de salida, ocasionando una baja eficiencia del sistema. La eliminación y restauración de la evolvente (EER) y el seguimiento de la evolvente (ET) son dos prometedoras técnicas para resolver el problema de la eficiencia. Tanto en EER como en ET, es complicado diseñar un amplificador de potencia que sea eficiente para señales de RF de alto ancho de banda y alto PAPR. Una propuesta común para los amplificadores de potencia es incluir un convertidor de potencia de muy alta eficiencia operando a frecuencias más altas que el ancho de banda de la señal RF. En este caso, la potencia perdida del convertidor ocasionado por la alta frecuencia desaconseja su práctica cuando el ancho de banda es muy alto. La solución a este problema es el enfoque de esta disertación que presenta dos arquitecturas de amplificador evolvente: convertidor híbrido-serie con una técnica de evolvente lenta y un convertidor multinivel basado en un convertidor reductor multifase con control de tiempo mínimo. En la primera arquitectura, una topología híbrida está compuesta de una convertidor reductor conmutado y un regulador lineal en serie que trabajan juntos para ajustar la tensión de salida para seguir a la evolvente con precisión. Un algoritmo de generación de una evolvente lenta crea una forma de onda con una pendiente limitada que es menor que la pendiente máxima de la evolvente original. La salida del convertidor reductor sigue esa forma de onda en vez de la evolvente original usando una menor frecuencia de conmutación, porque la forma de onda no sólo tiene una pendiente reducida sino también un menor ancho de banda. De esta forma, el regulador lineal se usa para filtrar la forma de onda tiene una pérdida de potencia adicional. Dependiendo de cuánto se puede reducir la pendiente de la evolvente para producir la forma de onda, existe un trade-off entre la pérdida de potencia del convertidor reductor relacionada con la frecuencia de conmutación y el regulador lineal. El punto óptimo referido a la menor pérdida de potencia total del amplificador de evolvente es capaz de identificarse con la ayuda de modelo preciso de pérdidas que es una combinación de modelos comportamentales y analíticos de pérdidas. Además, se analiza el efecto en la respuesta del filtro de salida del convertidor reductor. Un filtro de dampeo paralelo extra es necesario para eliminar la oscilación resonante del filtro de salida porque el convertidor reductor opera en lazo abierto. La segunda arquitectura es un amplificador de evolvente de seguimiento de tensión multinivel. Al contrario que los convertidores que usan multi-fuentes, un convertidor reductor multifase se emplea para generar la tensión multinivel. En régimen permanente, el convertidor reductor opera en puntos del ciclo de trabajo con cancelación completa del rizado. El número de niveles de tensión es igual al número de fases de acuerdo a las características del entrelazamiento del convertidor reductor. En la transición, un control de tiempo mínimo (MTC) para convertidores multifase es novedosamente propuesto y desarrollado para cambiar la tensión de salida del convertidor reductor entre diferentes niveles. A diferencia de controles convencionales de tiempo mínimo para convertidores multifase con inductancia equivalente, el propuesto MTC considera el rizado de corriente por cada fase basado en un desfase fijo que resulta en diferentes esquemas de control entre las fases. La ventaja de este control es que todas las corrientes vuelven a su fase en régimen permanente después de la transición para que la siguiente transición pueda empezar muy pronto, lo que es muy favorable para la aplicación de seguimiento de tensión multinivel. Además, el control es independiente de la carga y no es afectado por corrientes de fase desbalanceadas. Al igual que en la primera arquitectura, hay una etapa lineal con la misma función, conectada en serie con el convertidor reductor multifase. Dado que tanto el régimen permanente como el estado de transición del convertidor no están fuertemente relacionados con la frecuencia de conmutación, la frecuencia de conmutación puede ser reducida para el alto ancho de banda de la evolvente, la cual es la principal consideración de esta arquitectura. La optimización de la segunda arquitectura para más alto anchos de banda de la evolvente es presentada incluyendo el diseño del filtro de salida, la frecuencia de conmutación y el número de fases. El área de diseño del filtro está restringido por la transición rápida y el mínimo pulso del hardware. La rápida transición necesita un filtro pequeño pero la limitación del pulso mínimo del hardware lleva el diseño en el sentido contrario. La frecuencia de conmutación del convertidor afecta principalmente a la limitación del mínimo pulso y a las pérdidas de potencia. Con una menor frecuencia de conmutación, el ancho de pulso en la transición es más pequeño. El número de fases relativo a la aplicación específica puede ser optimizado en términos de la eficiencia global. Otro aspecto de la optimización es mejorar la estrategia de control. La transición permite seguir algunas partes de la evolvente que son más rápidas de lo que el hardware puede soportar al precio de complejidad. El nuevo método de sincronización de la transición incrementa la frecuencia de la transición, permitiendo que la tensión multinivel esté más cerca de la evolvente. Ambas estrategias permiten que el convertidor pueda seguir una evolvente con un ancho de banda más alto que la limitación de la etapa de potencia. El modelo de pérdidas del amplificador de evolvente se ha detallado y validado mediante medidas. El mecanismo de pérdidas de potencia del convertidor reductor tiene que incluir las transiciones en tiempo real, lo cual es diferente del clásico modelos de pérdidas de un convertidor reductor síncrono. Este modelo estima la eficiencia del sistema y juega un papel muy importante en el proceso de optimización. Finalmente, la segunda arquitectura del amplificador de evolvente se integra con el amplificador de clase F. La medida del sistema EER prueba el ahorro de energía con el amplificador de evolvente propuesto sin perjudicar la linealidad del sistema. ABSTRACT The requirement of delivering high data rates in modern wireless communication systems results in complex modulated RF signals with wide bandwidth and high peak-to-average ratio (PAPR). In order to guarantee the linearity performance, the conventional linear power amplifiers typically work at 4 to 10 dB back-off from the maximum output power, leading to low system efficiency. The envelope elimination and restoration (EER) and envelope tracking (ET) are two promising techniques to overcome the efficiency problem. In both EER and ET, it is challenging to design efficient envelope amplifier for wide bandwidth and high PAPR RF signals. An usual approach for envelope amplifier includes a high-efficiency switching power converter operating at a frequency higher than the RF signal's bandwidth. In this case, the power loss of converter caused by high switching operation becomes unbearable for system efficiency when signal bandwidth is very wide. The solution of this problem is the focus of this dissertation that presents two architectures of envelope amplifier: a hybrid series converter with slow-envelope technique and a multilevel converter based on a multiphase buck converter with the minimum time control. In the first architecture, a hybrid topology is composed of a switched buck converter and a linear regulator in series that work together to adjust the output voltage to track the envelope with accuracy. A slow envelope generation algorithm yields a waveform with limited slew rate that is lower than the maximum slew rate of the original envelope. The buck converter's output follows this waveform instead of the original envelope using lower switching frequency, because the waveform has not only reduced slew rate but also reduced bandwidth. In this way, the linear regulator used to filter the waveform has additional power loss. Depending on how much reduction of the slew rate of envelope in order to obtain that waveform, there is a trade-off between the power loss of buck converter related to the switching frequency and the power loss of linear regulator. The optimal point referring to the lowest total power loss of this envelope amplifier is identified with the help of a precise power loss model that is a combination of behavioral and analytic loss model. In addition, the output filter's effect on the response is analyzed. An extra parallel damping filter is needed to eliminate the resonant oscillation of output filter L and C, because the buck converter operates in open loop. The second architecture is a multilevel voltage tracking envelope amplifier. Unlike the converters using multi-sources, a multiphase buck converter is employed to generate the multilevel voltage. In the steady state, the buck converter operates at complete ripple cancellation points of duty cycle. The number of the voltage levels is equal to the number of phases according the characteristics of interleaved buck converter. In the transition, a minimum time control (MTC) for multiphase converter is originally proposed and developed for changing the output voltage of buck converter between different levels. As opposed to conventional minimum time control for multiphase converter with equivalent inductance, the proposed MTC considers the current ripple of each phase based on the fixed phase shift resulting in different control schemes among the phases. The advantage of this control is that all the phase current return to the steady state after the transition so that the next transition can be triggered very soon, which is very favorable for the application of multilevel voltage tracking. Besides, the control is independent on the load condition and not affected by the unbalance of phase current. Like the first architecture, there is also a linear stage with the same function, connected in series with the multiphase buck converter. Since both steady state and transition state of the converter are not strongly related to the switching frequency, it can be reduced for wide bandwidth envelope which is the main consideration of this architecture. The optimization of the second architecture for wider bandwidth envelope is presented including the output filter design, switching frequency and the number of phases. The filter design area is restrained by fast transition and the minimum pulse of hardware. The fast transition needs small filter but the minimum pulse of hardware limitation pushes the filter in opposite way. The converter switching frequency mainly affects the minimum pulse limitation and the power loss. With lower switching frequency, the pulse width in the transition is smaller. The number of phases related to specific application can be optimized in terms of overall efficiency. Another aspect of optimization is improving control strategy. Transition shift allows tracking some parts of envelope that are faster than the hardware can support at the price of complexity. The new transition synchronization method increases the frequency of transition, allowing the multilevel voltage to be closer to the envelope. Both control strategies push the converter to track wider bandwidth envelope than the limitation of power stage. The power loss model of envelope amplifier is detailed and validated by measurements. The power loss mechanism of buck converter has to include the transitions in real time operation, which is different from classical power loss model of synchronous buck converter. This model estimates the system efficiency and play a very important role in optimization process. Finally, the second envelope amplifier architecture is integrated with a Class F amplifier. EER system measurement proves the power saving with the proposed envelope amplifier without disrupting the linearity performance.
Resumo:
Se plantea aquí el estudio de la Casa Huarte (1966) como un experimento doméstico -así lo concibió el matrimonio Huarte desde la libertad de acción y la entrega al talento de los arquitectos- que sintetizó los principios de los proyectos de la primera etapa de la obra de José Antonio Corrales (1921-2010) y Ramón Vázquez Molezún (1922-1993): paisaje construido, topografía modificada, basamento pesado y arraigado, cubierta ligera flotante y abstracción compositiva. La considerada vivienda experimental del siglo XX estaba asociada a estructuras familiares reducidas, como mucho formadas por un matrimonio con dos hijos. La Casa Huarte, sin embargo, pertenece a un grupo no reconocido de viviendas experimentales de gran formato, que aportaban -en entornos de vida socio-familiar no convencionales- una complejidad funcional, espacial y de relaciones interpersonales que la vivienda mínima no tenía. La Casa Huarte supuso un punto de inflexión en la carrera de Corrales y Molezún, culminando una primera etapa donde se concentraron sus obras más destacadas: Instituto en Herrera de Pisuerga (1956), Residencia de Miraflores (1958) y Pabellón de Bruselas, en sus versiones belga (1958) y española (1959). El proyecto de la Casa Huarte adelantó estrategias que aplicarían en proyectos posteriores -dinamismo del plano horizontal, visuales diagonales, entrada tangencial- y culminó la evolución de un tipo de vivienda que Corrales y Molezún comenzaron a investigar diez años antes. Entre 1956 y 1961 proyectaron cuatro viviendas (Casa Remírez Escudero, Casa Álvarez Mon, Casa Gómez Acebo y Casa Cela) que anticiparon soluciones y situaciones presentes y perfeccionadas en la Casa Huarte. Corrales aseguraba que si la vida es contradictoria la arquitectura también debería serlo. La Casa Huarte es compleja y contradictoria funcional y espacialmente, homogeneizada por una imagen exterior rotunda y atractiva de juegos de volúmenes maclados. El proyecto se muestra así de contundente detrás de habilidosas maniobras tectónicas que ocultan las muchas complejidades y contradicciones aparentemente inapreciables. Estas maniobras confunden la imagen que de la casa se tiene. Debajo de su manto cerámico de reminiscencias vernáculas - híbrido de casa castellana y arquitectura nórdica- se esconde una obra de arquitectura avanzada tecnológicamente. La tesis se desarrolla en cuatro apartados denominados procesos, por lo que tienen de secuencia en el desarrollo de la investigación. Estos procesos son: proceso descriptivo, proceso analítico, proceso interpretativo y proceso poético. Después del necesario e introductorio proceso descriptivo, el cuerpo central de la tesis -que contiene los procesos analítico, interpretativo y poético- sigue un guión marcado por la defensa de la categoría experimental de la Casa Huarte. Se han tratado los conceptos más característicos de la vivienda, desde los más generales a los más específicos divididos en cuatro grupos: Composición, volumen y espacio; El patio como lugar; El jardín: horizonte construido; Domesticidad del mundo interior; y Euritmia: materia y espíritu Molezún aseguraba que para entender una obra de arquitectura había que dibujarla. La Casa Huarte ha sido redibujada en sus tres etapas fundamentales: el proyecto de ejecución (marzo 1965), la casa acabada (noviembre 1966) y el estado actual (2012). El estudio y análisis se centra en la casa construida, por ser la realidad tridimensional en que el proyecto se nos manifiesta. La documentación gráfica del estado actual de la vivienda es inédita y ha sido posible gracias a múltiples inspecciones de la Casa Huarte en visitas facilitadas por las hijas de Jesús Huarte, actuales propietarias de la vivienda. Esta documentación nos permite constatar las alteraciones sobre la obra construida y conocer que modificaciones serían necesarias para recuperar el estado original de la casa. La Casa Huarte es una obra singular, una de las cinco viviendas unifamiliares pertenecientes a la Arquitectura del Movimiento Moderno en España y Portugal de mayor interés registrada por el Docomomo Internacional. Su futuro es incierto, se encuentra deshabitada y en venta. La familia Huarte ha cumplido con creces la misión de conservar su patrimonio. Es pertinente reivindicar su vigencia como obra de referencia de la arquitectura española del siglo XX, y, de esa manera, evitar que caiga en el olvido y el abandono. ABSTRACT The Huarte House (1966) will be analysed as a domestic experiment – that is how the Huarte’s conceived it, putting their faith in the architects – that synthesized the principles from the projects of the first phase of the work of Jose Antonio Corrales (1921-2010) and Ramón Vázquez Molezún (1922-1993): built landscape, modified topography, heavy and rooted base, light, floating roof and abstraction in composition. The experimental house of the 20th century was associated with small nuclear families of at the most a couple and two children. The Huarte House belongs to a group of non-recognised experimental houses of a larger size -and more unconventional familial settings- that lent themselves to greater functional, spatial and interpersonal complexity than their smaller counterparts. The Huarte House represented a turning point in the careers of Corrales and Molezún, capping a first phase that includes their most prominent work: the Institute at Herrera de Pisuerga (1965), the Residence at Miraflores (1958) and the Brussels Pavilion, in its Belgian (1958) and Spanish (1959) version. The project for the Huarte house anticipated strategies which they would apply to later projects: dynamism of the horizontal plane, diagonal visuals, and tangential entrances. It was also the culmination of the evolution of a type of house that Corrales and Molezún had started to investigate ten years earlier. Between 1956 and 1961 they designed four houses (Ramírez Escudero House, Álvarez Mon House, Gómez Acebo House and Cela House) that anticipated the solutions applied and perfected in the Huarte House. Corrales believed that if life was contradictory architecture should be so too. The Huarte House is complex and contradictory. Corrales and Molezún homogenised the project under a bold and attractive image of intersecting volumes. The project appears emphatic thanks to skilful tectonic manoeuvres that conceal the many complexities and contradictions so that they become imperceptible. These manoeuvres confound the image of the house. Under its ceramic blanket of vernacular reminiscences (a mixture of Castilian house and Nordic architecture) lies a technologically advanced piece of architecture. The thesis is organised in four chapters named ‘processes’ in reference to their sequence in the development of the research. These processes are: descriptive process, analytic process, interpretative process and poetic process. After the necessary and introductory descriptive process, the main body of the thesis, which encompasses the analytical, interpretative and poetic processes, develops the argument for incorporating the Huarte House into the experimental category. The thesis addresses the characteristic concepts of a house, from the general to the more specific, divided in four groups: composition, volume and space; the patio: architecture and landscape; the garden: building the horizon and eurythmy: spirit and matter. Molezún was convinced that to get to know a work of architecture it was necessary to draw it. The Huarte House is redrawn in its three main phases: the executive project (march 1965), the finished house (november 1966) and its actual state (2012). The study and analysis centers on the built house, as the actual tri-dimensional manifestation of the project. The graphic documentation of the present state of the house has never been published before and has been made possible by numerous visits to the House facilitated by Jesus Huarte’s daughters who are the current owners. This documentation allows us to determine any alterations of the constructed work and derive the necessary modifications to bring the house back to its original state. The Huarte House is a unique work, one of five single family homes registered by the International Docomomo. Its future is uncertain. It is currently uninhabited and up for sale. The Huarte family has more than delivered on the mission to safeguard its patrimony. It is important to defend its place as a key work of Spanish architecture of the 20th century and so avoid it being forgotten and abandoned.
Resumo:
En el presente trabajo se ha llevado a cabo un estudio de la biodiversidad del frijol común (Phaseolus vulgaris L.) en Honduras, que es el segundo de los cultivos de granos básicos en importancia. Dicho estudio se ha realizado mediante una caracterización agromorfológica, molecular y ecogeográfica en una selección de 300 accesiones conservadas en el banco de germoplasma ubicado en la Escuela Agrícola Panamericana (EAP) El Zamorano, y que se colectaron en 13 departamentos del país durante el periodo de 1990 a 1994. Estas accesiones fueron colectadas cuatro años antes del acontecimiento del huracán Mitch, el cual a su paso afectó al 96% del área total cultivable en su momento, lo cual nos hace considerar que la biodiversidad de razas locales (landraces) de frijol común existentes in situ fueron severamente afectadas. Los trabajos dirigidos a analizar la biodiversidad de razas locales de frijol común en Honduras son escasos, y este trabajo se constituye como el primero que incluye una amplia muestra a ser estudiada a través de una caracterización en tres aspectos complementarios (agromorfológico, molecular y ecogeográfico). Se evaluaron 32 caracteres agromorfológicos, 12 cuantitativos y 20 cualitativos, en distintas partes de la planta. Se establecieron las correlaciones entre los caracteres agromorfológicos y se elaboró un dendrograma con los mismos, en el que se formaron ocho grupos, en parte relacionados principalmente con los colores y tamaños de la semilla. Mediante el análisis de componentes principales se estudiaron los caracteres de más peso en cada uno de los tres primeros componentes. Asimismo, se estudiaron las correlaciones entre caracteres, siendo las más altas la longitud y anchura de la hoja, días a madurez y a cosecha y longitud y peso de semilla. Por otra parte, el mapa de diversidad agromorfológica mostró la existencia de tres zonas con mayor diversidad: en el oeste (en los departamentos de Santa Bárbara, Lempira y Copán), en el centro-norte (en los departamentos de Francisco Morazán, Yoro y Atlántida) y en el sur (en el departamento de El Paraíso y al sur de Francisco Morazán). Para la caracterización molecular partimos de 12 marcadores de tipo microsatélite, evaluados en 54 accesiones, que fueron elegidas por constituir grupos que compartían un mismo nombre local. Finalmente, se seleccionaron los cuatro microsatélites (BM53, GATS91, BM211 y PV-AT007) que resultaron ser más polimórficos e informativos para el análisis de las 300 accesiones, con los que se detectaron un total de 119 alelos (21 de ellos únicos o privados de accesión) y 256 patrones alélicos diferentes. Para estudiar la estructura y relaciones genéticas en las 300 accesiones se incluyeron en el análisis tres controles o accesiones de referencia, pertenecientes dos de ellas al acervo genético Andino y una al Mesoamericano. En el dendrograma se obtuvieron 25 grupos de accesiones con idénticas combinaciones de alelos. Al comparar este dendrograma con el de caracteres agromorfológicos se observaron diversos grupos con marcada similitud en ambos. Un total de 118 accesiones resultaron ser homogéneas y homocigóticas, a la vez que representativas del grupo de 300 accesiones, por lo que se analizaron con más detalle. El análisis de la estructura genética definió la formación de dos grupos, supuestamente relacionados con los acervos genéticos Andino (48) y Mesoamericano (61), y un reducido número de accesiones (9) que podrían tener un origen híbrido, debido a la existencia de un cierto grado de introgresión entre ambos acervos. La diferenciación genética entre ambos grupos fue del 13,3%. Asimismo, 66 de los 82 alelos detectados fueron privados de grupo, 30 del supuesto grupo Andino y 36 del Mesoamericano. Con relación al mapa de diversidad molecular, presentó una distribución bastante similar al de la diversidad agromorfológica, detectándose también las zonas de mayor diversidad genética en el oeste (en los departamentos de Lempira y Santa Bárbara), en el centro-norte (en los departamentos de Yoro y Atlántida) y en el sur (en el departamento de El Paraíso y al sur de Francisco Morazán). Para la caracterización ecogeográfica se seleccionaron variables de tipo bioclimático (2), geofísico (2) y edáfico (8), y mediante el método de agrupamiento de partición alrededor de los medoides, la combinación de los grupos con cada uno de los tres tipos de variables definió un total de 32 categorías ecogeográficas en el país, detectándose accesiones en 16 de ellas. La distribución de las accesiones previsiblemente esté relacionada con la existencia de condiciones más favorables al cultivo de frijol. En el mapa de diversidad ecogeográfica, nuevamente, se observaron varias zonas con alta diversidad tanto en el oeste, como en el centro-norte y en el sur del país. Como consecuencia del estudio realizado, se concluyó la existencia de una marcada biodiversidad en el material analizado, desde el punto de vista tanto agromorfológico como molecular. Por lo que resulta de gran importancia plantear la conservación de este patrimonio genético tanto ex situ, en bancos de germoplasma, como on farm, en las propias explotaciones de los agricultores del país, siempre que sea posible. ABSTRACT In the present work we have carried out a study of the biodiversity of the common bean (Phaseolus vulgaris L) in Honduras, which is the second of the basic grain crops in importance. This study was conducted through agro-morphological, molecular and ecogeographical characterization of a selection of 300 accessions conserved in the genebank located in the ‘Escuela Agrícola Panamericana (EAP) El Zamorano’ that were collected in 13 departments of the country during the 1990 to 1994 period. These accessions were collected four years before the occurrence of Mitch hurricane, which affected 96% of the total cultivable area at the time, which makes us to consider that the biodiversity of local landraces of common bean existing in situ were severely affected. The work aimed to analyze the biodiversity of local races of common bean in Honduras are scarce, and this work constitutes the first to include a large sample to be studied through a characterization on three complementary aspects (agromorphological, molecular and ecogeographical). Thirty two agromorphological characters, 12 quantitative and 20 qualitative, in various parts of the plant were evaluated. Correlations between agromorphological characters were established and a dendrogram with them was constructed, in which eight groups were formed, in part mainly related to the colors and sizes of the seeds. By principal component analysis the characters with more weight in each of the first three components were studied. Also, correlations between characters were studied, the highest of them being length and leaf width, days to maturity and harvest, and seed length and weight. Moreover, the map of agromorphological diversity showed the existence of three areas with more diversity: the west (departments of Santa Barbara, Copan and Lempira), the center-north (departments of Francisco Morazán, Yoro and Atlántida) and the south (department of El Paraiso and south of Francisco Morazán). For molecular characterization we started with 12 microsatellite markers, evaluated in 54 accessions, which were chosen because they formed groups that shared the same local name. Finally, four microsatellites (BM53, GATS91, BM211 and PV-AT007) were selected for the analysis of 300 accessions, since they were the most polymorphic and informative. They gave a total of 119 alleles (21 of them unique or private for the accession) and 256 different allelic patterns. To study the structure and genetic relationships in the 300 accessions, three controls or accessions of reference were included in the analysis: two of them belonging to the Andean gene pool and one to the Mesoamerican. In the dendrogram, 25 accession groups with identical allele combinations were obtained. Comparing this dendrogram to the obtained with agromorphological characters, several groups with marked similarity in both were observed. A total of 118 accessions were homozygous and homogeneous, while representing the group of 300 accessions, therefore they were analyzed in more detail. The analysis of the genetic structure defined the formation of two groups, supposedly related to the Andean (48) and the Mesoamerican (61) gene pools, and a small number of accessions (9) which may have a hybrid origin, due to the existence of some degree of introgression between both gene pools. Genetic differentiation between both groups was 13.3%. Also, 66 of the 82 detected alleles were private or unique for the group, 30 of the supposed Andean group and 36 of the Mesoamerican. With relation to the map of molecular diversity, it showed a quite similar distribution to the agromorphological, also detecting the areas of greatest genetic diversity in the west (departments of Lempira and Santa Bárbara), in the center-north (departments Atlántida and Yoro) and in the south (departments of El Paraíso and south of Francisco Morazán). For the ecogeographical characterization, bioclimatic (2), geophysical (2) and edaphic (8) variables were selected, and by the method of clustering partition around the medoids, the combination of the groups to each of the three types of variables defined a total of 32 ecogeographical categories in the country, having accessions in 16 of them. The distribution of accessions is likely related to the existence of more favorable conditions for the cultivation of beans. The map of ecogeographical diversity, again, several areas with high diversity both in the west and in the center-north and in the south of the country were observed. As a result of study, the existence of marked biodiversity in the analyzed material was concluded, both from the agromorphological and from the molecular point of view. Consequently it is very important to propose the conservation of this genetic heritage both ex situ, in genebanks, as on farm, in the holdings of the farmers of the country, whenever possible.
Resumo:
Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.
Resumo:
El modelo energético actual está marcado por el predominio de los combustibles fósiles y el intento de introducir energías renovables para evolucionar hacia un modelo más sostenible. Entre las distintas alternativas, las plantas híbridas solar-fósil parecen una solución interesante ya que combinan las ventajas de las dos fuentes de energía. Hasta el momento, las líneas de investigación y análisis de plantas híbridas se ha centrado en el acoplamiento de tecnología solar a plantas o ciclos de potencia operativos. Este enfoque, tiene sentido en un marco como el actual, donde las plantas híbridas operativas no disponen de sistema de almacenamiento y donde se intenta reducir los costes, acoplando tecnología solar a ciclos de potencia existentes. Sin embargo, resta generalidad al análisis de la hibridación, imponiendo el diseño de la planta. Resulta interesante por tanto, realizar estudios que analicen la hibridación desde un punto de vista más general y que permitan a la propia planta, optimizar su diseño. Este estudio pretende aportar conocimiento en esta línea, analizando distintas posibilidades de diseño de futuras plantas híbridas operando en modo Fuel saving mode (FSM). Para ello, se ha realizado un estudio general y sistemático de distintas topologías de plantas híbridas, las cuales consideran como ciclo de potencia el ciclo Brayton y el ciclo Rankine. Para aportar la máxima generalidad posible, se han considerado un amplio abanico de condiciones operativas en ambos bloques. Como aporte al resto de estudios, éste estudio analiza la hibridación desde el punto de vista del bloque termosolar lo que indirectamente permite analizar el funcionamiento de la planta en modo híbrido. Para ello, se han identificado dos casos de diseño: 1. Caso A: Diseño de planta híbrida a partir de una planta o bloque convencional 2. Caso B: Diseño de planta híbrida a partir de una tecnología solar determinada La distinción entre casos de diseño, permite por un lado, establecer el potencial de la hibridación en las dos situaciones que se pueden plantear en la práctica estableciendo además, una base comparativa de resultados y por otro lado, identificar las condiciones de funcionamiento óptimas en las que diseñar la planta. Como conclusión principal, el estudio realizado demuestra que las condiciones de funcionamiento que optimizan la planta híbrida pueden diferir dependiendo del caso de diseño que se considere, lo que implica que el funcionamiento de la planta no tiene porqué estar optimizado simultáneamente para sus dos modos de funcionamiento (modo fósil y modo híbrido). Por tanto, se considera que el diseño final de la planta híbrida debería estar en función del tiempo en que la planta opera en cada uno de los modos, es decir, del Solar Capacity Factor (SCF). Además, el estudio realizado identifica dos situaciones concretas para las cuales la hibridación estaría desaconsejada desde un punto de vista energético. Aunque los resultados obtenidos son sólo una primera aproximación del diseño final de la planta híbrida, proporcionan unas directrices a partir de la cuales iniciar su desarrollo. Esto es especialmente interesante de cara a políticas estratégicas, donde en función de los objetivos vigentes o que se puedan plantear, se puede modificar el diseño de la planta en su estructura básica.
Resumo:
El objetivo principal alrededor del cual se desenvuelve este proyecto es el desarrollo de un sistema de reconocimiento facial. Entre sus objetivos específicos se encuentran: realizar una primera aproximación sobre las técnicas de reconocimiento facial existentes en la actualidad, elegir una aplicación donde pueda ser útil el reconocimiento facial, diseñar y desarrollar un programa en MATLAB que lleve a cabo la función de reconocimiento facial, y evaluar el funcionamiento del sistema desarrollado. Este documento se encuentra dividido en cuatro partes: INTRODUCCIÓN, MARCO TEÓRICO, IMPLEMENTACIÓN, y RESULTADOS, CONCLUSIONES Y LÍNEAS FUTURAS. En la primera parte, se hace una introducción relativa a la actualidad del reconocimiento facial y se comenta brevemente sobre las técnicas existentes para desarrollar un sistema biométrico de este tipo. En ella se justifican también aquellas técnicas que acabaron formando parte de la implementación. En la segunda parte, el marco teórico, se explica la estructura general que tiene un sistema de reconocimiento biométrico, así como sus modos de funcionamiento, y las tasas de error utilizadas para evaluar y comparar su rendimiento. Así mismo, se lleva a cabo una descripción más profunda sobre los conceptos y métodos utilizados para efectuar la detección y reconocimiento facial en la tercera parte del proyecto. La tercera parte abarca una descripción detallada de la solución propuesta. En ella se explica el diseño, características y aplicación de la implementación; que trata de un programa elaborado en MATLAB con interfaz gráfica, y que utiliza cuatro sistemas de reconocimiento facial, basados cada uno en diferentes técnicas: Análisis por componentes principales, análisis lineal discriminante, wavelets de Gabor, y emparejamiento de grafos elásticos. El programa ofrece además la capacidad de crear y editar una propia base de datos con etiquetas, dándole aplicación directa sobre el tema que se trata. Se proponen además una serie de características con el objetivo de ampliar y mejorar las funcionalidades del programa diseñado. Dentro de dichas características destaca la propuesta de un modo de verificación híbrido aplicable a cualquier rama de la biometría y un programa de evaluación capaz de medir, graficar, y comparar las configuraciones de cada uno de los sistemas de reconocimiento implementados. Otra característica destacable es la herramienta programada para la creación de grafos personalizados y generación de modelos, aplicable a reconocimiento de objetos en general. En la cuarta y última parte, se presentan al principio los resultados obtenidos. En ellos se contemplan y analizan las comparaciones entre las distintas configuraciones de los sistemas de reconocimiento implementados para diferentes bases de datos (una de ellas formada con imágenes con condiciones de adquisición no controladas). También se miden las tasas de error del modo de verificación híbrido propuesto. Finalmente, se extraen conclusiones, y se proponen líneas futuras de investigación. ABSTRACT The main goal of this project is to develop a facial recognition system. To meet this end, it was necessary to accomplish a series of specific objectives, which were: researching on the existing face recognition technics nowadays, choosing an application where face recognition might be useful, design and develop a face recognition system using MATLAB, and measure the performance of the implemented system. This document is divided into four parts: INTRODUCTION, THEORTICAL FRAMEWORK, IMPLEMENTATION, and RESULTS, CONCLUSSIONS AND FUTURE RESEARCH STUDIES. In the first part, an introduction is made in relation to facial recognition nowadays, and the techniques used to develop a biometric system of this kind. Furthermore, the techniques chosen to be part of the implementation are justified. In the second part, the general structure and the two basic modes of a biometric system are explained. The error rates used to evaluate and compare the performance of a biometric system are explained as well. Moreover, a description of the concepts and methods used to detect and recognize faces in the third part is made. The design, characteristics, and applications of the systems put into practice are explained in the third part. The implementation consists in developing a program with graphical user interface made in MATLAB. This program uses four face recognition systems, each of them based on a different technique: Principal Component Analysis (PCA), Fisher’s Linear Discriminant (FLD), Gabor wavelets, and Elastic Graph Matching (EGM). In addition, with this implementation it is possible to create and edit one´s tagged database, giving it a direct application. Also, a group of characteristics are proposed to enhance the functionalities of the program designed. Among these characteristics, three of them should be emphasized in this summary: A proposal of an hybrid verification mode of a biometric system; and an evaluation program capable of measuring, plotting curves, and comparing different configurations of each implemented recognition system; and a tool programmed to create personalized graphs and models (tagged graph associated to an image of a person), which can be used generally in object recognition. In the fourth and last part of the project, the results of the comparisons between different configurations of the systems implemented are shown for three databases (One of them created with pictures taken under non-controlled environments). The error rates of the proposed hybrid verification mode are measured as well. Finally, conclusions are extracted and future research studies are proposed.
Resumo:
Independientemente de la existencia de técnicas altamente sofisticadas y capacidades de cómputo cada vez más elevadas, los problemas asociados a los robots que interactúan con entornos no estructurados siguen siendo un desafío abierto en robótica. A pesar de los grandes avances de los sistemas robóticos autónomos, hay algunas situaciones en las que una persona en el bucle sigue siendo necesaria. Ejemplos de esto son, tareas en entornos de fusión nuclear, misiones espaciales, operaciones submarinas y cirugía robótica. Esta necesidad se debe a que las tecnologías actuales no pueden realizar de forma fiable y autónoma cualquier tipo de tarea. Esta tesis presenta métodos para la teleoperación de robots abarcando distintos niveles de abstracción que van desde el control supervisado, en el que un operador da instrucciones de alto nivel en la forma de acciones, hasta el control bilateral, donde los comandos toman la forma de señales de control de bajo nivel. En primer lugar, se presenta un enfoque para llevar a cabo la teleoperación supervisada de robots humanoides. El objetivo es controlar robots terrestres capaces de ejecutar tareas complejas en entornos de búsqueda y rescate utilizando enlaces de comunicación limitados. Esta propuesta incorpora comportamientos autónomos que el operador puede utilizar para realizar tareas de navegación y manipulación mientras se permite cubrir grandes áreas de entornos remotos diseñados para el acceso de personas. Los resultados experimentales demuestran la eficacia de los métodos propuestos. En segundo lugar, se investiga el uso de dispositivos rentables para telemanipulación guiada. Se presenta una aplicación que involucra un robot humanoide bimanual y un traje de captura de movimiento basado en sensores inerciales. En esta aplicación, se estudian las capacidades de adaptación introducidas por el factor humano y cómo estas pueden compensar la falta de sistemas robóticos de alta precisión. Este trabajo es el resultado de una colaboración entre investigadores del Biorobotics Laboratory de la Universidad de Harvard y el Centro de Automática y Robótica UPM-CSIC. En tercer lugar, se presenta un nuevo controlador háptico que combina velocidad y posición. Este controlador bilateral híbrido hace frente a los problemas relacionados con la teleoperación de un robot esclavo con un gran espacio de trabajo usando un dispositivo háptico pequeño como maestro. Se pueden cubrir amplias áreas de trabajo al cambiar automáticamente entre los modos de control de velocidad y posición. Este controlador háptico es ideal para sistemas maestro-esclavo con cinemáticas diferentes, donde los comandos se transmiten en el espacio de la tarea del entorno remoto. El método es validado para realizar telemanipulación hábil de objetos con un robot industrial. Por último, se introducen dos contribuciones en el campo de la manipulación robótica. Por un lado, se presenta un nuevo algoritmo de cinemática inversa, llamado método iterativo de desacoplamiento cinemático. Este método se ha desarrollado para resolver el problema cinemático inverso de un tipo de robot de seis grados de libertad donde una solución cerrada no está disponible. La eficacia del método se compara con métodos numéricos convencionales. Además, se ha diseñado una taxonomía robusta de agarres que permite controlar diferentes manos robóticas utilizando una correspondencia, basada en gestos, entre los espacios de trabajo de la mano humana y de la mano robótica. El gesto de la mano humana se identifica mediante la lectura de los movimientos relativos del índice, el pulgar y el dedo medio del usuario durante las primeras etapas del agarre. ABSTRACT Regardless of the availability of highly sophisticated techniques and ever increasing computing capabilities, the problems associated with robots interacting with unstructured environments remains an open challenge. Despite great advances in autonomous robotics, there are some situations where a humanin- the-loop is still required, such as, nuclear, space, subsea and robotic surgery operations. This is because the current technologies cannot reliably perform all kinds of task autonomously. This thesis presents methods for robot teleoperation strategies at different levels of abstraction ranging from supervisory control, where the operator gives high-level task actions, to bilateral teleoperation, where the commands take the form of low-level control inputs. These strategies contribute to improve the current human-robot interfaces specially in the case of slave robots deployed at large workspaces. First, an approach to perform supervisory teleoperation of humanoid robots is presented. The goal is to control ground robots capable of executing complex tasks in disaster relief environments under constrained communication links. This proposal incorporates autonomous behaviors that the operator can use to perform navigation and manipulation tasks which allow covering large human engineered areas of the remote environment. The experimental results demonstrate the efficiency of the proposed methods. Second, the use of cost-effective devices for guided telemanipulation is investigated. A case study involving a bimanual humanoid robot and an Inertial Measurement Unit (IMU) Motion Capture (MoCap) suit is introduced. Herein, it is corroborated how the adaptation capabilities offered by the human-in-the-loop factor can compensate for the lack of high-precision robotic systems. This work is the result of collaboration between researchers from the Harvard Biorobotics Laboratory and the Centre for Automation and Robotics UPM-CSIC. Thirdly, a new haptic rate-position controller is presented. This hybrid bilateral controller copes with the problems related to the teleoperation of a slave robot with large workspace using a small haptic device as master. Large workspaces can be covered by automatically switching between rate and position control modes. This haptic controller is ideal to couple kinematic dissimilar master-slave systems where the commands are transmitted in the task space of the remote environment. The method is validated to perform dexterous telemanipulation of objects with a robotic manipulator. Finally, two contributions for robotic manipulation are introduced. First, a new algorithm, the Iterative Kinematic Decoupling method, is presented. It is a numeric method developed to solve the Inverse Kinematics (IK) problem of a type of six-DoF robotic arms where a close-form solution is not available. The effectiveness of this IK method is compared against conventional numerical methods. Second, a robust grasp mapping has been conceived. It allows to control a wide range of different robotic hands using a gesture based correspondence between the human hand space and the robotic hand space. The human hand gesture is identified by reading the relative movements of the index, thumb and middle fingers of the user during the early stages of grasping.
Resumo:
Este artículo trata dos temas estrechamente vinculados: por un lado, se presenta parte del trabajo realizado en la Tesis denominada “Modelo Híbrido de Ayuda al Capitán”, cuyos planteamientos han servido de base para la realización del proyecto de I+D+i denominado “e- Flow. Sistema integral de soporte a la evacuación”, segundo tema que se trata en este artículo. Se describirá una herramienta desarrollada para la creación de un modelo de las redes de evacuación (Macromodelo) y otra para realizar simulaciones de comportamiento de individuos (Micromodelo), se hablará de alternativas a los simulacros y se especificarán los requerimientos de una infraestructura física y de servicios para un sistema de ayuda al capitán. Sobre el proyecto e-Flow, se dará una visión general, describiendo la infraestructura física y de servicios. Se mostrará el potencial que puede suponer la implantación de un sistema cuyas posibilidades van más allá del soporte a la evacuación.
Resumo:
La necesidad de desarrollar técnicas para predecir la respuesta vibroacústica de estructuras espaciales lia ido ganando importancia en los últimos años. Las técnicas numéricas existentes en la actualidad son capaces de predecir de forma fiable el comportamiento vibroacústico de sistemas con altas o bajas densidades modales. Sin embargo, ambos rangos no siempre solapan lo que hace que sea necesario el desarrollo de métodos específicos para este rango, conocido como densidad modal media. Es en este rango, conocido también como media frecuencia, donde se centra la presente Tesis doctoral, debido a la carencia de métodos específicos para el cálculo de la respuesta vibroacústica. Para las estructuras estudiadas en este trabajo, los mencionados rangos de baja y alta densidad modal se corresponden, en general, con los rangos de baja y alta frecuencia, respectivamente. Los métodos numéricos que permiten obtener la respuesta vibroacústica para estos rangos de frecuencia están bien especificados. Para el rango de baja frecuencia se emplean técnicas deterministas, como el método de los Elementos Finitos, mientras que, para el rango de alta frecuencia las técnicas estadísticas son más utilizadas, como el Análisis Estadístico de la Energía. En el rango de medias frecuencias ninguno de estos métodos numéricos puede ser usado con suficiente precisión y, como consecuencia -a falta de propuestas más específicas- se han desarrollado métodos híbridos que combinan el uso de métodos de baja y alta frecuencia, intentando que cada uno supla las deficiencias del otro en este rango medio. Este trabajo propone dos soluciones diferentes para resolver el problema de la media frecuencia. El primero de ellos, denominado SHFL (del inglés Subsystem based High Frequency Limit procedure), propone un procedimiento multihíbrido en el cuál cada subestructura del sistema completo se modela empleando una técnica numérica diferente, dependiendo del rango de frecuencias de estudio. Con este propósito se introduce el concepto de límite de alta frecuencia de una subestructura, que marca el límite a partir del cual dicha subestructura tiene una densidad modal lo suficientemente alta como para ser modelada utilizando Análisis Estadístico de la Energía. Si la frecuencia de análisis es menor que el límite de alta frecuencia de la subestructura, ésta se modela utilizando Elementos Finitos. Mediante este método, el rango de media frecuencia se puede definir de una forma precisa, estando comprendido entre el menor y el mayor de los límites de alta frecuencia de las subestructuras que componen el sistema completo. Los resultados obtenidos mediante la aplicación de este método evidencian una mejora en la continuidad de la respuesta vibroacústica, mostrando una transición suave entre los rangos de baja y alta frecuencia. El segundo método propuesto se denomina HS-CMS (del inglés Hybrid Substructuring method based on Component Mode Synthesis). Este método se basa en la clasificación de la base modal de las subestructuras en conjuntos de modos globales (que afectan a todo o a varias partes del sistema) o locales (que afectan a una única subestructura), utilizando un método de Síntesis Modal de Componentes. De este modo es posible situar espacialmente los modos del sistema completo y estudiar el comportamiento del mismo desde el punto de vista de las subestructuras. De nuevo se emplea el concepto de límite de alta frecuencia de una subestructura para realizar la clasificación global/local de los modos en la misma. Mediante dicha clasificación se derivan las ecuaciones globales del movimiento, gobernadas por los modos globales, y en las que la influencia del conjunto de modos locales se introduce mediante modificaciones en las mismas (en su matriz dinámica de rigidez y en el vector de fuerzas). Las ecuaciones locales se resuelven empleando Análisis Estadístico de Energías. Sin embargo, este último será un modelo híbrido, en el cual se introduce la potencia adicional aportada por la presencia de los modos globales. El método ha sido probado para el cálculo de la respuesta de estructuras sometidas tanto a cargas estructurales como acústicas. Ambos métodos han sido probados inicialmente en estructuras sencillas para establecer las bases e hipótesis de aplicación. Posteriormente, se han aplicado a estructuras espaciales, como satélites y reflectores de antenas, mostrando buenos resultados, como se concluye de la comparación de las simulaciones y los datos experimentales medidos en ensayos, tanto estructurales como acústicos. Este trabajo abre un amplio campo de investigación a partir del cual es posible obtener metodologías precisas y eficientes para reproducir el comportamiento vibroacústico de sistemas en el rango de la media frecuencia. ABSTRACT Over the last years an increasing need of novel prediction techniques for vibroacoustic analysis of space structures has arisen. Current numerical techniques arc able to predict with enough accuracy the vibro-acoustic behaviour of systems with low and high modal densities. However, space structures are, in general, very complex and they present a range of frequencies in which a mixed behaviour exist. In such cases, the full system is composed of some sub-structures which has low modal density, while others present high modal density. This frequency range is known as the mid-frequency range and to develop methods for accurately describe the vibro-acoustic response in this frequency range is the scope of this dissertation. For the structures under study, the aforementioned low and high modal densities correspond with the low and high frequency ranges, respectively. For the low frequency range, deterministic techniques as the Finite Element Method (FEM) are used while, for the high frequency range statistical techniques, as the Statistical Energy Analysis (SEA), arc considered as more appropriate. In the mid-frequency range, where a mixed vibro-acoustic behaviour is expected, any of these numerical method can not be used with enough confidence level. As a consequence, it is usual to obtain an undetermined gap between low and high frequencies in the vibro-acoustic response function. This dissertation proposes two different solutions to the mid-frequency range problem. The first one, named as The Subsystem based High Frequency Limit (SHFL) procedure, proposes a multi-hybrid procedure in which each sub-structure of the full system is modelled with the appropriate modelling technique, depending on the frequency of study. With this purpose, the concept of high frequency limit of a sub-structure is introduced, marking out the limit above which a substructure has enough modal density to be modelled by SEA. For a certain analysis frequency, if it is lower than the high frequency limit of the sub-structure, the sub-structure is modelled through FEM and, if the frequency of analysis is higher than the high frequency limit, the sub-structure is modelled by SEA. The procedure leads to a number of hybrid models required to cover the medium frequency range, which is defined as the frequency range between the lowest substructure high frequency limit and the highest one. Using this procedure, the mid-frequency range can be define specifically so that, as a consequence, an improvement in the continuity of the vibro-acoustic response function is achieved, closing the undetermined gap between the low and high frequency ranges. The second proposed mid-frequency solution is the Hybrid Sub-structuring method based on Component Mode Synthesis (HS-CMS). The method adopts a partition scheme based on classifying the system modal basis into global and local sets of modes. This classification is performed by using a Component Mode Synthesis, in particular a Craig-Bampton transformation, in order to express the system modal base into the modal bases associated with each sub-structure. Then, each sub-structure modal base is classified into global and local set, fist ones associated with the long wavelength motion and second ones with the short wavelength motion. The high frequency limit of each sub-structure is used as frequency frontier between both sets of modes. From this classification, the equations of motion associated with global modes are derived, which include the interaction of local modes by means of corrections in the dynamic stiffness matrix and the force vector of the global problem. The local equations of motion are solved through SEA, where again interactions with global modes arc included through the inclusion of an additional input power into the SEA model. The method has been tested for the calculation of the response function of structures subjected to structural and acoustic loads. Both methods have been firstly tested in simple structures to establish their basis and main characteristics. Methods are also verified in space structures, as satellites and antenna reflectors, providing good results as it is concluded from the comparison with experimental results obtained in both, acoustic and structural load tests. This dissertation opens a wide field of research through which further studies could be performed to obtain efficient and accurate methodologies to appropriately reproduce the vibro-acoustic behaviour of complex systems in the mid-frequency range.