37 resultados para Patologización de la diferencia


Relevância:

90.00% 90.00%

Publicador:

Resumo:

La aparición y avance de la enfermedad del marchitamiento del pino (Pine Wilt Desease, PWD), causada por Bursaphelenchus xylophilus (Nematoda; Aphelenchoididae), el nematodo de la madera del pino (NMP), en el suroeste de Europa, ha puesto de manifiesto la necesidad de estudiar la fenología y la dispersión de su único vector conocido en Europa, Monochamus galloprovincialis (Col., Cerambycidae). El análisis de 12 series de emergencias entre 2010 y 2014, registradas en Palencia, València y Teruel, con material procedente de diversos puntos de la península ibérica, demostró una alta variabilidad en la fenología de M. galloprovincialis y la divergencia térmica respecto de las poblaciones portuguesas. Para éstas, el establecimiento de los umbrales térmicos de desarrollo de las larvas post-dormantes del vector (12,2 y 33,5ºC) permitió la predicción de la emergencia mediana para la fecha en la que se acumulaban de 822 grados-día. Ninguna de las series analizadas en este trabajo necesitó de dichos grados-día estimados para la emergencia mediana. Asimismo, la emergencia se adelantó en las regiones más calurosas, mientras que se retrasó en las zonas más templadas. Más allá de la posible variabilidad entre poblaciones locales peninsulares, se detectaron indicios de que la diferencia en la acumulación de calor durante el otoño puede afectar el grado de maduración de las larvas invernantes, y su posterior patrón temporal de emergencia. Por último, también fueron observados comportamientos de protandria en las emergencias. Respecto a la fenología de su vuelo, entre los años 2010 y 2015, fueron ejecutados un total de 8 experimentos de captura de M. galloprovincialis mediante trampas cebadas con atrayentes en diferentes regiones (Castellón, Teruel, Segovia y Alicante) permitiendo el seguimiento del periodo de vuelo. Su análisis permitió constatar la disminución de las capturas y el acortamiento del periodo de vuelo con la altitud, el inicio del vuelo en el mes de mayo/junio a partir de los 14ºC de temperatura media diaria, la influencia de las altas temperaturas en la disminución de las capturas estivales (potencial causante de perfiles bimodales en las curvas de vuelo en las zonas menos frías), la evolución de la proporción de sexos a lo largo del periodo de vuelo (que muestra una mayor captura de hembras al inicio y de machos al final) y el comportamiento diurno y ligado a las altas temperaturas del vuelo circadiano del insecto. Dos redes de muestreo sistemático de insectos saproxílicos instaladas en la Comunitat Valencia (Red MUFFET, 15 parcelas, año 2013) y en Murcia (Red ESFP, 20 parcelas, años 2008-2010) permitieron el estudio de la comunidad de insectos relacionada con M. galloprovincialis. Cada una de las parcelas contaba con una trampa cebada con atrayentes y una estación meteorológica. El registro de más de 250 especies de coleópteros saproxílicos demostró el potencial que tiene el empleo de redes de trampas vigía para la detección temprana de organismos exóticos, además de permitir la caracterización y evaluación de las comunidades de entomofauna útil, representando una de las mejores herramientas de la gestión integrada de plagas. En este caso, la comunidad de saproxílicos estudiada mostró ser muy homogénea respecto a la variación ambiental de las zonas de muestreo, y que pese a las pequeñas variaciones entre las comunidades de los diferentes ecosistemas, el rol que M. galloprovincialis desempeña en ellas a lo largo de todo el gradiente estudiado es el mismo. Con todo, el análisis mediante redes de interacción mostró su relevancia ecológica al actuar de conector entre los diferentes niveles tróficos. Por último, un total de 12 experimentos de marcaje-liberación-recaptura desarrollados entre 2009 y 2012 en Castellón, Teruel, Valencia y Murcia permitieron evaluar el comportamiento dispersivo de M. galloprovincialis. Las detecciones mediante trampas cebadas de los insectos liberados se dieron por lo menos 8 días después de la emergencia. La abundancia de población pareció relacionada con la continuidad, la naturalización de la masa, y con la afección previa de incendios. La dispersión no estuvo influida por la dirección ni la intensidad de los vientos dominantes. La abundancia de material hospedante (en lo referente a las variables de masa y a los índices de competencia) influyó en la captura del insecto en paisajes fragmentados, aunque la ubicación de las trampas optimizó el número de capturas cuando se ubicaron en el límite de la masa y en zonas visibles. Por último también se constató que M. galloprovincialis posee suficiente capacidad de dispersión como para recorrer hasta 1500 m/día, llegando a alcanzar distancias máximas de 13600m o de 22100 m. ABSTRACT The detection and expansion of the Pine Wilt Desease (PWD), caused by Bursaphelenchus xylophilus (Nematoda; Aphelenchoididae), Pine Wood Nematode (PWN), in southwestern Europe since 1999, has triggered off the study of the phenology and the dispersion of its unique vector in the continent, Monochamus galloprovincialis (Coleoptera, Cerambycidae). The analysis of 12 emergence series between 2010 and 2014 registered in Palencia, Teruel and Valencia (Spain), registered from field colonized material collected at several locations of the Iberian Peninsula, showed a high variability in the emergence phenology of M. galloprovincialis. In addition, these patterns showed a very acute thermal divergence regarding a development model fitted earlier in Portugal. Such model forecasted the emergence of 50% of M. galloprovincialis individuals in the Setúbal Peninsula (Portugal) when an average of 822 degree-days (DD) were reached, based on the accumulation of heat from the 1st of March until emergence and lower and upper thresholds of 12.2 ºC and 33,5 °C respectively. In our results, all analyzed series needed less than 822 DD to complete the 50% of the emergence. Also, emergency occurred earlier in the hottest regions, while it was delayed in more temperate areas. Beyond the possible variability between local populations, the difference in the heat accumulation during the fall season may have affected the degree of maturation of overwintering larvae, and subsequently, the temporal pattern of M. galloprovincialis emergences. Therefore these results suggest the need to differentiate local management strategies for the PWN vector, depending on the location, and the climatic variables of each region. Finally, protandrous emergence patterns were observed for M. galloprovincialis in most of the studied data-sets. Regarding the flight phenology of M. galloprovincialis, a total of 8 trapping experiments were carried out in different regions of the Iberian Peninsula (Castellón, Teruel, Segovia and Alicante) between 2010 and 2015. The use of commercial lures and traps allowed monitoring of the flight period of M. galloprovincialis. The analyses of such curves, helped confirming different aspects. First, a decline in the number of catches and a shortening of the flight period was observed as the altitude increased. Flight period was recorded to start in May / June when the daily average temperature went over 14 ° C. A significant influence of high temperatures on the decrease of catches in the summer was found in many occasions, which frequently lead to a bimodal profile of the flight curves in warm areas. The evolution of sex ratio along the flight period shows a greater capture of females at the beginning of the period, and of males at the end. In addition, the circadian response of M. galloprovincialis to lured traps was described for the first time, concluding that the insect is diurnal and that such response is linked to high temperatures. Two networks of systematic sampling of saproxylic insects were installed in the Region of Valencia (Red MUFFET, 15 plots, 2013) and Murcia (Red ICPF, 20 plots, 2008-2010). These networks, intended to serve the double purpose of early-detection and long term monitoring of the saproxylic beetle assemblies, allowed the study of insect communities related to M. galloprovincialis. Each of the plots had a trap baited with attractants and a weather station. The registration of almost 300 species of saproxylic beetles demonstrated the potential use of such trapping networks for the early detection of exotic organisms, while at the same time allows the characterization and evaluation of useful entomological fauna communities, representing one of the best tools for the integrated pest management. In this particular case, the studied community of saproxylic beetles was very homogeneous with respect to environmental variation of the sampling areas, and despite small variations between communities of different ecosystems, the role that M. galloprovincialis apparently plays in them across the studied gradient seems to be the same. However, the analysis through food-webs showed the ecological significance of M. galloprovincialis as a connector between different trophic levels. Finally, 12 mark-release-recapture experiments were carried out between 2009 and 2012 in Castellón, Teruel, Valencia and Murcia (Spain) with the aim to describe the dispersive behavior of M. galloprovincialis as well as the stand and landscape characteristics that could influence its abundance and dispersal. No insects younger than 8 days were caught in lured traps. Population abundance estimates from mark-release-recapture data, seemed related to forest continuity, naturalization, and to prior presence of forest fires. On the other hand, M. galloprovincialis dispersal was not found to be significantly influenced by the direction and intensity of prevailing winds. The abundance of host material, very related to stand characteristics and spacing indexes, influenced the insect abundance in fragmented landscapes. In addition, the location of the traps optimized the number of catches when they were placed in the edge of the forest stands and in visible positions. Finally it was also found that M. galloprovincialis is able to fly up to 1500 m / day, reaching maximum distances of up to 13600 m or 22100 m.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El crecimiento demográfico y el proceso de urbanización que ha experimentado el planeta en el último siglo se ha traducido, en contextos de pobreza, en la generación de tugurios y en el aumento de la población viviendo en condiciones de habitabilidad precaria (HaP) fruto de la urbanización informal. Situación que, según las estimaciones de Naciones Unidas continuará teniendo lugar en las próximas décadas, especialmente en las ciudades de las regiones menos desarrolladas. Este ha sido el problema específico que se ha querido atender con el presente trabajo: la búsqueda de un instrumento urbano que incida en la reducción de las tasas de precariedad habitacional urbana futuras, la búsqueda de instrumentos que eviten que ese aumento de la urbanización se traduzca en aumento de población condenada a vivir en tugurios durante décadas. Dicha búsqueda ha tenido lugar en el marco de la teoría de la Habitabilidad Básica (HaB) desarrollada por el ICHaBCátedra UNESCO de Habitabilidad Básica de la UPM. Una HaB que consiste en la satisfacción de las necesidades fundamentales de habitabilidad pero, a su vez, o más importante aún, en una esperanza de mejora y progreso paulatino de esas condiciones elementales entendida como herramienta de desarrollo y lucha contra la pobreza. Como herramienta básica, no se trata de ofrecer las condiciones ideales, sino de brindar un camino razonable, que se considera posible, para que miles de millones de personas que viven en HaP o parecen condenadas a tener que hacerlo, puedan acceder a mejores condiciones de vida en tiempos más cortos. Entre las políticas habitacionales no convencionales puestas en marcha desde Hábitat I en 1976, las de habilitación urbana progresiva, y más en particular, la Ocupación Guiada, resultan ser en contextos de escasez económica, el mejor instrumento para hacer frente a la urbanización informal, un instrumento paradigmático mínimo preferente de implantación ex novo de HaB. Lo es, por la atención prestada en la elección del suelo y la parcelación, las dos etapas cabecera del proceso, así como por los mecanismos implementados para atender la etapa de urbanización en su fase provisional, y por dejar la última etapa, la de la edificación de las viviendas, en manos de la población. El proceso de urbanización que se favorece es parecido al de los tugurios y ocupaciones ilegales en lo referente a las etapas y mecanismos de crecimiento. Sin embargo, la diferencia está en las condiciones en las que se produce, en los niveles de salubridad y de seguridad, y en la proyección de futuro. El Programa de Ocupación Guiada 'Alto Trujillo' (POG), puesto en marcha por la municipalidad de Trujillo (Perú) entre 1995 y 2006 fue concebido para hacer frente a los procesos de urbanización informal que estaban teniendo lugar en la ciudad y ha demostrado ser un mecanismo adecuado para garantizar el acceso regulado al suelo, las infraestructuras, los servicios básicos y la vivienda en condiciones de fuerte restricción económica mediante un cogestión acertada entre municipalidad, población y demás actores del proceso. El POG eligió un suelo no vulnerable y en continuidad con el tejido urbano, con la parcelación estableció el orden geométrico del asentamiento y reservó los espacios públicos destinados a equipamientos, zonas verdes y viario, y fijó las dimensiones de las parcelas, acompañó a la población en el proceso de ocupación guiada de las mismas, así como en el posterior desarrollo progresivo del asentamiento haciendo una fuerte apuesta por lo público, relegando la construcción de las viviendas al esfuerzo de los pobladores. Los POG municipales resultan ser un instrumento replicable siempre que se den cinco condiciones: la existencia de un marco institucional adecuado que contemple la descentralización de competencias, que haya interés y continuidad política en el gobierno local, acceso a suelo urbano disponible y voluntad de co-gestión con la población. El análisis del POG ha permitido elaborar una propuesta de replicabilidad del POG basada en la experiencia de soluciones ya implementadas, que han sido contrastadas empíricamente y analizadas para aprender de sus fortalezas, oportunidades, debilidades y amenazas, así como de sus aciertos y errores. La estrategia de replicabilidad del POG se plantea como alternativa a la urbanización informal con mecanismos mejorados para que las ciudades se desarrollen siguiendo unos parámetros mínimos de HaB y no a través de asentamientos informales que dificulten el progreso futuro de las familias que los habitan y de las mismas ciudades de las que forman parte. Esta propuesta de replicabilidad, que precisa ser adaptada a cada contexto, tenía una clara vocación: intentar ser instrumento en la región del planeta donde, según las estimaciones, en los próximos treinta años el crecimiento demográfico y el proceso de urbanización serán más fuertes: África Subsahariana. Por ello, con el apoyo de expertos mozambiqueños en temas de habitabilidad, se estudió la replicabilidad en Mozambique incorporando las medidas necesarias que darían respuesta a los condicionantes particulares del país. ABSTRACT The demographic growth and the urbanisation process that the planet has experienced in the last century has turned into the generation of slums and in the increase of population living in conditions of precarious habitability (HaP) result of the informal urbanisation, in contexts of poverty. According to the United Nations estimations, this situation will continue taking place in the next decades, especially in the cities of the least developed regions. The present work has wanted to attend this specific problem by the search of an urban instrument that has an impact on the reduction of the urban future precarious housing rates, a search of instruments that prevent that this urbanisation spread become an increase of population doomed to live in slums during decades. The above mentioned search has taken place in the frame of the Basic Habitability theory (HaB) developed by the ICHaB-Cátedra UNESCO of Basic Habitability of the UPM. HaB consists of the satisfaction of the fundamental habitability needs but, in turn, or still more important, it is the hope of improvement and gradual progress of these elementary conditions. The HaB is understood as a tool of development and fight against poverty. As a basic tool, it does not offer the ideal conditions, but it offers a reasonable way, which is considered to be possible, so that thousands of million persons who live in HaP or that seem to be doomed to have to do it, could gain access to better living conditions in shorter times. Between the non conventional housing policies started up from Habitat I in 1976, those of urban progressive fitting out, and more especially, the Guided Occupation, has turned out to be, in contexts of economic shortage, the best instrument to face the informal urbanisation, a preferential and minimum paradigmatic instrument of ex-novo HaB implementation. It is so due to the attention given to the appropriate site selection and the land allotment, both headboard stages of the process, as well as to the mechanisms implemented to attend the urbanisation stage in its provisional phase, and to leave the last stage, the building process, in population hands. The urbanisation process that is favored is similar to that of the slums and squatting in what concerns the stages and mechanisms of growth. Nevertheless, the difference is in the conditions in which it takes place, in the levels of health and safety, and in the future projection. The Program of Guided Occupation 'Alto Trujillo' (PGO), turned on by the Provincial City Hall of Trujillo (Peru) between 1995 and 2006, was conceived to face the processes of informal urbanisation that took place in the city and it has demonstrated to be a mechanism adapted to guarantee the regulated access to soil, infrastructures, basic services and housing in conditions of strong economic restriction by means of a succeeded co-management between municipality, population and other process actors. The PGO chose a non vulnerable soil in continuity with the urban fabric, with the land allotment established the settlement geometric order, reserved the public spaces allocated for urban facilities, green spaces and streets, and fixed the plot dimensions, accompanied the population in the plot guided occupation process, as well as in the later progressive settlement development betting strongly for the public components, relegating the housing construction to the settlers effort. The municipal PGO turn out to be a replicable instrument under five conditions: the existence of an institutional suitable frame that contemplates the decentralization competitions, interest and political continuity in the local government, access to urban available soil and will of co-management with the population. The PGO analysis has allowed to elaborate a replicability proposal of the PGO based on the experience of the already implemented solutions, which have been empirically confirmed and analyzed to learn of its strengths, opportunities, weaknesses and threats, as well as of its successes and mistakes. The replicability strategy of the PGO is considered an alternative to the informal urbanisation with improved mechanisms in order that the cities can develop following a few HaB's minimal parameters, but not through informal settlements that would make difficult the families future progress and that of the cities where they live. This replicability proposal, that needs to be adapted to every context, had a clear vocation: try to be an instrument in the region of the planet where, according to the estimations, in the next thirty years the demographic growth and the urbanisation process will be stronger: Sub-Saharan Africa. Therefore, with the support of Mozambican experts in habitability topics, the replicability was studied in Mozambique incorporating the necessary measures that would give response to the country's determinants.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En la actualidad la mayoría de plantas sufren pérdidas debido a las enfermedades que les provocan los hongos. Uno de estos grupos amenazado por el ataque de los hongos son las especies de la familia Orchidaceae, especies que se encuentran amenazadas y con numerosas especies en peligro de extinción. Uno de los problemas sanitarios más destacados es Botrytis cinerea, hongo patógeno cosmopolita, causante de enfermedades importantes en muchas plantas tales como frutas, verduras, accesiones de viveros, plantas ornamentales y huertos cultivos (Jarvis 1977; Elad et al., 2007). Este género es uno de los grupos de hongos más ampliamente conocido y distribuido. Contiene 22 especies (Hennebert 1973; Yohalem et al., 2003) y un híbrido (B. allii) (Yohalem & Alabama, 2003) vinculado a las etapas sexuales y un amplio número de huéspedes específicos (Beever y Weds, 2000); infecta más de 200 especies vegetales distintas (Williamson et al., 2007). Dada la importancia de este patógeno se realiza un estudio de caracterización morfológica y molecular del hongo, aislado de plantas de orquídeas cultivadas en condiciones de invernadero, de hortalizas y plantas frutales, con síntomas de necrosis, atizonamientos y pudriciones. El análisis de las características morfológicas (presencia de esclerocios, tamaño de conidios, presencia de estructuras sexuales in vitro) y fenotípicas (crecimiento micelial a diferentes temperaturas, germinación de esporas), nos permitió determinar características importantes del comportamiento del hongo y establecer cuáles son las mejores condiciones para su patogenicidad. Se afianzo este trabajo con estudios moleculares a través del análisis de la región ribosomal ITS1-ITS4. Entre los aislados estudiados se identificaron dos especies diferentes, Botrytis cinerea y B. fabiopsis, esta última conocida como especifica de Vicia faba, se lo aisló de una planta de Pelargonium sp. Se hizo un análisis filogenético para comparar estas dos especies, encontrándose que B. fabiopsis está estrechamente relacionada con B. cinerea y B. elliptica, pero lejanamente relacionado con B. fabae. Además, se analizó las poblaciones de los aislados de Botrytis, para ello se seleccionaron tres parejas de cebadores microsatelites con altos porcentajes de polimorfismo. Al analizar la similaridad entre los aislados se determinaron tres grupos de poblaciones de B. cinerea entre los cuales Botrytis fabiopsis comparte un grupo grande con B. cinerea. La diferenciación genética no fue significativa entre la población de aislados de orquídeas y hortalizas, la diferencia génica que fue muy baja, lo que sugiere que la especificidad de Botrytis no está dada por los hospederos, aunque la posibilidad de la especificidad con algún cultivo no puede descartarse. ABSTRACT Most plants suffer diseases caused by fungi. Orchidaceae is one of the threatened groups with many endangered species. Included into the most important problems in plant health is Botrytis cinerea, a cosmopolitan pathogen which causes major diseases in many plants of agronomic interest such as fruits, vegetables, planthouses accessions and ornamental plants (Jarvis, 1977; Elad et al, 2007). The genus Botrytis is one of the most widely and disseminated fungi. The genus contains 22 species (Hennebert 1973; Yohalem et al, 2003) and a hybrid (B. allii) (Yohalem & Alabama, 2003) linked to the sexual stages of a large number of specific hosts (Beever & Weds, 2000); infects over 200 different plant species (Williamson et al., 2007). Due to the importance of this pathogen, a study of morphological and molecular characterization of the fungus was carried out. Fungi samples were isolated from orchid plants grown in greenhouse conditions, vegetables and fruits with signs of necrosis, blight and rottening. To establish the best conditions for pathogenicity, behavioral characteristics of the fungus were studied through the analysis of morphological characteristics (presence of sclerotia, conidia size, sexual structures in vitro) and mycelial growth at different temperatures. To complete the characterization of the fungi, a molecular study was performed via the analysis of ribosomal ITS1-ITS4 region. Two different species were identified: Botrytis cinerea and Botrytis fabiopsis (known by specificity to Vicia faba). B. fabiopsis was isolated from a plant of the genus Pelargonium. A phylogenetic analysis was carried out to compare these two species leading to the conclusion that B. fabiopsis is closely related to B. cinerea and B. elliptica, but distantly related to B. fabae. The populations of Botrytis isolates were also analyzed. Three pairs of microsatellite primers with high percentages of polymorphism were selected. A similarity analysis showed three groups of populations of B. cinerea, including Botrytis fabiopsis. The genetic differentiation was not significant among the populations of isolates from orchids and vegetables; genetic differences were very low, suggesting that the specificity of Botrytis species is not given by the hosts.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La estructura de velocidad en los primeros metros debajo de una estación sísmica produce un cierto efecto sobre el sismograma que ésta registra, dicho efecto se denomina función receptora. Si se conoce esta función, es posible, mediante modelización, obtener esa estructura de velocidad. La onda P que genera un telesismo, queda “atrapada” en los últimos kilómetros de su trayectoria en la estructura próxima a la estación que la registra, reverberando entre las discontinuidades de la misma y convirtiéndose, en algunas partes, en onda S. La diferencia de registro existente entre el sismograma del rayo no atrapado (componente vertical del registro) y el producido por este fenómeno (componente radial), sería la función receptora. En este proyecto, se pretende obtener mediante la técnica de Langston (1979),las funciones receptoras de las 55 estaciones que forman la Red Sísmica de banda ancha del Instituto Geográfico Nacional, con el fin de que en trabajos venideros, sea posible conocer de una manera más realista, la estructura de la corteza terrestre bajo el territorio español. Para la obtención de estas funciones, será necesario trabajar con un conjunto de sismogramas registrados por estaciones de banda ancha a partir de telesismos cuyos parámetros focales reúnan una serie de condiciones, definidas y detalladas ampliamente en esta memoria. Tras un proceso de selección, que será constante a lo largo de todo este trabajo,se van a emplear para el cálculo de las funciones receptoras, un total de 5231 sismogramas, generados por 186 telesismos. Para terminar, a modo de ejemplo y con el objetivo de mostrar la finalidad para la que se ha llevado a cabo este proyecto, se procederá a realizar la inversión de la función receptora obtenida para una de las estaciones sísmicas de la red, obteniendo así, un modelo de velocidades aproximado de la estructura de la litosfera existente bajo dicha estación. Abstract: The speed structure in the first layers under a seismic station produces an effect on the seismogram that is registered. This effect is known as receiver function. It is possible to obtain the speed structure if this function is detected through modelling. The P wave, which generates a teleseism, gets trapped in the final kilometres of its trajectory in the nearby station structure, reverberating among its discontinuities and turning into a S wave. The registered difference between the not caught ray seismogram (vertical component of the register) and the one that is produced by this phenomenon (radial component) would be known as receiver function. This project aims to obtain, through the Langston technique (1979), the receiver function of the 55 stations that make up the Broadband Seismic Network of the National Geography Institute to get to know, in a more realistic way, the structure of the Earth’s crust under the Spanish territory. In order to obtain these functions, it will be necessary to work with a number of seismograms registered by the broadband stations whose focal parameters meet the requirements that are well defined and detailed in the development of this memory. After selecting the appropriate data, that would be constant throughout the development of this project, we are going to apply a total of 5231 seismograms obtained by 186 teleseism to calculate the receivers functions. To conclude, and with the aim of demonstrating the purposes and uses that lie behind the development of this project, we will reverse the receiver function for one of the seismic stations, obtaining a approximate speeds’ model of the lithosphere structure that can be found under the previously mentioned station.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La escalera de caracol es uno de los elementos que mejor define la evolución de la construcción pétrea a lo largo de nuestra historia moderna. El movimiento helicoidal de las piezas de una escalera muestra, con frecuencia, el virtuosismo que alcanzaron los maestros del arte de la cantería y la plasticidad, expresividad y ligereza de sus obras. A pesar de su origen exclusivamente utilitario y de su ubicación secundaria, se convertirán en signo de maestría y en elementos protagonistas del espacio que recorren y de la composición de los edificios, como es el caso de las grande vis de los Châteaux franceses del XVI como Blois, Chateaudun o Chambord o los schlosses alemanes como el de Hartenfels en Torgau. Este protagonismo queda patente en los tratados y manuscritos de cantería, elaborados fundamentalmente en España y Francia, a partir del siglo XVI que recogen un gran número de variantes de escaleras de caracol entre sus folios. Breve historia de la escalera de Caracol Los ejemplos más antiguos conocidos de escaleras de caracol en Occidente provienen de los primeros siglos de nuestra era y están asociados a construcciones de tipo conmemorativo, funerario o civil, romanas. Destaca de entre ellas la columna trajana, construida en el 113 por Apolodoro de Damasco en los Foros de Roma. Esta columna, conservada en la actualidad, fue profusamente representada por los tratados de arquitectura desde el Renacimento como el de Serlio, Caramuel, Piranesi, Rondelet y, más recientemente, Canina. Choisy describe en El arte de construir en Bizancio un grupo de escaleras de caracol cubiertas por bóvedas helicoidales y construidas entre el siglo IV y VIII; a esta misma época pertenecen otras escaleras con bóvedas aparejadas de forma desigual con sillarejos y sillares de pequeño tamaño sin reglas de traba claras, pensadas al igual que las de Choisy para ser revestidas con un mortero. Herederas de estas bóvedas de la antigüedad son las escaleras de caracol de la Edad Media. Así las describe Viollet le Duc: “compuestas por un machón construido en cantería, con caja perimetral circular, bóveda helicoidal construida en piedra sin aparejar, que se apoya en el machón y sobre el paramento circular interior. Estas bóvedas soportan los peldaños en los que las aristas son trazadas siguiendo los radios del círculo”. En esta misma época, siglos XI y XII, se construyen un grupo de escaleras de caracol abovedadas en piedra de cantería vista: las de la torre oeste de Notre Dame des Doms en Avignon, las de la tour de Roi, de Évêque y Bermonde de los Chateaux de Uzés, las gemelas de las torres de la Catedral Saint Théodorit de Uzés y la conocida escalera del transepto de la Abadía de Saint Gilles. Ésta última dará el nombre a uno de los modelos estereotómicos de mayor complejidad del art du trait o arte de la cantería: la vis Saint Gilles, que aparece en la mayoría de los textos dedicados al corte de piedras en España y Francia. La perfección y dificultad de su trazado hizo que, durante siglos, esta escalera de caracol fuera lugar de peregrinación de canteros y se convirtiera en el arquetipo de un modelo representado con profusión en los tratados hasta el siglo XIX. A partir del siglo XIII, será el husillo el tipo de escalera curva que dará respuesta a las intenciones de la arquitectura a la “moderna” o gótica. Estas escaleras con machón central se generalizarán, insertándose en un complejo sistema de circulaciones de servicio, que conectaban por completo, en horizontal y vertical, los edificios. Estos pasadizos horizontales y estas conexiones verticales, hábilmente incorporadas en el espesor de contrafuertes, machones, esquinas, etc, serán una innovación específicamente gótica, como señala Fitchen. La pieza de peldaño, que se fabrica casi “en serie” reflejará fielmente el espíritu racional y funcionalista de la arquitectura gótica. Inicialmente los peldaños serán prismáticos, sin labrar por su cara interior; después, éstos darán paso a escaleras más amables con los helicoides reglados formando su intradós. Insertos en construcciones góticas y en convivencia con husillos, encontramos algunos ejemplos de escaleras abovedadas en el siglo XIII y XIV. Estamos hablando de la escalera de la torre este del Castillo de Maniace en Siracusa, Sicilia y la escalera de la torre norte del transepto de la Catedral de Barcelona. En ambos casos, los caracoles se pueden relacionar con el tipo vis de Saint Gilles, pero incorporan invariantes de la construcción gótica que les hace mantener una relación tipológica y constructiva con los husillos elaborados en la misma época. En la segunda mitad del siglo XV aparecen, vinculadas al ámbito mediterráneo, un conjunto de escaleras en las que el machón central se desplaza transformándose en una moldura perimetral y dejando su lugar a un espacio hueco que permite el paso de la luz. Los tratados manuscritos de cantería que circulan en el XVI y XVII por España recogen el modelo con su denominación: caracol de Mallorca. Varios autores han mantenido la tesis de que el nombre proviene de la escalera situada en la torre noroeste de la Lonja de Palma de Mallorca. Los Manuscritos y tratados de Cantería y las escaleras de caracol Coincidiendo con la apertura intelectual que propicia el Renacimiento se publican algunos tratados de arquitectura que contienen capítulos dedicados al corte de las piedras. El primero de ellos es Le premier tome de l’Architecture de Philibert de L’Orme, publicado en 1567 en Francia. En España tenemos constancia de la existencia de numerosos cuadernos profesionales que circulaban entre los canteros. Varias copias de estos manuscritos han llegado hasta nuestros días. Los más completos son sin duda, las dos copias que se conservan del tratado de arquitectura de Alonso de Vandelvira, una en la Biblioteca Nacional y otra en la Biblioteca de la Escuela de Arquitectura de la Universidad Politécnica de Madrid y el manuscrito titulado Cerramientos y trazas de Montea de Ginés Martínez de Aranda. Todas estas colecciones de aparejos, con excepción de la atribuida a Pedro de Albiz, presentan trazas de escaleras de caracol. En los siglos XVII y XVIII los textos en España más interesantes para nuestras investigaciones son, como en el XVI, manuscritos que no llegaron a ver la imprenta. Entre ellos destacan De l’art del picapedrer de Joseph Gelabert y el Cuaderno de Arquitectura de Juan de Portor y Castro. Estos dos textos, que contienen varios aparejos de caracoles, están claramente vinculados con la práctica constructiva a diferencia de los textos impresos del XVIII, como los del Padre Tosca o el de Juan García Berruguilla, que dedican algunos capítulos a cortes de Cantería entre los que incluyen trazas de escaleras, pero desde un punto de vista más teórico. Podemos agrupar las trazas recogidas en los manuscritos y tratados en cinco grandes grupos: el caracol de husillo, el caracol de Mallorca, los caracoles abovedados, los caracoles exentos y los caracoles dobles. El husillo, de procedencia gótica, permanece en la mayoría de nuestros textos con diferentes denominaciones: caracol de husillo, caracol de nabo redondo o caracol macho. Se seguirá construyendo con frecuencia durante todo el periodo de la Edad Moderna. Los ejemplares más bellos presentan el intradós labrado formando un helicoide cilíndrico recto como es el caso del husillo del Monasterio de la Vid o el de la Catedral de Salamanca o un helicoide axial recto como en el de la Capilla de la Comunión en la Catedral de Santiago de Compostela. La diferencia estriba en la unión del intradós y el machón central: una amable tangencia en el primer caso o un encuentro marcado por una hélice en el segundo. El segundo tipo de caracol presente en casi todos los autores es el caracol de Mallorca. Vandelvira, Martínez de Aranda, y posteriormente Portor y Castro lo estudian con detenimiento. Gelabert, a mediados del siglo XVII, nos recordará su origen mediterráneo al presentar el que denomina Caracol de ojo abierto. El Caracol de Mallorca también estará presente en colecciones de aparejos como las atribuidas a Alonso de Guardia y Juan de Aguirre, ambas depositadas en la Biblioteca Nacional y en las compilaciones técnicas del siglo XVIII, de fuerte influencia francesa, aunque en este caso ya sin conservar su apelación original. El Caracol que dicen de Mallorca se extiende por todo el territorio peninsular de la mano de los principales maestros de la cantería. Los helicoides labrados con exquisita exactitud, acompañados de armoniosas molduras, servirán de acceso a espacios más representativos como bibliotecas, archivos, salas, etc. Es la escalera de la luz, como nos recuerda su apelación francesa, vis a jour. Precisamente en Francia, coincidiendo con el renacimiento de la arquitectura clásica se realizan una serie de escaleras de caracol abovedadas, en vis de Saint Gilles. Los tratados franceses, comenzando por De L’Orme, y siguiendo por, Jousse, Derand, Milliet Dechales, De la Hire, De la Rue, Frezier, Rondelet, Adhémar o Leroy, entre otros, recogen en sus escritos el modelo y coinciden en reconocer la dificultad de su trazado y el prestigio que adquirían los canteros al elaborar este tipo de escaleras. El modelo llega nuestras tierras en un momento histórico de productivo intercambio cultural y profesional entre Francia y España. Vandelvira, Martínez de Aranda y Portor y Castro analizan en sus tratados la “vía de San Gil”. En la provincia de Cádiz, en la Iglesia Mayor de Medina Sidonia, se construirá el más perfecto de los caracoles abovedados de la España renacentista. También en la provincia de Cádiz y vinculadas, posiblemente, a los mismos maestros encontramos un curioso grupo de escaleras abovedadas con generatriz circular horizontal. A pesar del extenso catálogo de escaleras presentes en la tratadística española, no aparece ninguna que muestre una mínima relación con ellas. Desde el punto de vista de la geometría, estamos ante uno de los tipos de escaleras que describe Choisy en El arte de construir en Bizancio. Se trata de escaleras abovedadas construidas por hojas y lechos horizontales. Los caracoles abovedados tendrán también su versión poligonal: la vis Saint Gilles quarré o el caracol de emperadores cuadrado en su versión vandelviresca. Las soluciones que dibujan los tratados son de planta cuadrada, pero la ejecución será poligonal en los raros ejemplos construidos, que se encuentran exclusivamente en Francia. Su geometría es compleja: el intradós es una superficie reglada alabeada denominada cilindroide; su trazado requiere una habilidad extrema y al ser un tanto innecesaria desde el punto de vista funcional, fue muy poco construida. Otro tipo de escalera habitual es la que Vandelvira y Martínez de Aranda denominan en sus tratados “caracol exento”. Se trata de una escalera volada alrededor de un pilar, sin apoyo en una caja perimetral y que, por lo tanto, debe trabajar en ménsula. Su función fue servir de acceso a espacios de reducidas dimensiones como púlpitos, órganos o coros. Encontramos ejemplos de estos caracoles exentos en el púlpito de la catedral de Viena y en España, en la subida al coro de la Iglesia arciprestal de Morella en Valencia. El largo repertorio de escaleras de caracol prosigue en los tratados y en las múltiples soluciones que encontramos en arquitecturas civiles y religiosas en toda Europa. Hasta varios caracoles en una sola caja: dobles e incluso triples. Dobles como el conocido de Chambord, o el doble husillo del Convento de Santo Domingo en Valencia, rematado por un caracol de Mallorca; triples como la triple escalera del Convento de Santo Domingo de Bonaval en Santiago de Compostela. La tratadística española recogerá dos tipos de caracoles dobles, el ya comentado en una sola caja, en versiones con y sin machón central, definidos por Martínez de Aranda, Juan de Aguirre, Alonso de Guardia y Joseph Gelabert y el caracol doble formado por dos cajas diferentes y coaxiales. Vandelvira lo define como Caracol de Emperadores. Será el único tipo de caracol que recoja Cristobal de Rojas en su Teoría y Práctica de Fortificación. No hay duda que las escaleras de caracol han formado parte de un privilegiado grupo de elementos constructivos en constante evolución e investigación a lo largo de la historia de la arquitectura en piedra. Desde el cantero más humilde hasta los grandes maestros catedralicios las construyeron y, en muchos casos, crearon modelos nuevos en los pergaminos de sus propias colecciones o directamente sobre la piedra. Estos modelos casi experimentales sirvieron para encontrar trabajo o demostrar un grado de profesionalidad a sus autores, que les hiciera, al mismo tiempo, ganarse el respeto de sus compañeros. Gracias a esto, se inició un proceso ese proceso de investigación y evolución que produjo una diversidad en los tipos, sin precedentes en otros elementos similares, y la transferencia de procedimientos dentro del arte de la cantería. Los grandes autores del mundo de la piedra propusieron multitud de tipos y variantes, sin embargo, el modelo de estereotomía tradicionalmente considerado más complejo y más admirado es un caracol de reducidas dimensiones construido en el siglo XII: la Vis de Saint Gilles. Posiblemente ahí es donde reside la grandeza de este arte.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Contexto: La presente tesis doctoral se enmarca en la actividad de educción de los requisitos. La educción de requisitos es generalmente aceptada como una de las actividades más importantes dentro del proceso de Ingeniería de Requisitos, y tiene un impacto directo en la calidad del software. Es una actividad donde la comunicación entre los involucrados (analistas, clientes, usuarios) es primordial. La efectividad y eficacia del analista en la compresión de las necesidades de clientes y usuarios es un factor crítico para el éxito del desarrollo de software. La literatura se ha centrado principalmente en estudiar y comprender un conjunto específico de capacidades o habilidades personales que debe poseer el analista para realizar de forma efectiva la actividad de educción. Sin embargo, existen muy pocos trabajos que han estudiado dichas capacidades o habilidades empíricamente. Objetivo: La presente investigación tiene por objetivo estudiar el efecto de la experiencia, el conocimiento acerca del dominio y la titulación académica que poseen los analistas en la efectividad del proceso de educción de los requisitos, durante los primeros contactos del analista con el cliente. Método de Investigación: Hemos ejecutado 8 estudios empíricos entre cuasi-experimentos (4) y experimentos controlados (4). Un total de 110 sujetos experimentales han participado en los estudios, entre estudiantes de post-grado de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid y profesionales. La tarea experimental consistió en realizar sesiones de educción de requisitos sobre uno o más dominios de problemas (de carácter conocido y desconocido para los sujetos). Las sesiones de educción se realizaron empleando la entrevista abierta. Finalizada la entrevista, los sujetos reportaron por escrito toda la información adquirida. Resultados: Para dominios desconocidos, la experiencia (entrevistas, requisitos, desarrollo y profesional) del analista no influye en su efectividad. En dominios conocidos, la experiencia en entrevistas (r = 0.34, p-valor = 0.080) y la experiencia en requisitos (r = 0.22, p-valor = 0.279), ejercen un efecto positivo. Esto es, los analistas con más años de experiencia en entrevistas y/o requisitos tienden a alcanzar mejores efectividades. Por el contrario, la experiencia en desarrollo (r = -0.06, p-valor = 0.765) y la experiencia profesional (r = -0.35, p-valor = 0.077), tienden a ejercer un efecto nulo y negativo, respectivamente. En lo que respecta al conocimiento acerca del dominio del problema que poseen los analistas, ejerce un moderado efecto positivo (r=0.31), estadísticamente significativo (p-valor = 0.029) en la efectividad de la actividad de educción. Esto es, los analistas con conocimiento tienden a ser más efectivos en los dominios de problema conocidos. En lo que respecta a la titulación académica, por falta de diversidad en las titulaciones académicas de los sujetos experimentales no es posible alcanzar una conclusión. Hemos podido explorar el efecto de la titulación académica en sólo dos cuasi-experimentos, sin embargo, nuestros resultados arrojan efectos contradictorios (r = 0.694, p-valor = 0.51 y r = -0.266, p-valor = 0.383). Además de las variables estudiadas indicadas anteriormente, hemos confirmado la existencia de variables moderadoras que afectan a la actividad de educción, tales como el entrevistado o la formación. Nuestros datos experimentales confirman que el entrevistado es un factor clave en la actividad de educción. Estadísticamente ejerce una influencia significativa en la efectividad de los analistas (p-valor= 0.000). La diferencia entre entrevistar a uno u otro entrevistado, en unidades naturales, varía entre un 18% - 23% en efectividad. Por otro lado, la formación en requisitos aumenta considerablemente la efectividad de los analistas. Los sujetos que realizaron la educción de requisitos después de recibir una formación específica en requisitos tienden a ser entre un 12% y 20% más efectivos que aquellos que no la recibieron. El efecto es significativo (p-valor = 0.000). Finalmente, hemos observado tres hechos que podrían influir en los resultados de esta investigación. En primer lugar, la efectividad de los analistas es diferencial dependiendo del tipo de elemento del dominio. En dominios conocidos, los analistas con experiencia tienden a adquirir más conceptos que los analistas noveles. En los dominios desconocidos, son los procesos los que se adquieren de forma prominente. En segundo lugar, los analistas llegan a una especie de “techo de cristal” que no les permite adquirir más información. Es decir, el analista sólo reconoce (parte de) los elementos del dominio del problema mencionado. Este hecho se observa tanto en el dominio de problema desconocido como en el conocido, y parece estar relacionado con el modo en que los analistas exploran el dominio del problema. En tercer lugar, aunque los años de experiencia no parecen predecir cuán efectivo será un analista, sí parecen asegurar que un analista con cierta experiencia, en general, tendrá una efectividad mínima que será superior a la efectividad mínima de los analistas con menos experiencia. Conclusiones: Los resultados obtenidos muestran que en dominios desconocidos, la experiencia por sí misma no determina la efectividad de los analistas de requisitos. En dominios conocidos, la efectividad de los analistas se ve influenciada por su experiencia en entrevistas y requisitos, aunque sólo parcialmente. Otras variables influyen en la efectividad de los analistas, como podrían ser las habilidades débiles. El conocimiento del dominio del problema por parte del analista ejerce un efecto positivo en la efectividad de los analistas, e interacciona positivamente con la experiencia incrementando aún más la efectividad de los analistas. Si bien no fue posible obtener conclusiones sólidas respecto al efecto de la titulación académica, si parece claro que la formación específica en requisitos ejerce una importante influencia positiva en la efectividad de los analistas. Finalmente, el analista no es el único factor relevante en la actividad de educción. Los clientes/usuarios (entrevistados) también juegan un rol importante en el proceso de generación de información. ABSTRACT Context: This PhD dissertation addresses requirements elicitation activity. Requirements elicitation is generally acknowledged as one of the most important activities of the requirements process, having a direct impact in the software quality. It is an activity where the communication among stakeholders (analysts, customers, users) is paramount. The analyst’s ability to effectively understand customers/users’ needs represents a critical factor for the success of software development. The literature has focused on studying and comprehending a specific set of personal skills that the analyst must have to perform requirements elicitation effectively. However, few studies have explored those skills from an empirical viewpoint. Goal: This research aims to study the effects of experience, domain knowledge and academic qualifications on the analysts’ effectiveness when performing requirements elicitation, during the first stages of analyst-customer interaction. Research method: We have conducted eight empirical studies, quasi-experiments (four) and controlled experiments (four). 110 experimental subjects participated, including: graduate students with the Escuela Técnica Superior de Ingenieros Informáticos of the Universidad Politécnica de Madrid, as well as researchers and professionals. The experimental tasks consisted in elicitation sessions about one or several problem domains (ignorant and/or aware for the subjects). Elicitation sessions were conducted using unstructured interviews. After each interview, the subjects reported in written all collected information. Results: In ignorant domains, the analyst’s experience (interviews, requirements, development and professional) does not influence her effectiveness. In aware domains, interviewing experience (r = 0.34, p-value = 0.080) and requirements experience (r = 0.22, p-value = 0.279), make a positive effect, i.e.: the analysts with more years of interviewing/requirements experience tend to achieve higher effectiveness. On the other hand, development experience (r = -0.06, p-value = 0.765) and professional experience (r = -0.35, p-value = 0.077) tend to make a null and negative effect, respectively. On what regards the analyst’s problem domain knowledge, it makes a modest positive effect (r=0.31), statistically significant (p-value = 0.029) on the effectiveness of the elicitation activity, i.e.: the analysts with tend to be more effective in problem domains they are aware of. On what regards academic qualification, due to the lack of diversity in the subjects’ academic degrees, we cannot come to a conclusion. We have been able to explore the effect of academic qualifications in two experiments; however, our results show opposed effects (r = 0.694, p-value = 0.51 y r = -0.266, p-value = 0.383). Besides the variables mentioned above, we have confirmed the existence of moderator variables influencing the elicitation activity, such as the interviewee and the training. Our data confirm that the interviewee is a key factor in the elicitation activity; it makes statistically significant effect on analysts’ effectiveness (p-value = 0.000). Interviewing one or another interviewee represents a difference in effectiveness of 18% - 23%, in natural units. On the other hand, requirements training increases to a large extent the analysts’ effectiveness. Those subjects who performed requirements elicitation after specific training tend to be 12% - 20% more effective than those who did not receive training. The effect is statistically significant (p-value = 0.000). Finally, we have observed three phenomena that could have an influence on the results of this research. First, the analysts’ effectiveness differs depending on domain element types. In aware domains, experienced analysts tend to capture more concepts than novices. In ignorant domains, processes are identified more frequently. Second, analysts get to a “glass ceiling” that prevents them to acquire more information, i.e.: analysts only identify (part of) the elements of the problem domain. This fact can be observed in both the ignorant and aware domains. Third, experience years do not look like a good predictor of how effective an analyst will be; however, they seem to guarantee that an analyst with some experience years will have a higher minimum effectiveness than the minimum effectiveness of analysts with fewer experience years. Conclusions: Our results point out that experience alone does not explain analysts’ effectiveness in ignorant domains. In aware domains, analysts’ effectiveness is influenced the experience in interviews and requirements, albeit partially. Other variables influence analysts’ effectiveness, e.g.: soft skills. The analysts’ problem domain knowledge makes a positive effect in analysts’ effectiveness; it positively interacts with the experience, increasing even further analysts’ effectiveness. Although we could not obtain solid conclusions on the effect of the academic qualifications, it is plain clear that specific requirements training makes a rather positive effect on analysts’ effectiveness. Finally, the analyst is not the only relevant factor in the elicitation activity. The customers/users (interviewees) play also an important role in the information generation process.