750 resultados para máximas conversacionales
Resumo:
La aparición y avance de la enfermedad del marchitamiento del pino (Pine Wilt Desease, PWD), causada por Bursaphelenchus xylophilus (Nematoda; Aphelenchoididae), el nematodo de la madera del pino (NMP), en el suroeste de Europa, ha puesto de manifiesto la necesidad de estudiar la fenología y la dispersión de su único vector conocido en Europa, Monochamus galloprovincialis (Col., Cerambycidae). El análisis de 12 series de emergencias entre 2010 y 2014, registradas en Palencia, València y Teruel, con material procedente de diversos puntos de la península ibérica, demostró una alta variabilidad en la fenología de M. galloprovincialis y la divergencia térmica respecto de las poblaciones portuguesas. Para éstas, el establecimiento de los umbrales térmicos de desarrollo de las larvas post-dormantes del vector (12,2 y 33,5ºC) permitió la predicción de la emergencia mediana para la fecha en la que se acumulaban de 822 grados-día. Ninguna de las series analizadas en este trabajo necesitó de dichos grados-día estimados para la emergencia mediana. Asimismo, la emergencia se adelantó en las regiones más calurosas, mientras que se retrasó en las zonas más templadas. Más allá de la posible variabilidad entre poblaciones locales peninsulares, se detectaron indicios de que la diferencia en la acumulación de calor durante el otoño puede afectar el grado de maduración de las larvas invernantes, y su posterior patrón temporal de emergencia. Por último, también fueron observados comportamientos de protandria en las emergencias. Respecto a la fenología de su vuelo, entre los años 2010 y 2015, fueron ejecutados un total de 8 experimentos de captura de M. galloprovincialis mediante trampas cebadas con atrayentes en diferentes regiones (Castellón, Teruel, Segovia y Alicante) permitiendo el seguimiento del periodo de vuelo. Su análisis permitió constatar la disminución de las capturas y el acortamiento del periodo de vuelo con la altitud, el inicio del vuelo en el mes de mayo/junio a partir de los 14ºC de temperatura media diaria, la influencia de las altas temperaturas en la disminución de las capturas estivales (potencial causante de perfiles bimodales en las curvas de vuelo en las zonas menos frías), la evolución de la proporción de sexos a lo largo del periodo de vuelo (que muestra una mayor captura de hembras al inicio y de machos al final) y el comportamiento diurno y ligado a las altas temperaturas del vuelo circadiano del insecto. Dos redes de muestreo sistemático de insectos saproxílicos instaladas en la Comunitat Valencia (Red MUFFET, 15 parcelas, año 2013) y en Murcia (Red ESFP, 20 parcelas, años 2008-2010) permitieron el estudio de la comunidad de insectos relacionada con M. galloprovincialis. Cada una de las parcelas contaba con una trampa cebada con atrayentes y una estación meteorológica. El registro de más de 250 especies de coleópteros saproxílicos demostró el potencial que tiene el empleo de redes de trampas vigía para la detección temprana de organismos exóticos, además de permitir la caracterización y evaluación de las comunidades de entomofauna útil, representando una de las mejores herramientas de la gestión integrada de plagas. En este caso, la comunidad de saproxílicos estudiada mostró ser muy homogénea respecto a la variación ambiental de las zonas de muestreo, y que pese a las pequeñas variaciones entre las comunidades de los diferentes ecosistemas, el rol que M. galloprovincialis desempeña en ellas a lo largo de todo el gradiente estudiado es el mismo. Con todo, el análisis mediante redes de interacción mostró su relevancia ecológica al actuar de conector entre los diferentes niveles tróficos. Por último, un total de 12 experimentos de marcaje-liberación-recaptura desarrollados entre 2009 y 2012 en Castellón, Teruel, Valencia y Murcia permitieron evaluar el comportamiento dispersivo de M. galloprovincialis. Las detecciones mediante trampas cebadas de los insectos liberados se dieron por lo menos 8 días después de la emergencia. La abundancia de población pareció relacionada con la continuidad, la naturalización de la masa, y con la afección previa de incendios. La dispersión no estuvo influida por la dirección ni la intensidad de los vientos dominantes. La abundancia de material hospedante (en lo referente a las variables de masa y a los índices de competencia) influyó en la captura del insecto en paisajes fragmentados, aunque la ubicación de las trampas optimizó el número de capturas cuando se ubicaron en el límite de la masa y en zonas visibles. Por último también se constató que M. galloprovincialis posee suficiente capacidad de dispersión como para recorrer hasta 1500 m/día, llegando a alcanzar distancias máximas de 13600m o de 22100 m. ABSTRACT The detection and expansion of the Pine Wilt Desease (PWD), caused by Bursaphelenchus xylophilus (Nematoda; Aphelenchoididae), Pine Wood Nematode (PWN), in southwestern Europe since 1999, has triggered off the study of the phenology and the dispersion of its unique vector in the continent, Monochamus galloprovincialis (Coleoptera, Cerambycidae). The analysis of 12 emergence series between 2010 and 2014 registered in Palencia, Teruel and Valencia (Spain), registered from field colonized material collected at several locations of the Iberian Peninsula, showed a high variability in the emergence phenology of M. galloprovincialis. In addition, these patterns showed a very acute thermal divergence regarding a development model fitted earlier in Portugal. Such model forecasted the emergence of 50% of M. galloprovincialis individuals in the Setúbal Peninsula (Portugal) when an average of 822 degree-days (DD) were reached, based on the accumulation of heat from the 1st of March until emergence and lower and upper thresholds of 12.2 ºC and 33,5 °C respectively. In our results, all analyzed series needed less than 822 DD to complete the 50% of the emergence. Also, emergency occurred earlier in the hottest regions, while it was delayed in more temperate areas. Beyond the possible variability between local populations, the difference in the heat accumulation during the fall season may have affected the degree of maturation of overwintering larvae, and subsequently, the temporal pattern of M. galloprovincialis emergences. Therefore these results suggest the need to differentiate local management strategies for the PWN vector, depending on the location, and the climatic variables of each region. Finally, protandrous emergence patterns were observed for M. galloprovincialis in most of the studied data-sets. Regarding the flight phenology of M. galloprovincialis, a total of 8 trapping experiments were carried out in different regions of the Iberian Peninsula (Castellón, Teruel, Segovia and Alicante) between 2010 and 2015. The use of commercial lures and traps allowed monitoring of the flight period of M. galloprovincialis. The analyses of such curves, helped confirming different aspects. First, a decline in the number of catches and a shortening of the flight period was observed as the altitude increased. Flight period was recorded to start in May / June when the daily average temperature went over 14 ° C. A significant influence of high temperatures on the decrease of catches in the summer was found in many occasions, which frequently lead to a bimodal profile of the flight curves in warm areas. The evolution of sex ratio along the flight period shows a greater capture of females at the beginning of the period, and of males at the end. In addition, the circadian response of M. galloprovincialis to lured traps was described for the first time, concluding that the insect is diurnal and that such response is linked to high temperatures. Two networks of systematic sampling of saproxylic insects were installed in the Region of Valencia (Red MUFFET, 15 plots, 2013) and Murcia (Red ICPF, 20 plots, 2008-2010). These networks, intended to serve the double purpose of early-detection and long term monitoring of the saproxylic beetle assemblies, allowed the study of insect communities related to M. galloprovincialis. Each of the plots had a trap baited with attractants and a weather station. The registration of almost 300 species of saproxylic beetles demonstrated the potential use of such trapping networks for the early detection of exotic organisms, while at the same time allows the characterization and evaluation of useful entomological fauna communities, representing one of the best tools for the integrated pest management. In this particular case, the studied community of saproxylic beetles was very homogeneous with respect to environmental variation of the sampling areas, and despite small variations between communities of different ecosystems, the role that M. galloprovincialis apparently plays in them across the studied gradient seems to be the same. However, the analysis through food-webs showed the ecological significance of M. galloprovincialis as a connector between different trophic levels. Finally, 12 mark-release-recapture experiments were carried out between 2009 and 2012 in Castellón, Teruel, Valencia and Murcia (Spain) with the aim to describe the dispersive behavior of M. galloprovincialis as well as the stand and landscape characteristics that could influence its abundance and dispersal. No insects younger than 8 days were caught in lured traps. Population abundance estimates from mark-release-recapture data, seemed related to forest continuity, naturalization, and to prior presence of forest fires. On the other hand, M. galloprovincialis dispersal was not found to be significantly influenced by the direction and intensity of prevailing winds. The abundance of host material, very related to stand characteristics and spacing indexes, influenced the insect abundance in fragmented landscapes. In addition, the location of the traps optimized the number of catches when they were placed in the edge of the forest stands and in visible positions. Finally it was also found that M. galloprovincialis is able to fly up to 1500 m / day, reaching maximum distances of up to 13600 m or 22100 m.
Resumo:
En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
Resumo:
Las carreras cortas a máxima velocidad son acciones muy frecuentes en el voleibol, estando su importancia relacionada con la necesidad de llegar rápidamente a la posesión de un balón o a un espacio determinado en el campo de juego. El objetivo de este trabajo fue analizar las características del voleibol y reflexionar sobre la velocidad de jugadoras de voleibol utilizando un test de 9m partiendo de parados y un test de 3 metros. Cada deportista realizó tres series con un descanso intermedio de 5 minutos. Los resultados, se proporcionaron en tiempo real, datos de velocidades medias y máximas en tramos de 0-3m, 3-6m y 6-9m en el test de 9 metros, y 0-1.5m, 1.5-3m, 3-1.5m, 1.5-0m en el test de 3 metros. Se analizó, tanto en valores absolutos, las variables: la velocidad (máxima y media). En la primera parte del trabajo explicaremos cual ha sido el motivo de la elección del análisis de test de velocidad como principal objeto de estudio y comentaremos los objetivos tanto principales como específicos. En la segunda parte, definiremos las características del voleibol y los estudios precedentes sobre test de velocidad. A continuación, en la parte de resultados y discusión, mostraremos los datos, las gráficas y comparativas obtenidas del análisis de los dos test de velocidad. Podremos comprobar las diferencias de velocidades máximas en cada tramo, las correlaciones que tienen ambos test y los porcentajes de velocidad máxima en cada tramo. Finalmente, en la parte de conclusiones, en el que se justifica entre otras cosas, que las jugadoras de voleibol estudiadas son capaces de generar velocidades altas no solo en un sprint clásico como el de 9 metros en el que tienen espacio suficiente para acelerar, sino también en un espacio mucho más reducido y seguido de un cambio de sentido, como se produce en el test de 3 metros.
Resumo:
El entrenamiento de alto rendimiento en natación tiene una diversidad de exigencias que hacen que el nadador pueda alcanzar sus objetivos deportivos de máximo nivel gracias a la consecución de una óptima forma física en el día programado para la competición. En este duro camino influyen numerosos factores entre otros, la posibilidad de sufrir una lesión, hecho que es muy común durante la vida deportiva del nadador. La termografía se está abriendo camino en el mundo del deporte como una herramienta adicional a la hora de aportar datos complementarios para la prevención, seguimiento y recuperación de lesiones deportivas. El marco teórico de este trabajo hace referencia a los fundamentos y aplicaciones de la termografía dentro de la natación y hace un repaso sobre algunos aspectos característicos de este deporte. La parte práctica de este trabajo describe el material y método utilizado para el análisis termográfico de 10 nadadores dando como resultado un perfil térmico medio del nadador de tres clubes de natación de élite, que se caracteriza por ser simétrico con temperaturas medias máximas en los trapecios y valores de temperaturas ligeramente asimétricos (diferencia = 0,3ºC) únicamente en la parte anterior del codo del lado derecho. El trabajo puede considerarse un punto de partida para futuros estudios termográficos en el ámbito de la natación.
Resumo:
Cuando se trata de Rem Koolhaas, su espejo no refleja una sola imagen sino múltiples, es un prisma poliédrico. Su espejo nos devuelve el Rem mediático, el intelectual, el conceptualizador, el constructor, el analista, el periodista, el actor... En el caso de esta investigación, fijamos el punto de mira en el Rem COMUNICADOR. “Rem a los dos lados del espejo” se enmarca en una investigación sobre los medios de comunicación de arquitectura, su reflejo en la producción arquitectónica y viceversa. Se trata de llegar a discernir si comunicación y producción arquitectónica colisionan y confluyen en el caso de grandes comunicadores como Rem Koolhaas, si el mensaje y el medio transmisor adquieren las mismas cualidades. Centrándose en la figura de Rem Koolhaas, la tesis aborda la evolución de su faceta comunicativa y las transformaciones sucesivas en el campo de la comunicación arquitectónica, en paralelo a su evolución conceptual a lo largo de su trayectoria. La investigación, por tanto, no se centra tanto en su componente teórica o en la práctica arquitectónica de OMA, sino en la exposición de su producción al mundo, especialmente a través de sus ensayos y libros. “Delirious New York” y “SMLXL” son un reflejo del momento conceptual en que se inscriben, y contienen mucha información sobre los referentes gráficos que irremediablemente han influido en su composición. Especialmente, la aparición de “SMLXL” supuso un revulsivo para el mundo de la comunicación arquitectónica, porque puso el foco sobre la importancia de dejar atrás un discurso narrativo linea y unifocal, para afrontar la comunicación barajando múltiples variables, y aproximaciones, en un proceso similar al desarrollo de un proyecto de arquitectura. Presenta un diseño muy novedoso y una edición extremadamente cuidada, que atiende a parámetros mucho más ambiciosos que los meramente narrativos. Profundiza en la necesidad de una temática global, planteando cuál es la aproximación más apropiada para cada uno de los proyectos que describe, transmitiendo al lector una percepción más allá de lo estrictamente visual, más próximo a lo sensorial. Además, su enorme repercusión a nivel internacional y el gran interés que despertó (no solamente entre los arquitectos, sino también entre diseñadores gráficos, publicistas, personas provenientes de todo tipo de tendencias artísticas y público en general), provocó la globalización del fenómeno de las publicaciones arquitectónicas y puso de manifiesto la importancia de la comunicación como una disciplina en sí misma, dentro de la producción arquitectónica en la era actual. A pesar de la importancia de “SMLXL” a todos los niveles, la presente tesis plantea que, donde realmente se culmina esa experiencia comunicativa, es en “Content”, al incluir nuevos parámetros relacionados con la fusión conceptual de continente y contenido. Es en esta publicación donde el objeto de la comunicación y la expresión de la misma se convierten en un único elemento, que se rige por leyes similares. En este caso, la ley fundamental es la aplicación hasta sus máximas consecuencias de la “cultura de la congestión”, tanto en el mensaje como en el medio, generando lo que hemos convenido en denominar “comunicación congestiva”. Esta concepción deviene en que necesariamente se materialice como un producto efímero, desechable, casi virtual, porque responde a las condiciones de un momento muy concreto y específico y fuera de ese contexto pierde su significación.. La “cultura de la congestión” empieza a surgir en los planteamientos de Koolhaas en la Architectural Association School of Architecture de Londres, bajo la tutela de Elia Zenghelis. Posteriormente se desarrolla en su manifiesto retroactivo sobre Manhattan, “Delirious New York”, donde declara la guerra abierta al urbanismo del movimiento moderno y afirma que la ciudad realmente contemporánea es aquella que es fruto de un desarrollo no planificado, hiperdensa y posible gracias a los avances tecnológicos de su era. Finalmente comienza a materializarse en la Diploma Unit 9 de la AA, donde entra como profesor en 1975, dejando una huella indeleble en las generaciones posteriores de arquitectos que pasaron dicha unidad. Rem Koolhaas es ante todo un intelectual y por ello, todo el constructo teórico sobre la metrópolis comienza a reflejarse en su obra a través de OMA desde el comienzo de su producción. Podemos decir a grandes rasgos que su carrera está marcada por dos hitos históricos fundamentales que determinan tres etapas diferenciadas en su producción. En sus primeros años de profesión, Koolhaas sigue fascinado por la metrópolis urbana y la aplicación del método paranoico crítico a su producción arquitectónica. Es un arquitecto profundamente surrealista. Entiende este método como una estrategia de conocimiento y aproximación al mundo que le rodea: “dejar salir el inconsciente pero sostenerlo con las muletas de la racionalidad”. Pero lo que en realidad le interesa es su aplicación a la gran escala, el “Bigness”, y por ello, participa en proyectos muy ambiciosos de los que surgen conceptos que, más allá de resultar premiados o no, han dejado una huella ideológica en el devenir de la arquitectura. Entre estos proyectos, cabe destacar su propuesta para el Parque de la Villette o la Très Grande Bibliotèque de París. Sus proyectos de esta época destilan una gran carga conceptual, que devienen en unos interiores sorprendentes pero una apariencia exterior sobria o incluso podríamos decir "povera", por el uso de materiales efímeros, poco habituales en la macro-arquitectura hasta ese momento. Súbitamente, en 1997, explotó el denominado “Efecto Bilbao”, de la mano de Frank Gehry (1). El Museo Guggenheim de Bilbao, con su espectacularidad, sus formas pregnantes e imposibles, impacta al mundo. Nace la era de la “Arquitectura del Espectáculo”; la transformación de la ciudad a través de ICONOS que actúen como nodos de atracción y concentración en torno a los cuales supuestamente se revitaliza la actividad económica, cultural y sociopolítica de la ciudad, como si a través de un único gesto se pudieran regenerar todos los tejidos internos de la urbe. Rem Koolhaas comprende rápidamente que la aproximación a la ciudad ha cambiado y, sobre todo, el mercado. En el mundo de la globalización, la única manera de llegar a materializar el “Bigness”, es encerrando sus ejercicios intelectuales en formas pregnantes, bellas, icónicas, espectaculares. Koolhaas encuentra su marca personal en la estética “Stealth”, proveniente de los aviones de combate facetados para evitar los radares, elaborados en los años 80. De esta época surgen proyectos como la Casa da Música de Oporto o la Biblioteca de Seattle; ambos edificios son iconos facetados, de belleza pregnante, que dejan una huella indeleble en la ciudad y provocan, al igual que el Guggenheim, un cierto efecto de recuperación y revitalización en el entorno en que se asientan, al menos de manera temporal. En cualquier caso, Koolhaas nunca abandona los ejercicios meramente teóricos, pero segrega su actividad en dos: OMA produce aquello que tiene vocación de ser construido y se rige por los parámetros del mercado global y AMO, la otra cara del espejo de Rem, aplica el pensamiento arquitectónico a campos no explorados, sin la dependencia de agentes externos, pudiendo permitirse ser un laboratorio puramente experimental. En este escenario, llega el 11 de septiembre de 2001 y el ataque a las Torres Gemelas de Nueva York tiene efectos devastadores a todos los niveles, significando, en un período de tiempo sorprendentemente corto, un cambio en el orden mundial. Rem Koolhaas da entonces un giro de 180 grados, dirige su mirada hacia China, donde entiende que sus aportaciones tienen un beneficio social más directo que en occidente. (2) Para presentar al mundo su nuevo cambio de rumbo y la creación del “Think Tank” AMO, plantea una gran exposición en la NeueGallerie de Berlín bajo el título de “Content”, experiencia paralela a la edición del libro con el mismo título, que inicialmente nace como “catálogo de la exposición, pero que internamente siempre se concibió como el documento más trascendente en el estudio desde “SMLXL”. Sin embargo, en muchos aspectos se trata de su opuesto: una publicación con formato revista, de tapa blanda, con paginado muy fino, formato de "folleto de supermercado" y contenido hiperdenso. Es un experimento efímero, fugaz, ligero, barato, de “usar y tirar”. De hecho, está fuera de stock, ya no se edita. Probablemente Rem Koolhaas desaprobaría que se hiciera una investigación que pusiera el foco sobre el mismo, porque diez años después de su publicación seguramente opine que su vigencia ha caducado. Sin embargo, muestra con una claridad meridiana el estado conceptual y vital de OMA en el momento de su publicación y representa, además un verdadero hito en la comunicación arquitectónica, un punto de no retorno, el máximo exponente de lo que hemos denominado “comunicación congestiva”. La presente tesis plantea que “Content” contiene la esencia de la mayor aportación de Rem Koolhaas al mundo de la arquitectura: la transformación profunda y definitiva de la comunicación arquitectónica mediante la convergencia del estado conceptual y la transmisión del mismo. Su legado arquitectónico y conceptual ha marcado a todas las generaciones posteriores de manera indeleble. Sus ensayos, sus teorías, sus proyectos y sus edificaciones ya pertenecen a la historia de la arquitectura, sin ninguna duda. Pero es su revisión del concepto de la comunicación en arquitectura lo que ha tenido y tendrá un reflejo inmediato en las generaciones futuras, no solamente en la comunicación sino en su arquitectura, a través de un intercambio biyectivo. El planteamiento a futuro sería determinar qué sucede tras “Content”, tras la hiperdensidad máxima, tras la cultura de la congestión visual; qué es lo que propone Koolhaas y qué se va a plantear también en el mundo de la comunicación arquitectónica. Para ello, estudiaremos en profundidad sus últimos proyectos relacionados con la comunicación, como su propuesta para la Biennale de Arquitectura de Venecia de 2014, su intensa investigación sobre el “Metabolismo” en “Project Japan: Metabolism Talks...”, o la dirección de sus últimos planteamientos territoriales. En los últimos tiempos Rem Koolhaas habla de “Preservación”, de “Sobriedad”, de “Esencialismo”, de “Performance”... El autor intelectual de la cultura de la congestión habla ahora de la “low density”...como no podía ser de otra manera en la otra cara del espejo. En definitiva, el color blanco como suma de todos los colores, todas las longitudes de onda del espectro visible recibidas al tiempo. ABSTRACT When talking about Rem Koolhaas, the mirror does not only reflect one but numerous images: it is nothing but a polyhedral prism. His mirror gives us the image of Rem the media celebrity, the intellectual, the conceptualizer, the builder, the analyst, the journalist, the actor... This research sets the spotlight on Rem the COMMUNICATOR. "Rem on both sides of the mirror" belongs to a research on architectural media, its influence on the architectural production and vice versa. It is aimed at getting to discern whether communication and architectural production collide and converge in the case of great communicators such as Rem Koolhaas, and whether the message and transmission media acquire the same features. Focusing on the figure of Rem Koolhaas, this thesis addresses the evolution of his communicative facet and the successive transformations in the field of architectural communication, parallel to the conceptual evolution he underwent throughout his career. Therefore, this research is not so much focused on his theoretical component or on the OMA’s architectural practice, but on the exhibition of his production to the world, especially through his essays and books. "Delirious New York" and "SMLXL" hold up a mirror to the conceptual moment they are part of, and contain a great deal of information about the graphic references that have inevitably influenced his work. Specially, the launch of "SMLXL" was a salutary shock for the architectural communication world, since it set the spotlight on the importance of leaving a linear and unifocal narrative behind in order to face communication considering multiple variables and approaches, based on a process similar to the development of an architectural project. It offers a very innovative design and an extremely careful editing, which deals with parameters much more ambitious than those merely narrative. It explores the need for a global subject and suggests the most appropriate approach for each of the projects described, giving the reader a closer insight to the sensory that goes beyond what’s strictly visual. In addition, its huge international impact and the great interest shown, not only by architects but also by graphic designers, publishers, people from all kinds of artistic trends and the general public, led to the globalisation of the architectural publications phenomenon and brought the importance of communication as a discipline in itself, within the architectural production in the age at hand, to light. Despite the importance of "SMLXL" at all levels, this thesis suggests that the communication experience really culminates in "Content", for it includes new conceptual parameters associated with the container-content conceptual fusion. It is in this book where the purpose of communication and the expression of such become a single element, ruled by similar laws. In this particular case, the fundamental law is to implement the "culture of congestion" to its extreme consequences in both the message and the media, leading to what we have agreed to refer to as "congestive communication”. This concept leads to its inevitable materialisation into an ephemeral, disposable, almost virtual product, because it meets the conditions of a very concrete and specific time, and outside that context it loses its significance. The "culture of congestion" emerged in Koolhaas’ approaches under the guidance of Elia Zenghelis, in the Architectural Association School of Architecture of London. Subsequently, his retroactive manifesto on Manhattan, "Delirious New York" developed it, waging an all-out war against the modern movement urbanism and maintaining that the really contemporary cities are those hyperdense ones that rise as a result of an unplanned development and thanks to the typical technological advances of their time. Finally it began to materialise in the Diploma Unit 9 of the AA, in which he started lecturing in 1975, leaving an indelible mark on subsequent generations of architects who passed that unit. First and foremost, Rem Koolhaas is an intellectual and, therefore, all the theoretical construct in the metropolis began to be reflected in his work through OMA since the beginnings of his production. Broadly speaking, we can say that his career is influenced by two essential historic events, which determine three different stages in his production. In the early years of his career, Koolhaas was still fascinated by the urban metropolis and the implementation of the paranoiac-critical method to his architectural production. He was then a deeply surreal architect. He understood this method as a knowledge strategy and an approach to the world around him: "let the subconscious out but hold it with the crutches of reasonableness”. However, he was actually interested in its implementation on a broad scale, the "Bigness", and therefore, he took part in ambitious projects that led to the accrual of concepts that, beyond being rewarded, left an ideological impression on the evolution of architecture. These projects included his proposal for the Parc de la Villette or the Très Grande Bibliotèque in Paris. The projects he carried out during this period showed a great conceptual background, which evolved into surprising interiors but a sober, or even "povera", exterior appearance, thanks to the use of ephemeral materials that were atypical in the macro-architecture field until that moment. Suddenly, in 1997, the so-called "Bilbao effect" boomed thanks to Frank Gehry (1). The Guggenheim Museum of Bilbao amazed the world with its spectacular nature and its pregnant and impossible shapes. It was the beginning of the era of “The architecture of spectacle”: the transformation of the city through ICONS that would act as nodes of attraction and gathering, around which the economic, cultural and socio-political activity of the city was supposed to be revitalized, as if through a single gesture all internal tissues of the city could be rebuilt. Rem Koolhaas quickly realized that the approach to the city, and especially to the global market, had changed. In the world of globalisation, the only way to get to materialise such "Bigness" was by keeping his intellectual exercises in pregnant, beautiful, iconic and spectacular shapes. Koolhaas found his personal brand in the Stealth aesthetic, resulting from the eighties American combat aircrafts whose shape was faceted in order to avoid radars. Projects such as the Casa da Música in Porto or the Seattle Library date from this period; both buildings are faceted icons of pregnant beauty that left an indelible mark on the city and caused, like the Guggenheim, some degree of recovery and revitalization on the environment in which they were based, at least temporarily. In any case, Koolhaas never gave the merely theoretical exercises up, but he segregated his work in two: OMA produced what was destined to be built and ruled by the parameters of the global market and AMO, Rem’s other side of the mirror, applied the architectural thought in unexplored fields, notwithstanding external agents and being able to work as a purely experimental laboratory. In light of this backdrop, September 11th 2001 came and the attacks on the Twin Towers in New York had devastating effects at all levels, leading to a change in the world order, in a surprisingly short period of time. Rem Koolhaas made a 180° turn directing his vision towards China, where he believed his contributions would have a more direct social benefit than in the Western world. (2) In order to introduce his new course of direction and the creation of the AMO "Think Tank", he planned a major exhibition in the Neue Nationalgalerie of Berlin under the title "Content", in parallel with edition of the book with the same title, which was at first the "exhibition catalog” but, deep down, was always conceived as the most important document of the Office since "SMLXL". However, in many ways it was just the opposite: a publication characterised by its magazine format, soft cover, very fine paging, "supermarket brochure" form and hyperdense content. It was an ephemeral, brief, light, cheap and "disposable" experiment. In fact, it is currently out of stock and out of print. Rem Koolhaas would probably disapprove of a research that sets the spotlight on him, for he would probably say that his validity has expired given that it has been ten years since its publication. However, it shows OMA’s conceptual and vital status at the time of its publication with crystalline clarity and it is also a true milestone in architectural communication. A point of no return. The epitome of the so-called "congestive communication ". This thesis suggests that "Content" contains the essence of Rem Koolhaas’ greatest contribution to the world of architecture: the deep and definitive transformation of architectural communication through the convergence of the conceptual state and the transmission thereof. His architectural and conceptual legacy has left an indelible mark on all subsequent generations. There is no doubt his essays, theories, projects and buildings already belong to the history of architecture. But it is his review on the concept of communication in architecture that has had and shall have an immediate influence on future generations, not only in their communication but also in their architecture, through a bijective exchange. Future approaches should try to determine what happens after "Content", after the maximum hyperdensity, after the visual culture of congestion; what shall Koolhaas suggest as well as what shall happen in the world of architectural communication. To this end, we shall study his latest communication-related projects, such as the design of the Venetian Architecture Biennale in 2014, his intensive research on the "Metabolism" in "Project Japan: Metabolism Talks ...", or the course of his latest territorial approaches in depth. Most recently, Rem Koolhaas has talked about "Preservation", "Sobriety" of "Essentialism", "Performance", etc. The mastermind of the culture of congestion now speaks of the "low density"... as it could not be otherwise, on the other side of the mirror. Summarizing, the white color as the sum of all colors; all wavelengths of the visible spectrum received at the same time.
Resumo:
En la carrera de aproximación del salto de longitud el atleta trata de alcanzar la máxima velocidad controlable hasta la tabla de batida, momento en el que se transfiere toda la energía adquirida en la carrera al salto. Este parámetro por tanto influye en el rendimiento final del salto. El objetivo de este trabajo (a través de revisión bibliográfica) fue analizar las diferentes formas de gestionar la velocidad a lo largo de la carrera de aproximación, en la competición y la posible diversidad entre sexos. La base del trabajo son los datos de un estudio científico con datos inéditos de velocidades máximas en el Campeonato de Madrid de salto de longitud (Ferro et al, 2012b). A partir de esos resultados se ha comprobado las diferentes formas de gestionar la velocidad entre hombres y mujeres, las mayores diferencias se observan en los intervalos 5-3 m y 3-1 m hasta la tabla de batida.
Resumo:
El conjunto endokárstico de La Galiana (Cañón del río Lobos, Cordillera Ibérica, provincia de Soria) está formado por tres niveles de galerías horizontales (La Galiana Alta, La Galiana Baja y Cueva del Lago) localizadas a 1099, 966 y 953 m s.n.m. respectivamente. Representan niveles de estabilización de la superficie freática y su nivel de base fluvial. El contexto geomorfológico y los datos paleomagnéticos indican que coladas estalagmítica de La Galiana Alta son anteriores a los 3,596 Ma. Por otro lado, la edad U/Th más antigua obtenida en espeleotemas de La Galiana Baja es de 224 ka. Las diferencias altimétricas entre galerías (133 y 13 m) y edades obtenida permiten calcular tasas máximas de encajamiento fluvial entre 39 y 58 mm/ka.
Resumo:
Los elementos estructurales empleados en construcción no han sido en general diseñados para soportar acciones impulsivas, como la detonación de artefactos explosivos. Desde el siglo pasado el mundo ha sufrido ataques terroristas en los que en muchos casos se han producido explosiones que causaron víctimas, heridos y la destrucción de las construcciones próximas. Debido a este hecho, instituciones públicas y privadas comenzaron a mostrar interés por el comportamiento de los elementos estructurales que componen sus instalaciones. El hormigón armado es uno de los principales materiales utilizados en las estructuras de obras debido a sus buenas características, cuyo análisis y modelización en deformaciones dinámicas supone un campo de desafíos al que se está prestando gran atención en los últimos años. LS-DYNA® es un programa basado en elementos finitos capaz de simular problemas reales complejos en el que se han desarrollado distintos modelos de hormigón. Tres de esos modelos (K&C, RHT y CSCM) son evaluados con losas de distintos tamaños de mallado de elementos finitos frente a la detonación de 2 kg de TNT situados a 1 m de distancia. Dichos modelos son simulados y se obtienen los valores de las aceleraciones máximas en unos determinados puntos de las losas. Los valores son sometidos a la aplicación del Método GCI (Grid Convergence Index) para una relación de refinamiento de mallado no constante, cuyos resultados se comparan con aquellos registrados en los acelerómetros empleados durante la primera fase de ensayos del Proyecto SEGTRANS. Mediante el análisis de los resultados obtenidos se determina cual es el modelo de material y tamaño de mallado más adecuado que pueda emplearse en un futuro para poder modelar estructuras más complejas y con niveles de explosivo más elevados.
Resumo:
Micro-organismos fotossintetizantes, incluído aqui o gênero Arthrospira, vêm sendo amplamente produzidos em larga escala em vários países, detendo um mercado que gera mais de 1 bilhão de dólares ao ano. A produção industrial utiliza grande volume de água com alta concentração salina para produzir milhares de toneladas de biomassa microalgal. É crescente a utilização de tratamento de águas por processo de separação por membranas, demonstrando ser uma técnica que gera água de ótima qualidade, de instalação compacta e de fácil automação. No presente trabalho, foi avaliada esta tecnologia para o reaproveitamento do meio de cultura em novos cultivos de micro-organismos fotossintetizantes, visando contribuir para a sustentabilidade deste processo produtivo. O efluente do cultivo de Arthrospira platensis oriundo de processo descontínuo em minitanques foi submetido a tratamento por membranas de filtração tangencial, incluindo microfiltração (MF) (porosidades de 0,65 µm e de 0,22 µm) e ultrafiltração (UF) (peso molecular de corte de 5.000 Da), em pressões transmembrana (TMP) de 22,5 a 90 kPa. Os processos de MF levaram a reduções médias de 53,9±1,3 % e 93,1±1,1 % de matéria orgânica natural (NOM) e pigmentos nos meios residuais, respectivamente. Com o uso de processos de UF, cujos meios foram previamente tratados por MF (0,22 µm e 22,5 kPa), as reduções médias de NOM e pigmentos foram de 57,2±0,5 % e 94,0±0,8 %, respectivamente. Os processos de MF com TMP de 22,5 kPa levaram a concentrações celulares máximas (Xm) equivalentes às obtidas com meio novo. O uso de membrana de 0,65 µm e TMP de 22,5 kPa levou a uma perda média de 2,9 %, 22,7 % e 16,4% dos nutrientes carbonato, fosfato e nitrato, respectivamente, mas a correção desses valores aos mesmos do meio padrão levou à obtenção dos mais altos valores de Xm (3586,6±80 mg L-1), produtividade em células (505,0±11,6 mg L-1 d-1) e fator de conversão de nitrogênio em células (29,6±0,7 mg mg-1). O teor protéico da biomassa foi estatisticamente igual ao da biomassa obtida de cultivo com meio padrão novo. Os dados deste trabalho evidenciam que processos de filtração por membrana são promissores para o reuso de meio de micro-organismos fotossintetizantes.
Resumo:
INTRODUÇÃO: A prevalência de asma tem crescido e a maioria dos pacientes com asma grave não obtém o controle total dos sintomas com as terapias disponíveis, fazendo-se necessária a busca por novas alternativas terapêuticas. Inibidores de proteinases têm sido estudados como tratamento de processos inflamatórios, dentre eles o Enterolobium contortisiliquum Tripsin Inhibitor (EcTI) OBJETIVO: Avaliar se o inibidor de proteinase EcTI modula a hiperresponsividade brônquica à metacolina, inflamação, remodelamento e estresse oxidativo nas vias aéreas e septos alveolares em um modelo experimental de inflamação pulmonar alérgica crônica. MÉTODOS: Vinte e quatro camundongos Balb/c machos, entre seis e sete semanas de vida, pesando em media 25 g foram divididos em quatro grupos: C (controle), OVA (sensibilizados com ovalbumina, 50 ug intraperironeal (i.p) nos dias 0 e 14 e desafiados nos dias 22, 24, 26, 28); C+EC (controle tratados com EcTI (2 mg/kg/i.p) nos dias 22 a 28); OVA+EC (sensibilizados e desafiados com ovalbumina e também tratados com EcTI (2 mg/kg -i.p) nos dias 22 a 28). No dia 29, foram realizadas realizadas: (i) hiperresponsividade à metacolina e obtidas as respostas máximas de resistência e elastância do sistema respiratório; (ii) análise histopatológica do pulmão para quantificação de eosinófilos, fibras colágenas e elásticas nas vias aéreas (VA) e nos septos alveolares (SA); e (iii) imunohistoquímica para quantificação de células positivas para IFN-y, IL-4, IL-5, IL-13, MMP-9, TIMP-1, TGF-beta, iNOS, NF-kB e fração de volume de isoprostano nas VA e nos SA. Uma semana após o dia 29 foi realizada a técnica de anafilaxia cutanea passiva(PCA) para quantificar IgE e IgG1. A significância foi considerada quando p < 0,05. RESULTADOS: Houve aumento de todos os parâmetros avaliados no grupo OVA em relação ao grupo controle (p < 0,05). Houve atenuação da resposta máxima de Rrs e Ers no grupo OVA+EC comparado as grupo OVA (p < 0,05). O tratamento com EcTI nos animais sensibilizados atenuou o número de eosinófilos, células positivas para IL-4, IL-5, IL-13,IFN-y, iNOS, MMP-9, TIMP-1, NF-kB e TGF-beta e fração de volume de isoprostano, fibras colágenas e elásticas nas vias aéreas e nos séptos alveolares quando comparado ao grupo OVA (p < 0,05).Houve reaçao de PCA nos animais sensibilizados com ovalbumina. CONCLUSÃO: EcTI atenuou a hiperresponsividade brônquica, a inflamação, o remodelamento e o estresse oxidativo nesse modelo experimental de inflamação pulmonar alérgica crônica. Embora sejam necessários mais estudos, esse inibidor pode ser considerado uma futura ferramenta farmacológica para o tratamento de asma
Resumo:
A região de Caçapava do Sul, no Estado do Rio Grande do Sul, compreende, principalmente, a quadrícula de mesmo nome e abrange cerca de 11.000 Km². A referida região é caracterizada pela ocorrência de um batólito granítico (Granito Caçapava) com afloramento de 25 x 10 Km, orientado no sentido N-S, e sobre o qual assenta-se a cidade supracitada. O Granito Caçapava é circundado por um cinturão de metamorfitos pertencentes à Formação Vacacaí, Grupo Porongos (Pré-Cambriano Superior) (RIBEIRO et alii, 1966). Dentre os metamorfitos situa-se um corpo de rochas carbonatadas de aspecto lenticular, com contatos nítidos, interprenetrado po apófises graníticas e com afloramento de aproximadamente 17 Km². Foram estudadas amostras deste corpo de rochas por meio de microscopia, microssonda eletrônica, difratometria e espectometria de raios X e análise química por via úmida, com o objetivo de identificar e caracterizar os minerais carbonáticos e silicáticos. Por meio de técnicas de coloração, foi possível a distinção de dolomita (Do), calcita (Cc) e calcita ferrífera (Ccf). As análises modal e química indicaram predominância de carbonatos sobre silicatos, estando estes últimos relacionados mais às bandas da rocha. Os minerais silicáticos detectados foram: talco, tremolita, diopsídio, forsterita, clorita e flogopita. Em menores quantidades aparecem titanita, apatita e quartzo, sendo comum, também, a serpentina oriunda de alteração da forsterita. Lançados em mapa, os minerais índices mostraram a existência de um zoneamento metamórfico com rochas pertencentes à Fácies Piroxênio Hornfels, próximo ao contato, e de rochas da Fácies Albita-Epídoto Hornfels, em porções mais distantes, evidenciando assim, metamorfismo térmico. Com base em diagramas T-\'X GRAUS\'C \'O IND.2\' para o sistema CaO-MgO-Si \'O IND.2\'-\'CO IND.2\'-\'H IND. 2\'O, foi analisado o metamorfismo destas rochas e estimadas as temperaturas máximas da ordem de \'560 GRAUS\'C, compatíveis com as temperaturas magmáticas do Granito Caçapava. A conclusão final advinda com os estudos ora realizados, sobre essas rochas carbonáticas, aponta no sentido de se tratarem de MÁRMORES DOLOMÍTICOS IMPUROS DE CONTATO, gerados durante o Ciclo Brasiliano (680 a 500 m.a.).
Resumo:
O objetivo do presente trabalho foi determinar a força de cisalhamento Warner-Bratzler do músculo Longissimus lumborum de animais zebuínos machos inteiros (Bos indicus) durante o período de maturação, nas faixas de pH final (pHf 48 horas post mortem) normal (pH entre 5,5 e 5,8) e anormal (pH entre 5,81 e 6,19) e temperaturas internas de cozimento. Concomitante com a avaliação de força de cisalhamento, foram avaliadas também a degradação da desmina e troponina T, o comprimento do sarcômero, o teor de colágeno total e solúvel, as temperaturas máximas de desnaturação das proteínas e a morfologia geral de agregação das fibras do músculo no cozimento. A degradação da desmina e troponina T foi maior no pHf normal, aparecendo produtos de degradação a partir do dia 7 nessa faixa de pHf. Não houve diferenças nos valores de comprimento do sarcômero, descartando-se assim, a contribuição desse parâmetro sobre a temperatura máxima de desnaturação (Tmáx) das proteínas, determinada utilizando calorímetro exploratório diferencial (DSC). Similarmente, não foram encontradas diferenças para os teores de colágeno total e solúvel, e os valores de colágeno total foram baixos, sugerindo que sua contribuição na segunda transição térmica e nos valores de força de cisalhamento foi mínima. As Tmáx1 e Tmáx2, correspondentes à desnaturação da meromiosina leve e pesada, respectivamente, foram menores no pHf normal, mas o efeito foi maior para a Tmáx2. A Tmáx3 da actina e titina aumentou até 14 dias post mortem na faixa de pHf normal, e posteriormente diminuiu significativamente após 21 dias, sugerindo possível degradação dessas proteínas nesse período de dias. Não foram encontradas diferenças nos valores de Tmáx no pHf anormal, em todos os dias post mortem, o que sugere a contribuição de um possível mecanismo de proteção que estabiliza as miofibrilas no aquecimento. Houve maior agregação das fibras do músculo no pHf normal nas temperaturas internas de cozimento de 65 e 80°C, provavelmente devido à maior desnaturação térmica das miofibrilas. Os valores de força de cisalhamento foram maiores com o aumento da temperatura interna de cozimento, devido ao aumento da desnaturação térmica das miofibrilas do músculo. Independente da temperatura interna de cozimento, os valores de força de cisalhamento foram altos em quase todos os dias post mortem para ambas as faixas de pHf, o que sugere a necessidade de utilizar métodos físicos ou químicos para aumentar a maciez do músculo Longissimus lumborum de animais zebuínos.
Resumo:
Introdução: A DPOC é uma doença respiratória prevenível e tratável, caracterizada por limitação persistente ao fluxo aéreo, hiperinsuflação e aprisionamento aéreo. A dispneia e a intolerância aos esforços, decorrentes destas alterações fisiopatológicas sofre influência de vários fatores. Dentre estes, o recrutamento e a sobrecarga imposta aos músculos inspiratórios e expiratórios são de fundamental importância, porém a participação destes ainda não foi completamente elucidada em diferentes gravidades da doença. Objetivos: O objetivo principal deste estudo foi avaliar a mecânica ventilatória, e o grau de recrutamento da musculatura inspiratória e expiratória na DPOC leve e grave, na condição de repouso e durante um teste máximo de exercício, comparado a um grupo de indivíduos saudáveis. Metodologia: Trata-se de um estudo transversal envolvendo 36 indivíduos, sendo 24 pacientes portadores de DPOC e 12 voluntários sadios. As avaliações foram divididas em 2 visitas. No D1, foram realizadas uma avaliação clínica, avaliação de dispneia (mMRC) e de qualidade de vida (SGRQ), além da prova de função pulmonar completa. Na 2ª visita, realizada com intervalo de 1 semana, foram avaliadas: as pressões respiratórias máximas estáticas por meio de métodos volitivos (PImax, PEmax, SNIP, Pes sniff, Pga sniff e Pdi sniff) e não volitivos (Twitch cervical bilateral e T10); avaliação da sincronia toracoabdominal por pletismografia de indutância; avaliação do recrutamento dos músculos inspiratórios e expiratórios ao repouso pela eletromiografia de superfície; e, posteriormente, um teste de exercício cardiopulmonar incremental para estudo de todas essas variáveis no esforço. Resultados: Foram avaliados 24 pacientes (12 leves e 12 graves) e 12 indivíduos saudáveis da mesma faixa etária. A maioria dos pacientes apresentava comprometimento significativo da qualidade de vida e os pacientes do grupo grave eram mais sintomáticos. A função pulmonar encontrava-se alterada na maioria dos pacientes. Destes, 79,2% apresentavam aprisionamento aéreo e 70,8% tinham redução da DLCO. Tais alterações foram semelhantes nos 2 grupos de pacientes. A força muscular estática medida por métodos volitivos e não volitivos estava reduzida nos 2 grupos e mostrou relação com o VEF1. No exercício, a dispneia foi o principal motivo para interrupção do teste em 70% dos pacientes. A HD esteve presente em 87,5% dos pacientes. O comportamento das pressões respiratórias foi significativamente diferente entre os 3 grupos. Os pacientes com DPOC apresentaram maior atividade diafragmática (Pdi) comparado aos controles e a participação da musculatura expiratória também foi maior neste grupo, principalmente nos graves. Apesar disso, os pacientes com DPOC apresentaram uma eficiência mecânica reduzida, ou seja, esse incremento da força muscular foi insuficiente para manter uma ventilação adequada para uma determinada carga. Com o aumento da demanda ventilatória, houve recrutamento precoce e progressivo dos músculos inspiratórios e expiratórios durante o exercício. O trabalho resistivo e o expiratório foram significativamente diferentes entre os controles e os pacientes com DPOC desde o início do exercício. Como consequência destas alterações, a intensidade da dispneia durante o TECP foi maior nos pacientes com DPOC (leve e grave) para a mesma carga e mesma ventilação-minuto (VE), quando comparada aos indivíduos do grupo-controle. Conclusões: O conjunto destes achados demonstra que o comprometimento dos músculos inspiratórios e expiratórios contribuiu significativamente para a dispneia e a intolerância ao exercício tanto no DPOC leve quanto no DPOC grave. E que este comprometimento pode não ser detectado com os testes máximos de força ao repouso
Resumo:
Neste trabalho foi desenvolvida uma investigação experimental com o objetivo de ampliar o conhecimento sobre caracterização tecnológica de materiais de construção, com ênfase no aspecto da alternabilidade. Foram estudadas rochas de 15 localidades representando os seguintes 11 tipos litológicos: basalto compacto, basalto vesicular, basalto microvesicular, diabásio, quartzito, calcário, granito, charnockito, piroxenito, migmatitoe arenito. Os ensaios de laboratório foram conduzidos em corpos de prova cilídricos, cúbicos e britados obtidos a partir das amostras enviadas, para determinação dos seguintes índices: massa específica aparente, porosidade aparente, absorção, abrasão Los Angeles, resistência ao impacto em corpos de prova regulares, resistência ao impacto Treton, resistência ao esmagamento, resistência à compressão simples axial, índice escleromético, resistência ao desgaste a úmido e durabilidade. Foram executados quase 3000 ensaios para obtenção de índices fisicomecânicos e de durabilidade, por um período de aproximadamente 2 anos. Todos os ensaios foram efetuados em amostras inicialmente lavadas, secas em estufa a 100-110°C por aproximadamente 10 horas e posteriormente, esfriadas à temperatura ambiente durante pelo menos 2-3 horas, antes de cada ensaio. Os seguintes ensaios novos foram introduzidos: índice esclerométrico, impacto em corpos de prova moldados e desgaste úmido, com discussões a respeito de sua aplicabilidade. Os resultados de cada grupo de corpos de prova em diferentes rochas, para estes ensaios novos, foram submetidos à análise estatística para obtenção de valores médios e coeficientes de variação para determinar a precisão e o número de ensaios necessários para cada uma destas propriedades. Os resultados médios foram submetidos à correlação estatística e análises de regressão pelo método dos mínimos quadrados, para os quais foram determinados os coeficientes de correlação ) simples, erros padrão de estimativa e relações funcionais para cada par selecionado de variáveis. Estas relações foram apresentadas graficamente para comparação visual com os correspondentes resultados de ensaios. A partir dos resultados obtidos quanto à precisão e reprodutibilidade dos ensaios e verificada sua aplicabilidade, foram elaboradas propostas para métodos de ensaios. Os ensaios de durabilidade, que constituem a segunda parte deste trabalho, foram executados nas rochas acima mencionadas, cujas amostras foram submetidas a ciclos sucessivos de, saturação em solução de sulfato e secagem em estufa, saturação em etilenoglicol e secagem em estufa, saturação em água e secagem em estufa, lixiviação contínua no exterior Soxhlet e exposição natural, em 2 séries de ensaios. A primeira série consistiu na comparação de processos de alteração e a segunda série, na investigação do comportamento mecânico dos materiais rochosos face a diferentes condições fisicoquímicas de alteração artificial e natural. P parâmetro mecânico utilizado neste caso, foi a resistência ao impacto Treton. Os resultados obtidos na primeira série, foram submetidos à análise de regressão, obtendo-se gráficos de comparação de linhas teóricas de velocidades de alteração pelos diferentes processos e, gráficos mostrando a influência do fator de escala no processo de alteração. Os resultados da segunda série de ensaios, permitiram estabelecer 2 parâmetros numéricos: queda percentual de resistência mecânica e coeficiente de alterabilidade específica, que refletem a suscetibilidade das rochas a estes diferentes processos de alteração. A correlação estatística, entre estes parâmetros numéricos da alteração e a relação entre as tensões máximas de ruptura, no estado saturado e no estado seco, do ensaio de compressão simples axial, indicou ser esta relação, um índice promissor da alterabilidade de rochas. Finalmente, discutida a validade ) destes índices, tendo em vista os resultados encontrados e a ausência na literatura de procedimentos adequados, que permitam classificar as rochas quanto ao comportamento mecânico face à alteração natural ou artificial, foram elaboradas propostas de métodos de ensaios, que poderão preencher esta lacuna.
Resumo:
Apuntes en formato html que incluyen los siguientes temas de la parte de simulación en la asignatura «simulación y optimización de procesos químicos» TEMA 1. Introducción 1.1 Introducción. 1.2 Desarrollo histórico de la simulación de procesos. Relación entre simulación optimización y síntesis de procesos. 1.3 Tipos de simuladores: Modular secuencial. Modular simultáneo. Basada en ecuaciones. TEMA 2. Simulación Modular Secuencial 2.1 Descomposición de diagramas de flujo (flowsheeting) 2.2 Métodos basados en las matrices booleanas Localización de redes cíclicas máximas. Algoritmo de Sargent y Westerberg. Algoritmo de Tarjan. 2.3 Selección de las corrientes de corte: 2.3.1 Caso general planteamiento como un "set-covering problem" (algoritmo de Pho y Lapidus) 2.3.2 Número mínimo de corrientes de corte (algoritmo de Barkley y Motard) 2.3.3 Conjunto de corrientes de corte no redundante (Algoritmo de Upadhye y Grens) TEMA 3. Simulación Modular Simultánea 3.1 Efecto de las estrategias tipo cuasi Newton sobre la convergencia de los diagramas de flujo. TEMA 4. Simulación Basada en Ecuaciones 4.1 Introducción. Métodos de factorización de matrices dispersas. Métodos a priori y métodos locales. 4.2 Métodos locales: Criterio de Markowitz. 4.3 Métodos a priori: 4.3.1 Triangularización por bloques: a. Base de salida admisible (transversal completo). b. Aplicación de los algoritmos de Sargent y Tarjan a matrices dispersas. c. Reordenación. 4.3.2 Transformación en matriz triangular bordeada. 4.4 Fase numerica. Algoritmo RANKI 4.5 Comparación entre los diferentes sistemas de simulación. Ventajas e Inconvenientes. TEMA 5. Grados de libertad y variables de diseño de un diagrama de flujo 5.1 Teorema de Duhem y regla de las fases 5.2 Grados de libertad de un equipo 5.3 Grados de libertad de un diagrama de flujo 5.4 Elección de las variables de diseño.