966 resultados para Método numérico de partículas
Resumo:
En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
Resumo:
La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.
Resumo:
Neste trabalho é proposto um modelo mecanobiológico de remodelagem óssea para a estimativa de variações, provocadas por perturbações mecânicas ou biológicas, na matriz de rigidez estrutural da escala macroscópica e na densidade mineral em uma região do osso. Na cooperação entre as áreas da saúde e da engenharia, como nos estudos estruturais de biomecânica no sistema esquelético, as propriedades mecânicas dos materiais devem ser conhecidas, entretanto os ossos possuem uma constituição material altamente complexa, dinâmica e variante entre indivíduos. Sua dinâmica decorre dos ciclos de absorção e deposição de matriz óssea na remodelagem óssea, a qual ocorre para manter a integridade estrutural do esqueleto e adaptá-lo aos estímulos do ambiente, sejam eles biológicos, químicos ou mecânicos. Como a remodelagem óssea pode provocar alterações no material do osso, espera-se que suas propriedades mecânicas também sejam alteradas. Na literatura científica há modelos matemáticos que preveem a variação da matriz de rigidez estrutural a partir do estímulo mecânico, porém somente os modelos mais recentes incluíram explicitamente processos biológicos e químicos da remodelagem óssea. A densidade mineral óssea é um importante parâmetro utilizado no diagnóstico de doenças ósseas na área médica. Desse modo, para a obtenção da variação da rigidez estrutural e da densidade mineral óssea, propõe-se um modelo numérico mecanobiológico composto por cinco submodelos: da dinâmica da população de células ósseas, da resposta das células ao estímulo mecânico, da porosidade óssea, da densidade mineral óssea e, baseado na Lei de Voigt para materiais compósitos, da rigidez estrutural. Os valores das constantes das equações dos submodelos foram obtidos de literatura. Para a solução das equações do modelo, propõe-se uma implementação numérica e computacional escrita em linguagem C. O método de Runge-Kutta-Dorman-Prince, cuja vantagem consiste no uso de um passo de solução variável, é utilizado no modelo para controlar o erro numérico do resultado do sistema de equações diferenciais. Foi realizada uma avaliação comparativa entre os resultados obtidos com o modelo proposto e os da literatura dos modelos de remodelagem óssea recentes. Conclui-se que o modelo e a implementação propostos são capazes de obter variações da matriz de rigidez estrutural macroscópica e da densidade mineral óssea decorrentes da perturbação nos parâmetros mecânicos ou biológicos do processo de remodelagem óssea.
Resumo:
Técnicas analíticas empregadas para a quantificação do teor de lignina em plantas forrageiras, atualmente em uso, são questionáveis quanto às suas acurácias. O método lignina detergente ácido (LDA), que é um dos métodos mais utilizado em Ciência Animal e Agronomia, apresenta algumas falhas, particularmente devido à parcial solubilização da lignina durante a preparação da fibra em detergente ácido (FDA). A lignina Klason (LK), outro método muito usado, apresenta o inconveniente de mensurar a proteína da parede celular como sendo lignina. Em ambos os procedimentos recomenda-se também mensurar cinzas nos resíduos de lignina. A quantificação da concentração de lignina pelo método espectrofotométrico lignina brometo de acetila (LBA) vem ganhando interesse de pesquisadores no Brasil e no exterior. Nesta metodologia, a lignina da planta contida na preparação parede celular (PC) é solubilizada numa solução a 25% de brometo de acetila em ácido acético e a absorbância mensurada é com luz UV a 280 nm. O valor da absorbância é inserido numa equação de regressão e a concentração de lignina é obtida. Para que esta técnica analítica seja mais aceita pelos pesquisadores, ela deve ser, obviamente, convincente e atrativa. O presente trabalho analisou alguns parâmetros relacionados à LBA em 7 gramíneas e 6 leguminosas, em dois estádios de maturidade. Dentre as diferentes temperaturas de pré-secagem, os resultados indicaram que os procedimentos de 55°C com ventilação e liofilização podem ser utilizados com a mesma eficácia. As temperaturas de 55°C sem ventilação e 80°C sem ventilação não são recomendadas, pois aumentaram os valores de FDA e LDA, possivelmente devido ao surgimento de artefatos de técnica como os compostos de Maillard. No método LBA os valores menores das amostras de leguminosas chamaram a atenção e colocaram em questão se a lignina destas plantas seria menos solúvel no reagente brometo de acetila. Dentre algumas alterações na metodologia da técnica LBA, a utilização do moinho de bolas (para diminuir o tamanho particular) nas amostras de PC não mostrou efeito; a hipótese era melhorar a solubilização da lignina usando partículas menores. O uso de um ultrasonicador, que aumenta a vibração das moléculas e assim, facilitaria a solubilização da lignina no reagente brometo de acetila, melhorou a solubilização da lignina em cerca de 10%, tanto nas gramíneas como nas leguminosas. Foi acoplado um ensaio biológico como referência, a degradabilidade in vitro da matéria seca (DIVMS); e como a lignina está intimamente associada à estrutura fibrosa da parede celular, também foi feito um ensaio de degradabilidade in vitro da fibra em detergente neutro (DIVFDN). Os resultados confirmaram o efeito da maturidade, reduzindo a degradabilidade nas plantas mais maduras, e que o teor de lignina de leguminosas é realmente inferior ao de gramíneas. Os resultados de degradabilidade apresentaram coeficientes de correlação mais elevados com o método LBA, quando foi empregada a técnica do ultrasom; o método LK mostrou os menores coeficientes. Também testou-se, com sucesso, a utilização da FDN, como preparação fibrosa, ao invés de PC. A razão é simples: enquanto que a FDN é amplamente conhecida, a preparação PC não o é. Inquestionável que esta manobra facilitará substancialmente a divulgação desse método, tornando-a mais aceitável pela comunidade científica
Resumo:
O objetivo desse trabalho foi avaliar o processo de formação do cavaco durante o torneamento utilizando simulação numérica pelo método dos elementos finitos. Para realizar o estudo foram definidos dois tipos de aços inoxidáveis austeníticos, um com matriz metálica sem a presença significativa de inclusões, do tipo ABNT 304, e outro com a presença de inclusões não metálicas, do tipo ABNT 303. O estudo foi focado nos mecanismos de formação e ruptura do cavaco, na determinação das forças de usinagem, no campo de tensões, deformações, e temperaturas durante o processo, que foram relacionados com aspectos e características da microestrutura do material. Os resultados obtidos foram comparados com as forças de usinagem experimentais, com a espessura e morfologia do cavaco. O desenvolvimento do trabalho, de acordo com a metodologia adotada, foi realizado em diferentes etapas. Inicialmente foi elaborado e aplicado um modelo de simulação da usinagem considerando o material homogêneo. Em outra etapa, foi realizada a modelagem de uma microestrutura submetida a um estado de tensão e deformação semelhante ao encontrado na simulação da usinagem realizada com material homogêneo. Os resultados mostraram que as partículas das inclusões maiores, alongadas, e em maior quantidade aumentam a tensão e a deformação na microestrutura. As elevadas temperaturas obtidas na usinagem dos aços inoxidáveis austeníticos aumentam a ductilidade dos sulfetos, esses se deformam em compressão junto com a matriz, e têm um efeito limitado como agente de redução dos esforços de usinagem. Por outro lado, os sulfetos facilitam a etapa de ruptura do cavaco em tensões trativas, e tendem a se romper facilitando o processo de quebra.
Resumo:
O projeto de submarinos é um tema que vem se desenvolvendo há muitos anos. No Brasil, vivemos um momento de pleno avanço na área, sendo encabeçado pela Marinha do Brasil com o desenvolvimento do primeiro submarino de propulsão nuclear brasileiro. No decorrer desse projeto, diversos estudos devem ser desenvolvidos, dentre eles, ensaios com modelos em escala, que serão realizados em um túnel de cavitação. Durante estes experimentos, espera-se que surjam diversas fontes de incerteza, que podem comprometer os resultados obtidos, destacando-se o efeito de blocagem hidrodinâmica. Nesse contexto, esta dissertação apresenta uma investigação do fenômeno de blocagem no modelo de submarino DARPA SUBOFF na seção de testes de um túnel de cavitação. Para isso, simulações tridimensionais de média de Reynolds (RANS) foram realizadas para o modelo de submarino posicionado no túnel (sob blocagem) e sob condição de águas profundas (referência), para diferentes ângulos de ataque e número de Reynolds (Re) constante. Coeficientes de força e momento hidrodinâmicos foram obtidos e os métodos de correção de blocagem clássico e WICS foram empregados para obter fatores que pudessem corrigir esses valores. A eficiência de cada método foi avaliada comparando os valores corrigidos com os de referência. Os resultados mostraram que ambos métodos de correção são eficientes na recuperação de coeficientes de força e momento hidrodinâmicos para razões de blocagem inferiores a 10%, mas ressalvas são feitas quanto à utilização de cada um desses métodos, sendo o método clássico indicado para o estudo de geometrias simples e o método WICS para modelos mais complexos. Paralelamente, a topologia do escoamento ao redor do submarino foi estudada através do método dos pontos críticos, para avaliar se a blocagem hidrodinâmica pode causar alterações nas estruturas presentes no escoamento. A análise topológica permitiu avaliar a evolução nas estruturas do escoamento para os ângulos de ataque e Re simulados. Foram capturadas as linhas de separação no corpo e avaliada sua relação com a tensão de cisalhamento ao longo do casco. A blocagem hidrodinâmica não causou alterações drásticas na topologia do escoamento.
Resumo:
En este trabajo se describe el proceso llevado a cabo para analizar numéricamente mediante el método de los elementos finitos (MEF) el comportamiento vibratorio del conjunto móvil de un altavoz dinámico de bobina con doble suspensión inferior y en ausencia de la superior. El estudio se centra en el rango de baja frecuencia. El calibrado del modelo se realiza en base a medidas experimentales de la frecuencia de resonancia y desplazamiento del diafragma. Se hace énfasis en la importancia de los factores de participación asociados a la fuerza de excitación y en los cambios que se producen en estos al introducir fuerzas no equilibradas. Así mismo, el análisis proporciona datos para decidir sobre la distancia entre suspensiones, su número óptimo de pliegues y la ubicación de las trencillas, siendo estos parámetros de gran interés en el diseño de este tipo de altavoces.
Resumo:
Al analizar los resultados deficientes de las Pruebas Saber, del PTA ( Programa Todos a Aprender del MEN), y la participación en las Olimpiadas del Conocimiento, de los estudiantes de la Institución Educativa Rural Benigno Mena González del municipio de San Jerónimo, se consideró implementar un proyecto pedagógico, como plan de mejoramiento para la enseñanza y aprendizaje de las matemáticas, que sirviera como una iniciativa para fortalecer los pensamientos numérico y variacional en los estudiantes de secundaria de la Institución; se buscaba, con la implementación de esta propuesta, desarrollar habilidades en dominio, comprensión y solución de situaciones problemas cotidianas dentro del contexto escolar y desde la innovación de nuevas prácticas metodológicas en los procesos educativos. Desde esta perspectiva, nace el interrogante: ¿Cómo modelar una situación problema, teniendo como motivo la unidad facilitadora solidaria denominada Belisol, para fortalecer el pensamiento numérico y variacional, en los estudiantes de la Institución Educativa Rural Benigno Mena González del municipio de San Jerónimo?, para dar tránsito a una propuesta de investigación innovadora. Ahora bien, para intervenir y reflexionar sobre este interrogante, se propuso el método de Investigación Acción Participación (IAP), el cual se aplica a estudios que se interesan sobre realidades humanas y problemáticas cotidianas o sociales, que además, sean reales, de la acción, y de constante participación de los sujetos, entidades o comunidades involucradas; aquí cabe la posibilidad de un aprendizaje cooperativo, colectivo, y por supuesto, colaborativo donde se ha planteado como motivo de la situación problema planteada la unidad financiera llamada Belisol con el fin de exteriorizar los fundamentos de una acción formativa, orientada a la incursión en el ámbito de la educación matemática económica financiera, a través del ejercicio del ahorro escolar y el trueque, promoviendo de esta manera el espíritu solidario en la comunidad Benigniana.
Resumo:
Electrical Submersible Pump (ESP) is used as an artificial lift technique. However, pumping viscous oil is generally associated with low Reynolds number flows. This condition leads to a performance degradation respect to the performance expected from the regular operation with water that most of the centrifugal pumps are originally designed for. These issues are considered in this investigation through a numerical study of the flow in two different multistage, semi-axial type ESPs. This investigation is carried out numerically using a Computational Fluid Dynamics (CFD) package, where the transient RANS equations are solved numerically. The turbulence is modeled using the SST model. Head curves for several operating conditions are compared with manufacturer’s curves and experimental data for a three-stage ESP, showing good agreement for a wide range of fluid viscosities and rotational speeds. Dimensionless numbers (n, n, n e Re) are used to investigate performance degradation of the ESPs. In addition, flow phenomena through the impellers of the ESPs are investigated using flow field from numerical results. Results show that performance degradation is directly related to rotational Reynolds number, Re. In addition, it was verified that performance degradation occurs for constant normalized specific speedn, which shows that performance degradation occurs similarly for different centrifugal pumps. Moreover, experimental data and numerical results agreed with a correlation from literature between head and flow correction factors proposed by Stepanoff (1967). A definition of modified Reynolds number was proposed and relates the head correction factor to viscosity. A correlation between head correction factor and the modified Reynolds number was proposed, which agreed well with numerical and experimental data. Then, a method to predict performance degradation based on the previous correlations was proposed. This method was compared with others from literature. In general, results and conclusions from this work can also be useful to bring more information about the flow of highly viscous fluids in pumps, especially in semi-axial, multistage ESPs.
Resumo:
Nos dias de hoje, a ligação adesiva de estruturas complexas que não poderiam ou não seriam tão fáceis de ser fabricadas numa só peça é cada vez mais usual. As juntas adesivas têm vindo a substituir muitos outros métodos de ligação, como por exemplo ligações aparafusadas, rebitas ou soldadas, devido às vantagens de facilidade na sua fabricação, resistência superior e capacidade de unir materiais diferentes. Por esta razão as juntas adesivas têm vindo a ser aplicadas cada vez mais em várias industrias como aeroespacial, aeronáutica, automóvel, naval e calçado. O tipo de adesivo a usar em determinada aplicação é principalmente escolhido consoante as suas características mecânicas e o tipo de resposta pretendida às solicitações impostas. Como exemplo de adesivo resistente e frágil existe o Araldite® AV138. Por outro lado, o adesivo Araldite® 2015 é menos resistente, mas apresenta maior ductilidade e flexibilidade. Além dos adesivos Araldite® comerciais, existem adesivos de poliuretano que combinam características de elevada resistência com características de grande ductilidade e flexibilidade, como por exemplo o Sikaforce® 7752. Esta dissertação tem como objetivo estudar experimentalmente e numericamente, através de modelos de dano coesivo (MDC), o comportamento de diferentes configurações de junta em T quando sujeitas a solicitações de arrancamento. Consideram-se os adesivos anteriormente mencionados para testar as juntas sob diferentes tipos de adesivos. A junta em T é constituída por 2 aderentes em L de alumínio e um aderente base também em alumínio, unidos por uma camada de adesivo. Experimentalmente é feito um estudo da resistência da junta com a variação da espessura dos aderentes em L (tP2). Com a análise numérica são estudadas as distribuições de tensões, evolução do dano, modos de rotura e resistência. Além disso, realizou-se um estudo numérico da existência ou não de adesivo de preenchimento na zona da curvatura dos aderentes em L nas tensões e na resistência da junta. Mostrouse que a variação da geometria nos aderentes em L, a presença de adesivo de preenchimento e o tipo de adesivo têm uma influência direta na resistência de junta. Os ensaios experimentais validaram os resultados numéricos e permitiram concluir que os MDC são uma técnica precisa para o estudo das geometrias das juntas em T.
Resumo:
As ligações adesivas têm sido utilizadas em diversas áreas de aplicação. A utilização das juntas adesivas em aplicações industriais tem vindo a aumentar nos últimos anos, por causa das vantagens significativas que apresentam comparativamente com os métodos tradicionais de ligação tais como soldadura, ligações aparafusadas e rebitadas. A redução de peso, redução de concentrações de tensões e facilidade de fabrico são algumas das principais vantagens das ligações adesivas. Devido à crescente utilização das ligações adesivas, torna-se necessário a existência de ferramentas que permitam prever a resistência das juntas com elevada precisão. Assim, para a análise de juntas adesivas, está a ser cada vez mais utilizado o método de Elementos Finitos. Neste âmbito o Método de Elementos Finitos eXtendido (MEFX) perfila-se como um método capaz de prever o comportamento da junta, embora este ainda não esteja convenientemente estudado no que diz respeito à aplicação a juntas adesivas. Neste trabalho é apresentado um estudo experimental e numérico pelo MEFX de juntas de sobreposição dupla, nas quais são aplicados adesivos que variam desde frágeis e rígidos, como o caso do Araldite® AV138, até adesivos mais dúcteis, como o Araldite® 2015 e o Sikaforce® 7888. Foram considerados substratos de alumínio (AW6082-T651) em juntas com diferentes comprimentos de sobreposição, sendo sujeitos a esforços de tração de forma a avaliar o seu desempenho. Na análise numérica foi realizada uma análise da distribuição de tensões na camada adesiva, a previsão da resistência das juntas pelo MEFX segundo critérios de iniciação de dano baseados em tensões e deformações, e ainda um estudo sobre o critério energético de propagação de dano. A análise por MEFX revelou que este método é bastante preciso quando usados os critérios de iniciação de dano MAXS e QUADS, e parâmetro com valor de 1 no critério energético de propagação de dano. Apesar de ser um método pouco estudado na literatura comparativamente com outros, o MEFX apresentou resultados muito satisfatórios.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Civil e Ambiental, 2016.
Resumo:
In this study barium hexaferrite was (general formulae BaFe12O19) was synthesized by the Pechini method under different conditions of heat treatment. Precursors like barium carbonate and iron nitrate were used. These magnetic ceramic, with magnetoplumbite type structure, are widely used as permanent magnet because of its excellent magnetic properties, such as: high Curie temperature, good magnetic anisotropy, high coercivity and corrosion resistance. The samples were characterized by thermal analysis (DTA and TG), X- ray Diffraction (XRD), Fourier transform infrared spectroscopy (FTIR), Scanning Electron Microscopy (SEM) end Vibrating sample Magnetometer (VSM). The results confirm the expected phase, which was reinforced according to our analysis. A single phase powder at relatively high temperatures with particle sizes around 100 nm was obtained. The characteristic magnetic behavior one of the phases has been noted (probably superparamagnetic material), while another phase was identified as a ferrimagnetic material. The ferrimagnetic phase showed vortex configuration with two central and slightly inclined plateaus. In general, increase of heat treatment temperature and time, directly influenced the technological properties of the samples
Resumo:
Este trabajo describe una experiencia realizada en un curso de análisis numérico dictado en la facultad de Ciencias Exactas y Naturales de la Universidad de Mar del Plata (Argentina). La posibilidad de dictar clases en un laboratorio que cuenta con un número de computadoras que es apenas superado por la cantidad de alumnos permite promover un ambiente interactivo, de reflexión y experiencias que dan lugar a un verdadero aprendizaje significativo. En particular el programa Derive, conforma un importante recurso para mejorar las estrategias didácticas que sin dudas posibilitan lograr los objetivos propuestos.
Resumo:
A Nanotecnologia está baseada na crescente capacidade da tecnologia moderna de manipular átomos e partículas na nanoescala com o objetivo de criar novos materiais e desenvolver novos produtos e processos. Ela promete grandes avanços nas mais diversas áreas de atuação, desde a Medicina à Engenharia de Materiais. Apesar das nanotecnologias apresentarem propriedades físicas diferentes dos seus correspondente convencionais, ainda não existem metodologias que permitam a avaliação dos riscos associados ao seu emprego e liberação no meio ambiente. Neste cenário, o presente trabalho propõe o emprego e adequação de uma Metodologia comumente empregada para a Avaliação de Risco de Transgênicos para o caso das Nanotecnologias.