892 resultados para defeitos topológicos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La segmentación de imágenes es un campo importante de la visión computacional y una de las áreas de investigación más activas, con aplicaciones en comprensión de imágenes, detección de objetos, reconocimiento facial, vigilancia de vídeo o procesamiento de imagen médica. La segmentación de imágenes es un problema difícil en general, pero especialmente en entornos científicos y biomédicos, donde las técnicas de adquisición imagen proporcionan imágenes ruidosas. Además, en muchos de estos casos se necesita una precisión casi perfecta. En esta tesis, revisamos y comparamos primero algunas de las técnicas ampliamente usadas para la segmentación de imágenes médicas. Estas técnicas usan clasificadores a nivel de pixel e introducen regularización sobre pares de píxeles que es normalmente insuficiente. Estudiamos las dificultades que presentan para capturar la información de alto nivel sobre los objetos a segmentar. Esta deficiencia da lugar a detecciones erróneas, bordes irregulares, configuraciones con topología errónea y formas inválidas. Para solucionar estos problemas, proponemos un nuevo método de regularización de alto nivel que aprende información topológica y de forma a partir de los datos de entrenamiento de una forma no paramétrica usando potenciales de orden superior. Los potenciales de orden superior se están popularizando en visión por computador, pero la representación exacta de un potencial de orden superior definido sobre muchas variables es computacionalmente inviable. Usamos una representación compacta de los potenciales basada en un conjunto finito de patrones aprendidos de los datos de entrenamiento que, a su vez, depende de las observaciones. Gracias a esta representación, los potenciales de orden superior pueden ser convertidos a potenciales de orden 2 con algunas variables auxiliares añadidas. Experimentos con imágenes reales y sintéticas confirman que nuestro modelo soluciona los errores de aproximaciones más débiles. Incluso con una regularización de alto nivel, una precisión exacta es inalcanzable, y se requeire de edición manual de los resultados de la segmentación automática. La edición manual es tediosa y pesada, y cualquier herramienta de ayuda es muy apreciada. Estas herramientas necesitan ser precisas, pero también lo suficientemente rápidas para ser usadas de forma interactiva. Los contornos activos son una buena solución: son buenos para detecciones precisas de fronteras y, en lugar de buscar una solución global, proporcionan un ajuste fino a resultados que ya existían previamente. Sin embargo, requieren una representación implícita que les permita trabajar con cambios topológicos del contorno, y esto da lugar a ecuaciones en derivadas parciales (EDP) que son costosas de resolver computacionalmente y pueden presentar problemas de estabilidad numérica. Presentamos una aproximación morfológica a la evolución de contornos basada en un nuevo operador morfológico de curvatura que es válido para superficies de cualquier dimensión. Aproximamos la solución numérica de la EDP de la evolución de contorno mediante la aplicación sucesiva de un conjunto de operadores morfológicos aplicados sobre una función de conjuntos de nivel. Estos operadores son muy rápidos, no sufren de problemas de estabilidad numérica y no degradan la función de los conjuntos de nivel, de modo que no hay necesidad de reinicializarlo. Además, su implementación es mucho más sencilla que la de las EDP, ya que no requieren usar sofisticados algoritmos numéricos. Desde un punto de vista teórico, profundizamos en las conexiones entre operadores morfológicos y diferenciales, e introducimos nuevos resultados en este área. Validamos nuestra aproximación proporcionando una implementación morfológica de los contornos geodésicos activos, los contornos activos sin bordes, y los turbopíxeles. En los experimentos realizados, las implementaciones morfológicas convergen a soluciones equivalentes a aquéllas logradas mediante soluciones numéricas tradicionales, pero con ganancias significativas en simplicidad, velocidad y estabilidad. ABSTRACT Image segmentation is an important field in computer vision and one of its most active research areas, with applications in image understanding, object detection, face recognition, video surveillance or medical image processing. Image segmentation is a challenging problem in general, but especially in the biological and medical image fields, where the imaging techniques usually produce cluttered and noisy images and near-perfect accuracy is required in many cases. In this thesis we first review and compare some standard techniques widely used for medical image segmentation. These techniques use pixel-wise classifiers and introduce weak pairwise regularization which is insufficient in many cases. We study their difficulties to capture high-level structural information about the objects to segment. This deficiency leads to many erroneous detections, ragged boundaries, incorrect topological configurations and wrong shapes. To deal with these problems, we propose a new regularization method that learns shape and topological information from training data in a nonparametric way using high-order potentials. High-order potentials are becoming increasingly popular in computer vision. However, the exact representation of a general higher order potential defined over many variables is computationally infeasible. We use a compact representation of the potentials based on a finite set of patterns learned fromtraining data that, in turn, depends on the observations. Thanks to this representation, high-order potentials can be converted into pairwise potentials with some added auxiliary variables and minimized with tree-reweighted message passing (TRW) and belief propagation (BP) techniques. Both synthetic and real experiments confirm that our model fixes the errors of weaker approaches. Even with high-level regularization, perfect accuracy is still unattainable, and human editing of the segmentation results is necessary. The manual edition is tedious and cumbersome, and tools that assist the user are greatly appreciated. These tools need to be precise, but also fast enough to be used in real-time. Active contours are a good solution: they are good for precise boundary detection and, instead of finding a global solution, they provide a fine tuning to previously existing results. However, they require an implicit representation to deal with topological changes of the contour, and this leads to PDEs that are computationally costly to solve and may present numerical stability issues. We present a morphological approach to contour evolution based on a new curvature morphological operator valid for surfaces of any dimension. We approximate the numerical solution of the contour evolution PDE by the successive application of a set of morphological operators defined on a binary level-set. These operators are very fast, do not suffer numerical stability issues, and do not degrade the level set function, so there is no need to reinitialize it. Moreover, their implementation is much easier than their PDE counterpart, since they do not require the use of sophisticated numerical algorithms. From a theoretical point of view, we delve into the connections between differential andmorphological operators, and introduce novel results in this area. We validate the approach providing amorphological implementation of the geodesic active contours, the active contours without borders, and turbopixels. In the experiments conducted, the morphological implementations converge to solutions equivalent to those achieved by traditional numerical solutions, but with significant gains in simplicity, speed, and stability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis aborda los problemas de eficiencia de las redes eléctrica desde el punto de vista del consumo. En particular, dicha eficiencia es mejorada mediante el suavizado de la curva de consumo agregado. Este objetivo de suavizado de consumo implica dos grandes mejoras en el uso de las redes eléctricas: i) a corto plazo, un mejor uso de la infraestructura existente y ii) a largo plazo, la reducción de la infraestructura necesaria para suplir las mismas necesidades energéticas. Además, esta Tesis se enfrenta a un nuevo paradigma energético, donde la presencia de generación distribuida está muy extendida en las redes eléctricas, en particular, la generación fotovoltaica (FV). Este tipo de fuente energética afecta al funcionamiento de la red, incrementando su variabilidad. Esto implica que altas tasas de penetración de electricidad de origen fotovoltaico es perjudicial para la estabilidad de la red eléctrica. Esta Tesis trata de suavizar la curva de consumo agregado considerando esta fuente energética. Por lo tanto, no sólo se mejora la eficiencia de la red eléctrica, sino que también puede ser aumentada la penetración de electricidad de origen fotovoltaico en la red. Esta propuesta conlleva grandes beneficios en los campos económicos, social y ambiental. Las acciones que influyen en el modo en que los consumidores hacen uso de la electricidad con el objetivo producir un ahorro energético o un aumento de eficiencia son llamadas Gestión de la Demanda Eléctrica (GDE). Esta Tesis propone dos algoritmos de GDE diferentes para cumplir con el objetivo de suavizado de la curva de consumo agregado. La diferencia entre ambos algoritmos de GDE reside en el marco en el cual estos tienen lugar: el marco local y el marco de red. Dependiendo de este marco de GDE, el objetivo energético y la forma en la que se alcanza este objetivo son diferentes. En el marco local, el algoritmo de GDE sólo usa información local. Este no tiene en cuenta a otros consumidores o a la curva de consumo agregado de la red eléctrica. Aunque esta afirmación pueda diferir de la definición general de GDE, esta vuelve a tomar sentido en instalaciones locales equipadas con Recursos Energéticos Distribuidos (REDs). En este caso, la GDE está enfocada en la maximización del uso de la energía local, reduciéndose la dependencia con la red. El algoritmo de GDE propuesto mejora significativamente el auto-consumo del generador FV local. Experimentos simulados y reales muestran que el auto-consumo es una importante estrategia de gestión energética, reduciendo el transporte de electricidad y alentando al usuario a controlar su comportamiento energético. Sin embargo, a pesar de todas las ventajas del aumento de auto-consumo, éstas no contribuyen al suavizado del consumo agregado. Se han estudiado los efectos de las instalaciones locales en la red eléctrica cuando el algoritmo de GDE está enfocado en el aumento del auto-consumo. Este enfoque puede tener efectos no deseados, incrementando la variabilidad en el consumo agregado en vez de reducirlo. Este efecto se produce porque el algoritmo de GDE sólo considera variables locales en el marco local. Los resultados sugieren que se requiere una coordinación entre las instalaciones. A través de esta coordinación, el consumo debe ser modificado teniendo en cuenta otros elementos de la red y buscando el suavizado del consumo agregado. En el marco de la red, el algoritmo de GDE tiene en cuenta tanto información local como de la red eléctrica. En esta Tesis se ha desarrollado un algoritmo autoorganizado para controlar el consumo de la red eléctrica de manera distribuida. El objetivo de este algoritmo es el suavizado del consumo agregado, como en las implementaciones clásicas de GDE. El enfoque distribuido significa que la GDE se realiza desde el lado de los consumidores sin seguir órdenes directas emitidas por una entidad central. Por lo tanto, esta Tesis propone una estructura de gestión paralela en lugar de una jerárquica como en las redes eléctricas clásicas. Esto implica que se requiere un mecanismo de coordinación entre instalaciones. Esta Tesis pretende minimizar la cantidad de información necesaria para esta coordinación. Para lograr este objetivo, se han utilizado dos técnicas de coordinación colectiva: osciladores acoplados e inteligencia de enjambre. La combinación de estas técnicas para llevar a cabo la coordinación de un sistema con las características de la red eléctrica es en sí mismo un enfoque novedoso. Por lo tanto, este objetivo de coordinación no es sólo una contribución en el campo de la gestión energética, sino también en el campo de los sistemas colectivos. Los resultados muestran que el algoritmo de GDE propuesto reduce la diferencia entre máximos y mínimos de la red eléctrica en proporción a la cantidad de energía controlada por el algoritmo. Por lo tanto, conforme mayor es la cantidad de energía controlada por el algoritmo, mayor es la mejora de eficiencia en la red eléctrica. Además de las ventajas resultantes del suavizado del consumo agregado, otras ventajas surgen de la solución distribuida seguida en esta Tesis. Estas ventajas se resumen en las siguientes características del algoritmo de GDE propuesto: • Robustez: en un sistema centralizado, un fallo o rotura del nodo central provoca un mal funcionamiento de todo el sistema. La gestión de una red desde un punto de vista distribuido implica que no existe un nodo de control central. Un fallo en cualquier instalación no afecta el funcionamiento global de la red. • Privacidad de datos: el uso de una topología distribuida causa de que no hay un nodo central con información sensible de todos los consumidores. Esta Tesis va más allá y el algoritmo propuesto de GDE no utiliza información específica acerca de los comportamientos de los consumidores, siendo la coordinación entre las instalaciones completamente anónimos. • Escalabilidad: el algoritmo propuesto de GDE opera con cualquier número de instalaciones. Esto implica que se permite la incorporación de nuevas instalaciones sin afectar a su funcionamiento. • Bajo coste: el algoritmo de GDE propuesto se adapta a las redes actuales sin requisitos topológicos. Además, todas las instalaciones calculan su propia gestión con un bajo requerimiento computacional. Por lo tanto, no se requiere un nodo central con un alto poder de cómputo. • Rápido despliegue: las características de escalabilidad y bajo coste de los algoritmos de GDE propuestos permiten una implementación rápida. No se requiere una planificación compleja para el despliegue de este sistema. ABSTRACT This Thesis addresses the efficiency problems of the electrical grids from the consumption point of view. In particular, such efficiency is improved by means of the aggregated consumption smoothing. This objective of consumption smoothing entails two major improvements in the use of electrical grids: i) in the short term, a better use of the existing infrastructure and ii) in long term, the reduction of the required infrastructure to supply the same energy needs. In addition, this Thesis faces a new energy paradigm, where the presence of distributed generation is widespread over the electrical grids, in particular, the Photovoltaic (PV) generation. This kind of energy source affects to the operation of the grid by increasing its variability. This implies that a high penetration rate of photovoltaic electricity is pernicious for the electrical grid stability. This Thesis seeks to smooth the aggregated consumption considering this energy source. Therefore, not only the efficiency of the electrical grid is improved, but also the penetration of photovoltaic electricity into the grid can be increased. This proposal brings great benefits in the economic, social and environmental fields. The actions that influence the way that consumers use electricity in order to achieve energy savings or higher efficiency in energy use are called Demand-Side Management (DSM). This Thesis proposes two different DSM algorithms to meet the aggregated consumption smoothing objective. The difference between both DSM algorithms lie in the framework in which they take place: the local framework and the grid framework. Depending on the DSM framework, the energy goal and the procedure to reach this goal are different. In the local framework, the DSM algorithm only uses local information. It does not take into account other consumers or the aggregated consumption of the electrical grid. Although this statement may differ from the general definition of DSM, it makes sense in local facilities equipped with Distributed Energy Resources (DERs). In this case, the DSM is focused on the maximization of the local energy use, reducing the grid dependence. The proposed DSM algorithm significantly improves the self-consumption of the local PV generator. Simulated and real experiments show that self-consumption serves as an important energy management strategy, reducing the electricity transport and encouraging the user to control his energy behavior. However, despite all the advantages of the self-consumption increase, they do not contribute to the smooth of the aggregated consumption. The effects of the local facilities on the electrical grid are studied when the DSM algorithm is focused on self-consumption maximization. This approach may have undesirable effects, increasing the variability in the aggregated consumption instead of reducing it. This effect occurs because the algorithm only considers local variables in the local framework. The results suggest that coordination between these facilities is required. Through this coordination, the consumption should be modified by taking into account other elements of the grid and seeking for an aggregated consumption smoothing. In the grid framework, the DSM algorithm takes into account both local and grid information. This Thesis develops a self-organized algorithm to manage the consumption of an electrical grid in a distributed way. The goal of this algorithm is the aggregated consumption smoothing, as the classical DSM implementations. The distributed approach means that the DSM is performed from the consumers side without following direct commands issued by a central entity. Therefore, this Thesis proposes a parallel management structure rather than a hierarchical one as in the classical electrical grids. This implies that a coordination mechanism between facilities is required. This Thesis seeks for minimizing the amount of information necessary for this coordination. To achieve this objective, two collective coordination techniques have been used: coupled oscillators and swarm intelligence. The combination of these techniques to perform the coordination of a system with the characteristics of the electric grid is itself a novel approach. Therefore, this coordination objective is not only a contribution in the energy management field, but in the collective systems too. Results show that the proposed DSM algorithm reduces the difference between the maximums and minimums of the electrical grid proportionally to the amount of energy controlled by the system. Thus, the greater the amount of energy controlled by the algorithm, the greater the improvement of the efficiency of the electrical grid. In addition to the advantages resulting from the smoothing of the aggregated consumption, other advantages arise from the distributed approach followed in this Thesis. These advantages are summarized in the following features of the proposed DSM algorithm: • Robustness: in a centralized system, a failure or breakage of the central node causes a malfunction of the whole system. The management of a grid from a distributed point of view implies that there is not a central control node. A failure in any facility does not affect the overall operation of the grid. • Data privacy: the use of a distributed topology causes that there is not a central node with sensitive information of all consumers. This Thesis goes a step further and the proposed DSM algorithm does not use specific information about the consumer behaviors, being the coordination between facilities completely anonymous. • Scalability: the proposed DSM algorithm operates with any number of facilities. This implies that it allows the incorporation of new facilities without affecting its operation. • Low cost: the proposed DSM algorithm adapts to the current grids without any topological requirements. In addition, every facility calculates its own management with low computational requirements. Thus, a central computational node with a high computational power is not required. • Quick deployment: the scalability and low cost features of the proposed DSM algorithms allow a quick deployment. A complex schedule of the deployment of this system is not required.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta Tesis es presentar un método eficiente para la evaluación de sistemas multi-cuerpo con elementos flexibles con pequeñas deformaciones, basado en métodos topológicos para la simulación de sistemas tan complejos como los que se utilizan en la práctica y en tiempo real o próximo al real. Se ha puesto un especial énfasis en la resolución eficiente de aquellos aspectos que conllevan mayor coste computacional, tales como la evaluación de las ecuaciones dinámicas y el cálculo de los términos de inercia. Las ecuaciones dinámicas se establecen en función de las variables independientes del sistema, y la integración de las mismas se realiza mediante formulaciones implícitas de index-3. Esta Tesis se articula en seis Capítulos. En el Capítulo 1 se realiza una revisión bibliográfica de la simulación de sistemas flexibles y los métodos más relevantes de integración de las ecuaciones diferenciales del movimiento. Asimismo, se presentan los objetivos de esta Tesis. En el Capítulo 2 se presenta un método semi-recursivo para la evaluación de las ecuaciones de los sistemas multi-cuerpo con elementos flexibles basado en formulaciones topológicas y síntesis modal. Esta Tesis determina la posición de cada punto del cuerpo flexible en función de un sistema de referencia flotante que se mueve con dicho cuerpo y de las amplitudes de ciertos modos de deformación calculados a partir de un mallado obtenido mediante el Método de Elementos Finitos. Se presta especial atención en las condiciones de contorno que se han de tener en cuenta a la hora de establecer las variables que definen la deformación del cuerpo flexible. El Capítulo 3 se centra en la evaluación de los términos de inercia de los sistemas flexibles que generalmente conllevan un alto coste computacional. Se presenta un método que permite el cálculo de dichos términos basado en el uso de 24 matrices constantes que pueden ser calculadas previamente al proceso de integración. Estas matrices permiten evaluar la matriz de masas y el vector de fuerzas de inercia dependientes de la velocidad sin que sea necesario evaluar la posición deformada de todos los puntos del cuerpo flexible. Se realiza un análisis pormenorizado de dichas matrices con el objetivo de optimizar su cálculo estableciendo aproximaciones que permitan reducir el número de dichos términos y optimizar aún más su evaluación. Se analizan dos posibles simplificaciones: la primera utiliza una discretización no-consistente basada en elementos finitos en los que se definen únicamente los desplazamientos axiales de los nodos; en la segunda propuesta se hace uso de una matriz de masas concentradas (Lumped Mass). Basándose en la formulación presentada, el Capítulo 4 aborda la integración eficiente de las ecuaciones dinámicas. Se presenta un método iterativo para la integración con fórmulas de index-3 basado en la proyección de las ecuaciones dinámicas según las variables independientes del sistema multi-cuerpo. El cálculo del residuo del sistema de ecuaciones no lineales que se ha de resolver de modo iterativo se realiza mediante un proceso recursivo muy eficiente que aprovecha la estructura topológica del sistema. Se analizan tres formas de evaluar la matriz tangente del citado sistema no lineal: evaluación aproximada, numérica y recursiva. El método de integración presentado permite el uso de distintas fórmulas. En esta Tesis se analizan la Regla Trapezoidal, la fórmula BDF de segundo orden y un método híbrido TR-BDF2. Para este último caso se presenta un algoritmo de paso variable. En el Capítulo 5 plantea la implementación del método propuesto en un programa general de simulación de mecanismos que permita la resolución de cualquier sistema multi-cuerpo definiéndolo mediante un fichero de datos. La implementación de este programa se ha realizado tanto en C++ como en Java. Se muestran los resultados de las formulaciones presentadas en esta Tesis mediante la simulación de cuatro ejemplos de distinta complejidad. Mediante análisis concretos se comparan la formulación presentada con otras existentes. También se analiza el efecto del lenguaje de programación utilizado en la implementación y los efectos de las posibles simplificaciones planteadas. Por último, el Capítulo 6 resume las principales conclusiones alcanzadas en la Tesis y las futuras líneas de investigación que con ella se abren. ABSTRACT This Thesis presents an efficient method for solving the forward dynamics of a multi-body sys-tem formed by rigid and flexible bodies with small strains for real-time simulation of real-life models. It is based on topological formulations. The presented work focuses on the efficient solution of the most time-consuming tasks of the simulation process, such as the numerical integration of the motion differential equations and in particular the evaluation of the inertia terms corresponding to the flexible bodies. The dynamic equations are formulated in terms of independent variables of the muti-body system, and they are integrated by means of implicit index-3 formulae. The Thesis is arranged in six chapters. Chapter 1 presents a review of the most relevant and recent contributions related to the modelization of flexible multi-body systems and the integration of the corresponding dynamic equations. The main objectives of the Thesis are also presented in detail. Chapter 2 presents a semi-recursive method for solving the equations of a multi-body system with flexible bodies based on topological formulations and modal synthesis. This Thesis uses the floating frame approach and the modal amplitudes to define the position of any point at the flexible body. These modal deformed shapes are obtained by means of the Finite Element Method. Particular attention has been taken to the boundary conditions used to define the deformation of the flexible bodies. Chapter 3 focuses on the evaluation of the inertia terms, which is usually a very time-consuming task. A new method based on the use of 24 constant matrices is presented. These matrices are evaluated during the set-up step, before the integration process. They allow the calculation of the inertia terms in terms of the position and orientation of the local coordinate system and the deformation variables, and there is no need to evaluate the position and velocities of all the nodes of the FEM mesh. A deep analysis of the inertia terms is performed in order to optimize the evaluation process, reducing both the terms used and the number of arithmetic operations. Two possible simplifications are presented: the first one uses a non-consistent approach in order to define the inertia terms respect to the Cartesian coordinates of the FEM mesh, rejecting those corresponding to the angular rotations; the second approach makes use of lumped mass matrices. Based on the previously presented formulation, Chapter 4 is focused on the numerical integration of the motion differential equations. A new predictor-corrector method based on index-3 formulae and on the use of multi-body independent variables is presented. The evaluation of the dynamic equations in a new time step needs the solution of a set on nonlinear equations by a Newton-Raphson iterative process. The computation of the corresponding residual vector is performed efficiently by taking advantage of the system’s topological structure. Three methods to compute the tangent matrix are presented: an approximated evaluation that considers only the most relevant terms, a numerical approach based on finite differences and a recursive method that uses the topological structure. The method presented for integrating the dynamic equations can use a variety of integration formulae. This Thesis analyses the use of the trapezoidal rule, the 2nd order BDF formula and the hybrid TR-BDF2 method. A variable-time step strategy is presented for the last one. Chapter 5 describes the implementation of the proposed method in a general purpose pro-gram for solving any multibody defined by a data file. This program is implemented both in C++ and Java. Four examples are used to check the validity of the formulation and to compare this method with other methods commonly used to solve the dynamic equations of multi-body systems containing flexible bodies. The efficiency of the programming methodology used and the effect of the possible simplifications proposed are also analyzed. Chapter 6 summarizes the main Conclusions obtained in this Thesis and the new lines of research that have been opened.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUCAO: A comunicação interatrial tipo \"ostium secundum\" é um defeito cardíaco congênito caracterizado pela deficiência parcial ou total da lâmina da fossa oval, também chamada de septo primo. Corresponde a 10 a 12% do total de cardiopatias congênitas, sendo a mais frequente na idade adulta. Atualmente a oclusão percutânea é o método terapêutico de escolha em defeitos com características anatômicas favoráveis para o implante de próteses na maioria dos grandes centros mundiais. A ecocardiografia transesofágica bidimensional com mapeamento de fluxo em cores é considerada a ferramenta padrão-ouro para a avaliação anatômica e monitoração durante do procedimento, sendo crucial para a ótima seleção do dispositivo. Neste sentido, um balão medidor é introduzido e insuflado através do defeito de forma a ocluí-lo temporariamente. A medida da cintura que se visualiza no balão (diâmetro estirado) é utilizada como referência para a escolha do tamanho da prótese. Recentemente a ecocardiografia tridimensional transesofágica em tempo real tem sido utilizada neste tipo de intervenção percutânea. Neste estudo avaliamos o papel da mesma na ótima seleção do dispositivo levando-se em consideração as dimensões e a geometria do defeito e a espessura das bordas do septo interatrial. METODO: Estudo observacional, prospectivo, não randomizado, de único braço, de uma coorte de 33 pacientes adultos portadores de comunicação interatrial submetidos a fechamento percutâneo utilizando dispositivo de nitinol autocentrável (Cera ®, Lifetech Scientific, Shenzhen, China). Foram analisadas as medidas do maior e menor diâmetro do defeito, sua área e as medidas do diâmetro estirado com balão medidor obtidas por meio das duas modalidades ecocardiográficas. Os defeitos foram considerados como elípticos ou circulares segundo a sua geometria; as bordas ao redor da comunicação foram consideradas espessas (>2 mm) ou finas. O dispositivo selecionado foi igual ou ate 2 mm maior que o diâmetro estirado na ecocardiografia transesofágica bidimensional (padrão-ouro). Na tentativa de identificar uma variável que pudesse substituir o diâmetro estirado do balão para a ótima escolha do dispositivo uma série de correlações lineares foram realizadas. RESULTADOS: A idade e peso médio foram de 42,1 ± 14,9 anos e 66,0 ± 9,4kg, respectivamente; sendo 22 de sexo feminino. Não houve diferenças estatísticas entre os diâmetros maior e menor ou no diâmetro estirado dos defeitos determinados por ambas as modalidades ecocardiográficas. A correlação entre as medidas obtidas com ambos os métodos foi ótima (r > 0,90). O maior diâmetro do defeito, obtido à ecoardiografia transesofágica tridimensional, foi a variável com melhor correlação com o tamanho do dispositivo selecionado no grupo como um todo (r= 0,89) e, especialmente, nos subgrupos com geometria elíptica (r= 0,96) e com bordas espessas ao redor do defeito (r= 0,96). CONCLUSÃO: Neste estudo em adultos com comunicações interatriais tipo ostium secundum submetidos à oclusão percutânea com a prótese Cera ®, a ótima seleção do dispositivo pôde ser realizada utilizando-se apenas a maior medida do defeito obtida na ecocardiografia transesofágica tridimensional em tempo real, especialmente nos pacientes com defeitos elípticos e com bordas espessas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As glândulas salivares são estruturas essenciais para a manutenção da homeostase da cavidade oral pela síntese e secreção do fluido salivar. A disfunção ou perda permanente das glândulas salivares causadas por radioterapia, doenças inflamatórias ou desordens congênitas elevam principalmente o risco de infecções da mucosa oral e de estruturas dentárias, além de potencialmente prejudicar funções fisiológicas como fala, mastigação e paladar, diretamente interferindo na qualidade de vida dos indivíduos afetados. Os tratamentos atualmente disponíveis são apenas paliativos, ressaltando a necessidade de se compreender melhor os processos embriogênicos a fim de desenvolver novas estratégias terapêuticas capazes de regenerar as glândulas salivares. O princípio da formação das glândulas salivares baseia-se na coordenação de diversos processos morfogenéticos, e este trabalho foca particularmente em investigar a formação do espaço luminal do sistema de ductos, uma vez que a adequada abertura dos lumens é um processo essencial para a secreção salivar. Relata-se que a remoção das células centrais dos cordões sólidos epiteliais por morte celular apoptótica é o principal mecanismo de abertura do espaço luminal dos futuros ductos glandulares em camundongos. Porém, pouco se sabe sobre o controle temporal da apoptose durante o desenvolvimento glandular e sobre seu comportamento em glândulas salivares humanas. Neste trabalho, o perfil de expressão de diversas proteínas envolvidas na cascata apoptótica em glândulas salivares fetais humanas foi analisado de acordo com cada estágio morfogenético por imunoistoquímica (Bax, Bak, Bad, Bid, Bcl-2, Bcl-x, Bcl-xL, caspase-3 clivada, caspases-6, -7 e -9, apaf-1, survivina e citocromo c). As análises semi-qualitativas resultaram em negatividade apenas para as proteínas Bcl-2, Bad, Bid e caspase-3 clivada em todas as fases de desenvolvimento. A expressão nuclear de Bax e Bak foi identificada em presumidos espaços luminais em estágios precoces, enquanto Bcl-xL foi o fator antiapoptótico da família Bcl-2 que exibiu expressão nuclear mais importante. Caspases-6, -7 e -9 foram positivas em todas as fases, e a ausência de caspase-3 clivada sugere caspase-7 como principal caspase efetora da apoptose em desenvolvimento de glândulas salivares humanas. Ambos os componentes do complexo apoptossomo foram positivos durante o desenvolvimento glandular, e o inibidor survivina demonstrou mais positividade nuclear em estágios mais avançados. Ao observar a expressão de reguladores apoptóticos durante o desenvolvimento glandular humano, foram realizados experimentos funcionais com culturas de tecido glandular de camundongos para avaliar o papel das caspases durante a formação desta estrutura. Inicialmente detectou-se a atividade apoptótica em glândulas salivares de camundongos albinos no centro dos cordões epiteliais primários a partir de estágios precoces de desenvolvimento através de TUNEL e caspase-3 clivada. A partir disso, foi realizada a inibição apoptótica funcional in vitro durante o mesmo período, que resultou em ductos significativamente mais amplos e em defeitos morfológicos importantes nas estruturas luminal e acinar. Este trabalho evidenciou portanto atividade apoptótica durante a formação de glândulas salivares humanas e de camundongo, expressando-se em fases mais precoces do que reportadas anteriormente. Além disso, a ausência de Bad e Bid indica que a via intrínseca está mais ativa que a extrínseca, e distintos perfis de expressão da maioria das moléculas sugere adicionais funções não-apoptóticas durante a morfogênese glandular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, foi utilizado o método de deposição assistida por feixe de íons (IBAD na sigla em inglês) para produção de filmes finos de nitreto de índio em substratos de silício (111) e Safira-C. Variando as condições de deposição e utlilizando a técnica de difração de raios-X, investigou-se com o intuito de obter os parâmetros que resultam em filmes finos com melhor grau de cristalinidade. Os filmes produzidos a 380C apresentaram alta cristalinidade, superior àqueles a 250C. Temperaturas muito superiores a 380C não ocasionam a formação de filme cristalino de InN, como foi observado ao utilizar a temperatura de 480C; o mesmo se observa ao utilizar temperatura ambiente. Na temperatura considerada adequada ,de 380C, obteve-se que a utilização de Ra, ou seja, a razão de fluxo de partículas entre o nitrogênio e índio, em torno de 2,3 permite obter um melhor grau de cristalinização, o qual decresce conforme se diverge desse valor. A comparação entre difratogramas de amostras produzidas com e sem a evaporação prévia de titânio, o qual é possível observar um deslocamento dos picos do InN, indicam que o efeito Gettering permite a redução de impurezas no filme, principalmente de oxigênio. Utilizou-se a técnica de Retroespalhamento de Rutherford para obtenção da composição dos elementos e o perfil de profundidade. Notou-se uma forte mistura dos elementos do substrato de silício e safira com o nitreto de índio mesmo próximos a superfície. A presença indesejável de impurezas, principalmente o oxigênio, durante a deposição de filmes finos é praticamente inevitável. Desta forma, cálculos ab initio baseados na Teoria do Funcional da Densidade (DFT) foram realizados para investigar defeitos isolados e complexos de oxigênio no nitreto de índio e a sua influência nas propriedades óticas. Considerou-se diferentes concentrações de oxigênio (x=2,76, 8,32, 11,11 e 22,22%) aplicando-se o método PBEsolGGA e TB-mBJ para o tratamento da energia e potencial de troca e correlação. Obteve-se que é energeticamente favorável o oxigênio existir principalmente como defeito carregado e isolado. Os resultados utilizando a aproximação de TB-mBJ indicam um estreitamento do bandgap conforme a concentração de oxigênio aumenta. Entretanto, a alta contribuição do efeito de Moss-Burstein resulta num efetivo alargamento do band gap, gerando valores de band gap ótico maiores que no do bulk de nitreto de índio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente existe uma gama considerável de procedimentos assistenciais de saúde os quais, seja por cultura, ou por exigências legais, só podem ser realizados com aporte tecnológico. Logo reduzir o tempo de parada de um equipamento médico está diretamente associado à viabilização da assistência necessária ao paciente. Em outras palavras, prestar uma manutenção otimizada representa qualidade na prestação de serviço da unidade assistencial de saúde, podendo em alguns casos, até, evitar a morte do paciente. Para isso é muito importante que os defeitos sejam reconhecidos e tratados adequadamente, não se esquecendo da otimização dos recursos financeiros. Com base nesta premissa, este trabalho propõe estabelecer uma relação dos tipos de defeitos apresentados pelos equipamentos com sua ocorrência, utilizando para tal o método de Pareto, fornecendo uma ferramenta de análise de grande utilidade na estruturação de grupos de manutenção corretiva de um serviço de engenharia clínica. Assim foram tomados como amostra quatro tipos de equipamentos que são eletrocardiógrafos, monitores cardíacos, unidades eletrocirúrgicas e incubadoras neonatais; caracterizando a existência de defeitos que podem ser classificados em baixa, média e alta complexidade de resolução, o que reflete na necessidade de ferramentas gerais ou específicas ao reparo e do nível de qualificação da equipe técnica, além do universo de componentes, partes e peças envolvidas com cada etapa de manutenção. Foram qualificados e quantificados defeitos para cada tipo de equipamentos acima, onde se constatou que nos equipamentos médico-hospitalares estudados, a maioria das paradas requisitou intervenções simples, de baixa complexidade. Ou seja, poucos defeitos foram responsáveis por muitas ordens de serviço e que o corpo técnico de manutenção pode esperar e se programar para atuar em cada um deles de acordo com o gráfico de Pareto. Desta forma o serviço de engenharia clínica pode ser direcionado para as necessidades prioritárias do estabelecimento assistencial de saúde, sendo capaz de produzir resultados com melhor custo-benefício.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os motores de indução desempenham um importante papel na indústria, fato este que destaca a importância do correto diagnóstico e classificação de falhas ainda em fase inicial de sua evolução, possibilitando aumento na produtividade e, principalmente, eliminando graves danos aos processos e às máquinas. Assim, a proposta desta tese consiste em apresentar um multiclassificador inteligente para o diagnóstico de motor sem defeitos, falhas de curto-circuito nos enrolamentos do estator, falhas de rotor e falhas de rolamentos em motores de indução trifásicos acionados por diferentes modelos de inversores de frequência por meio da análise das amplitudes dos sinais de corrente de estator no domínio do tempo. Para avaliar a precisão de classificação frente aos diversos níveis de severidade das falhas, foram comparados os desempenhos de quatro técnicas distintas de aprendizado de máquina; a saber: (i) Rede Fuzzy Artmap, (ii) Rede Perceptron Multicamadas, (iii) Máquina de Vetores de Suporte e (iv) k-Vizinhos-Próximos. Resultados experimentais obtidos a partir de 13.574 ensaios experimentais são apresentados para validar o estudo considerando uma ampla faixa de frequências de operação, bem como regimes de conjugado de carga em 5 motores diferentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta as propriedades morfológicas, físicas e químicas do diamante da região do Alto Araguaia, situada na borda norte da Bacia do Paraná. Os cristais estudados provém dos garimpos dos rios Garças, Araguaia, Caiapó e seus tributários menores. As dimensões dos cristais embora variáveis concentram-se no intervalo 2-15 mm. Ao contrário do que se observa no Alto Paranaíba, são raros os achados de grande porte. Os fragmentos de clivagem são abundantes, indicando transporte prolongado. Cerca de metade dos indivíduos cristalinos são incolores, sendo os demais castanhos, amarelos, verdes e cinzas. Outras cores como rosa e violeta ocorrem excepcionalmente. A morfologia dos cristais é complexa e variada, caracterizando-se pelo acentuado predomínio do hábito rombododecaédrico, grande número de geminados de contato e ausência de formas cúbicas. As faces exibem grau variável de curvatura e diversos padrões de microestruturas resultantes da dissolução provocada por agentes oxidantes. O ataque parece ocorrer durante a colocação do kimberlito, quando o alívio de pressão eleva a temperatura favorecendo a corrosão. As microestruturas mais freqüentes são degraus, colinas e micro-discos em (110), depressões triangulares eqüiláteras em (111), e depressões quadráticas em (100). Alguns diamantes contém inclusões cristalinas, sendo as mais comuns olivina (forsterita), granada (piropo) e o próprio diamante. Esses minerais apresentam-se geralmente idiomorfos e circundados por anomalias ópticas (birrefringência anômala), evidenciando o caráter epigenético dessas inclusões. Anàlogamente ao que ocorre nos kimberlitos africanos e siberianos, essas inclusões são minerais característicos de altas pressões e temperaturas, sendo a olivina a variedade mais freqüente, seguida pelo diamante e granada. Essa é uma evidência de que o diamante do Alto Araguaia provém de matrizes ultrabásicas (kimberlíticas). As inclusões negras (carvões) são extremamente comuns e parecem constituir defeitos do retículo cristalino (clivagens internas, deslocamentos estruturais), resultando talvez de impactos sofridos pelos cristais durante as diversas fases de transporte. O comportamento ao infravermelho indica que a maior parte dos cristais (85%) contém impurezas de nitrogênio (tipo I), sob forma de placas submicroscópicas paralelas a (100) (tipo Ia), ou átomos dispersos no retículo cristalino (tipo Ib). Os espécimes desprovidos de nitrogênio (tipo II) são relativamente raros (6%), sendo os demais intermediários (9%) entre I e II. Além do nitrogênio, os espectros infravermelhos revelaram que alguns diamantes contém hidrogênio. A presença deste elemento juntamente com o carbono e nitrogênio, sugere uma derivação a partir de sedimentos ricos em matéria orgânica, os quais teriam sido incorporados ao magma kimberlítico por correntes de convecção subcrostais. Outras impurezas menores (elementos traços) são: Al, Ca, Si, Mg, Fe, Cu, Cr e Co. Estes elementos são os mesmos encontrados nos diamantes dos kimberlitos africanos. Observado sob luz ultravioleta, 36% dos cristais exibem cores de fluorescência, sendo as mais comuns o azul e verde, e mais raramente amarelo e castanho. Entre as variedades fluorescentes, 27% são também fosforescentes, sendo a cor mais comum o azul. Não foi observada nenhuma relação entre o comportamento luminescente e as demais propriedades estudadas. O peso específico varia entre 3,500 a 3,530. As principais causas dessa variação são as impurezas de nitrogênio, as inclusões minerais e alguns defeitos cristalinos. Os resultados desta pesquisa indicam claramente que as propriedades do diamante do Alto araguaia são semelhantes às dos diamantes africanos e siberianos, originários de matrizes kimberlíticas. Nenhum dado foi obtido que sugerisse uma origem \"sui generis\" para o material estudado. Em relação à localização das possíveis chaminés dispersoras dos cristais, duas alternativas se apresentam: 1) poderiam estar relacionadas ao magmatismo Neocretáceo, responsável por numerosos focos vulcânicos próximos à área; ou 2) ligadas a episódios mais antigos ocorridos no Pré-Cambriano. Em qualquer das alternativas, poderiam estar recobertas por sedimentos mais recentes ou alteradas superficialmente, sendo que, no caso de uma idade pré-cambriana, há ainda a possibilidade destas matrizes terem sido totalmente destruídas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O cadastramento de peritos cíveis junto ao Poder Judiciário atualmente não é feito eletronicamente e o rol de profissionais não é divulgado pela internet, sendo necessário que os profissionais se cadastrem pessoalmente em cada fórum. Também não existe atualmente uma avaliação dos trabalhos periciais realizados, o que faz com que o resultado dos trabalhos periciais, ou seja, o laudo pericial tenha muitos defeitos e acabe por não ter a qualidade necessária para auxiliar o juiz em sua tomada de decisão. Após a realização de uma pesquisa com peritos sobre suas impressões quanto à forma de cadastramento atualmente utilizada, aplicou-se o método Analytic Hierarchy Process (AHP) para auxiliar na identificação do perfil dos profissionais que desejam modificações no sistema. Foram então feitas observações e sugestões para que este modelo atualmente utilizado seja modificado e possa assim atender aos princípios constitucionais da publicidade, eficiência e finalidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Pacientes com mielomeningocele apresentam elevada mortalidade e desenvolvem déficits neurológicos que ocorrem, primariamente, pelo desenvolvimento anormal da medula e de raízes nervosas e, secundariamente, por complicações adquiridas no período pós-natal. O desafio no cuidado desses pacientes é o reconhecimento precoce dos recém-nascidos de risco para evolução desfavorável a fim de estabelecer estratégias terapêuticas individualizadas. Objetivo: Este estudo tem como objetivo identificar marcadores prognósticos de curto prazo para recém-nascidos com mielomeningocele. As características anatômicas do defeito medular e da sua correção neurocirúrgica foram analisadas para esta finalidade. Métodos: Foi realizado um estudo de coorte retrospectiva com 70 pacientes com mielomeningocele em topografia torácica, lombar ou sacral nascidos entre janeiro de 2007 a dezembro de 2013 no Centro Neonatal do Instituto da Criança do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo. Pacientes com infecção congênita, anomalias cromossômicas e outras malformações maiores não relacionadas à mielomeningocele foram excluídos da análise. As características anatômicas da mielomeningocele e a sua correção neurocirúrgica foram analisadas quanto aos seguintes desfechos: reanimação neonatal, tempo de internação, necessidade de derivação ventricular, deiscência da ferida operatória, infecção da ferida operatória, infecção do sistema nervoso central e sepse. Para a análise bivariada dos desfechos qualitativos com os fatores de interesse foram empregados testes do qui-quadrado e exato de Fisher. Para a análise do desfecho quantitativo, tempo de internação hospitalar, foram empregados testes de Mann-Whitney. Foram estimados os riscos relativos e os respectivos intervalos com 95% de confiança. Foram desenvolvidos modelos de regressão linear múltipla para os desfechos quantitativos e regressão de Poisson para os desfechos qualitativos. Resultados: Durante o período do estudo 12.559 recém-nascidos foram admitidos no Centro Neonatal do Instituto da Criança do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo. Oitenta pacientes foram diagnosticados com mielomeningocele, com incidência de 6,4 casos para cada 1.000 nascidos vivos. Dez pacientes foram excluídos da análise devido à mielomeningocele em topografia cervical (n = 1), à cardiopatia congênita (n = 4), à trissomia do cromossomo 13 (n = 1), à onfalocele (n = 3) e à encefalocele (n = 1). Ocorreram três óbitos (4,28%). Mielomeningocele extensa foi associada a infecção do sistema nervoso central, a complicação de ferida operatória e a maior tempo de internação hospitalar. Os pacientes com mielomeningocele em topografia torácica apresentaram tempo de internação, em média, 39 dias maior que aqueles com defeito em topografia lombar ou sacral. Houve maior necessidade de reanimação em sala de parto entre os pacientes com macrocrania ao nascer. A correção cirúrgica realizada após 48 horas de vida aumentou em 5,7 vezes o risco de infecção do sistema nervoso central. Entre os pacientes operados nas primeiras 48 horas de vida não foi observado benefício adicional na correção cirúrgica realizada em \"tempo zero\". A ausência de hidrocefalia antenatal foi um marcador de bom prognóstico. Nestes pacientes, a combinação dos desfechos necessidade de derivação ventricular, complicações infecciosas, complicações de ferida operatória e reanimação em sala de parto foi 70% menos frequente. Conclusão: Este estudo permitiu identificar marcadores prognósticos de curto prazo em recém-nascidos com mielomeningocele. Os defeitos medulares extensos e a correção cirúrgica após 48 horas de vida influenciaram negativamente na evolução de curto prazo. As lesões extensas foram associadas a maiores taxas de infecção do sistema nervoso central, a complicações de ferida operatória e a internação hospitalar prolongada. A correção cirúrgica realizada após 48 horas de vida aumentou significativamente a ocorrência de infecção do sistema nervoso central. Ausência de hidrocefalia antenatal foi associada a menor número de complicações nos primeiros dias de vida

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho são apresentados os resultados da Aplicação do Método do Potencial Espontâneo, no estudo do vazamento de água em barragens. Os vazamentos de água em barragens podem ocorrer através do maciço e através do substrato. São qui descritas as diversas partes do maciço e as estruturas do substrato por onde ocorrem esses vazamentos, sendo também fornecidas as litologias dos substratos, salientando-se aquelas que podem originar maior permeabilidade. Alguns exemplos típicos de vazamentos, tanto através do maciço, como através do substrato, são fornecidos para casos brasileiros, tão bem como para alguns estrangeiros. O método do Potencial Espontâneo, só recentemente começou a ter aplicações em obras de Engenharia Civil. Suas primeiras aplicações em barragens começaram com Ogilvy e outros (1969) que desenvolveram estudos de laboratório, e de campo em reservatórios do Trans-Cáucaso e da Ásia Central. Antes disso, o método já era largamente utilizado em prospecção mineira, tendo-se desenvolvido por C. Schlumberger, quando estudava a pirita de Saint Bell, na França, em 1913. Para a execução dos trabalhos em laboratório, baseamo-nos na Lei de Darcy, nos estudos de C. Schlumberger sobre o método do Potencial Espontâneo, e nos trabalhos de Ogilvy e outros (1969, 70, 72). Segundo Ogilvy e outros (1969), \"experiências de laboratório são executadas em vista de que os vazamentos de reservatórios são caracterizados por anomalias de correntes naturais. Quanto maior é a descarga de filtração, tanto mais alta são as anomalias. Como resultado, a relação que governa a diferença de potencial e a composição granulométrica da areia, concentrações eletrolíticas e outros fatores foram revelados\". São apresentados gráficos e tabelas como conclusões dos trabalhos de laboratório. O método do Potencial Espontâneo foi empregado no estudo dos vazamentos de água da Barragem de Saracuruna (RJ) e da Barragem do Rio Juqueri, ) Sistema Cantareira, da COMASP (SP). São apresentados trabalhos anteriores sobre a localização, tipo de barragem, locais de vazamento, defeitos de construção, geologia local e características geométricas das barragens mencionadas, bem como são feitas comparações com outras metodologias empregadas no estudo dos mesmos vazamentos, chegando-se a uma boa correlação, entre este método e aqueles. Como conclusões dos trabalhos de campo realizados são fornecidos nove perfis levantados na Barragem de Saracuruna e os mapas de isoanomalias das duas barragens, onde aparecem as zonas de maior permeabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reciclagem profunda com espuma de asfalto tem sido uma alternativa de sucesso para a restauração de pavimentos degradados. Em relação às soluções tradicionais de reabilitação, como os recapeamentos, tem a vantagem de proporcionar a correção de defeitos em camadas inferiores, com a manutenção ou pequena elevação do greide da pista, além de ganhos ambientais, como um menor consumo de materiais virgens da natureza e redução do volume de material descartado. Entretanto, no Brasil não há método para dimensionamento estrutural para esta tecnologia, o que dificulta seu emprego. Para o desenvolvimento de um procedimento de dimensionamento que contemple este tipo de solução, foram estudados métodos presentes na bibliografia internacional: guia da AASHTO de 1993 e Caltrans, dos EUA, TRL386 e TRL611, da Inglaterra, as duas versões do guia sul-africano TG2 e os métodos oriundos do Austroads, tanto o procedimento interino de 2011 como adaptações de órgãos da Austrália e Nova Zelândia. Observou-se divergência de opiniões quanto ao comportamento do material reciclado com espuma de asfalto. Alguns órgãos e autores consideram o comportamento do mesmo mais próximo às misturas asfálticas, sendo o mecanismo de falha o trincamento, e outros o definem como semelhante a um material granular modificado com alta coesão e ruptura devido às deformações permanentes. Correlaciona-se tal associação ao teor de espuma usualmente utilizado nas obras rodoviárias. Outros aspectos que se destacam para este tipo de base são o ganho de resistência ao longo do tempo devido à cura, mesmo com início da operação da rodovia e a importância da infraestrutura remanescente no dimensionamento. Tais fatos foram corroborados pelos estudos de caso e resultados do trecho experimental construído na Rodovia Ayrton Senna - SP 070, monitorado por meio de ensaios deflectométricos com FWD durante um ano. Como resultado do trabalho, foi proposto um procedimento para o dimensionamento estrutural de pavimentos com camadas recicladas a frio com espuma de asfalto utilizando dados deflectométricos que atende o método do Manual de Pavimentação do Departamento Nacional de Infraestrutura de Transportes (DNIT) e incorpora diferentes aspectos na análise mecanicista. Outras conclusões são a viabilidade técnica a longo prazo da solução mencionada e a importância do controle tecnológico, com ênfase para o monitoramento deflectométrico nos primeiros meses de operação do pavimento para averiguar a evolução da cura do material.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As rações comerciais devem ser um alimento balanceado que supra todas as exigências nutricionais nas diferentes fases da vida do animal. Sua formulação deve conter ingredientes de qualidade, em proporções adequadas. É de fundamental importância o conhecimento do valor nutricional das rações, para assegurar que o cão esteja ingerindo diariamente quantidades corretas dos nutrientes. O desbalanço de elementos essenciais e a presença de elementos tóxicos podem causar desequilíbrios nutricionais, doenças e, até mesmo, consequências fatais aos cães. O cobre é um dos vários elementos de importância a ser estudado quanto aos defeitos metabólicos nos cães. O acúmulo de cobre no fígado pode ocasionar lesões progressivas nas organelas dos hepatócitos, resultando em hepatite crônica e cirrose. Diante disso, este trabalho teve como objetivos (I) quantificação dos elementos químicos com função nutricional e com potencial tóxico presentes nas rações para cães adultos e filhotes, (II) avaliação da composição centesimal das rações amostradas, (III) avaliação da variação dos elementos químicos entre as amostras de ração de um mesmo lote de produção (IV), estudo da representatividade de pequenas porções-teste, (V) avaliação da bioacessibilidade de cobre em rações, com experimento in vitro. Os elementos químicos Al, As, Br, Ca, Cl, Co, Cr, Cs, Cu, Fe, I, K, La, Mg, Mn, Na, P, Rb, Sb, Sc, Se, Ti, U e Zn foram determinados pela análise por ativação neutrônica instrumental (INAA). A composição centesimal foi avaliada de acordo com os métodos recomendados da AOAC. A homogeneidade de distribuição dos elementos químicos nas rações foi avaliada pela análise de amostras grandes (LS-NAA). A bioacessibilidade de cobre nas rações foi estimada por meio da simulação da digestão gastrointestinal in vitro. Foi possível determinar por INAA todos os nutrientes minerais, isto é, Ca, P, K, Na, Cl, Mg, Fe, Cu, Mn, Zn, I e Se, com limites estabelecidos pela Association of American Feed Control Officials. Foram notadas em algumas rações altas concentrações de Al, Sb e U, elementos com grande potencial tóxico. Cerca de 16 % das amostras de ração apresentaram, pelo menos, um parâmetro não conforme quanto à composição centesimal. Os resultados obtidos por LS-NAA e NAA convencional mostraram variação na composição entre os sacos de ração para Br, Ca, Na e Zn, com boa concordância entre ambos os métodos. O emprego da LS-NAA combinada com NAA convencional permitiu observar que pequenas porções-teste (350 mg) de ração são representativas comparadas com aquelas de 1 kg para Br, Ca, K, Na e Zn. Em todas as rações para cães, 50 % do cobre presente estava sob a forma bioacessível

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As recentes descobertas de petróleo e gás na camada do Pré-sal representam um enorme potencial exploratório no Brasil, entretanto, os desafios tecnológicos para a exploração desses recursos minerais são imensos e, consequentemente, têm motivado o desenvolvimento de estudos voltados a métodos e materiais eficientes para suas produções. Os tubos condutores de petróleo e gás são denominados de elevadores catenários ou do inglês \"risers\", e são elementos que necessariamente são soldados e possuem fundamental importância nessa cadeia produtiva, pois transportam petróleo e gás natural do fundo do mar à plataforma, estando sujeitos a carregamentos dinâmicos (fadiga) durante sua operação. Adicionalmente, um dos problemas centrais à produção de óleo e gás das reservas do Pré-Sal está diretamente associado a meios altamente corrosivos, tais como H2S e CO2. Uma forma mais barata de proteção dos tubos é a aplicação de uma camada de um material metálico resistente à corrosão na parte interna desses tubos (clad). Assim, a união entre esses tubos para formação dos \"risers\" deve ser realizada pelo emprego de soldas circunferenciais de ligas igualmente resistentes à corrosão. Nesse contexto, como os elementos soldados são considerados possuir defeitos do tipo trinca, para a garantia de sua integridade estrutural quando submetidos a carregamentos cíclicos, é necessário o conhecimento das taxas de propagação de trinca por fadiga da solda circunferencial. Assim, neste trabalho, foram realizados ensaios de propagação de trinca por fadiga na região da solda circunferencial de Inconel® 625 realizada em tubo de aço API 5L X65 cladeado, utilizando corpos de prova do tipo SEN(B) (Single Edge Notch Bending) com relações entre espessura e largura (B/W) iguais a 0,5, 1 e 2. O propósito central deste trabalho foi de obter a curva da taxa de propagação de trinca por fadiga (da/dN) versus a variação do fator de intensidade de tensão (ΔK) para o metal de solda por meio de ensaios normatizados, utilizando diferentes técnicas de acompanhamento e medição da trinca. A monitoração de crescimento da trinca foi feita por três técnicas: variação da flexibilidade elástica (VFE), queda de potencial elétrico (QPE) e análise de imagem (Ai). Os resultados mostraram que as diferentes relações B/W utilizadas no estudo não alteraram significantemente as taxas de propagação de trinca por fadiga, respeitado que a propagação aconteceu em condições de escoamento em pequena escala na frente da trinca. Os resultados de propagação de trinca por fadiga permitiram a obtenção das regiões I e II da curva da/dN versus ΔK para o metal de solda. O valor de ΔKlim obtido para o mesmo foi em torno de 11,8 MPa.m1/2 e os valores encontrados das constantes experimentais C e m da equação de Paris-Erdogan foram respectivamente iguais a 1,55 x10-10 [(mm/ciclo)/(MPa.m1/2)m] e 4,15. A propagação de trinca no metal de solda deu-se por deformação plástica, com a formação de estrias de fadiga.