996 resultados para Processamento de imagens - Técnicas digitais
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
As florestas tropicais da Amazônia historicamente foram alvo de práticas pouco sustentáveis de uso da terra, restando-lhes as cicatrizes de degradação advinda da exploração madeireira predatória, do uso indiscriminado do fogo, das altas taxas de desmatamento e de outras atividades que interferem nas ações de conservação da biodiversidade desta floresta. A atuação do Estado neste cenário é necessária através de políticas que incentivem formas de uso mais sustentáveis, como é o caso das concessões florestais que buscam através do manejo florestal, contribuir para a conservação dos recursos naturais e da manutenção da biodiversidade. A geração de produtos como o Índice de Vegetação por Diferença Normalizada, Modelo Linear de Mistura Espectral e Fração de Abertura de Dossel foram realizados no intuito de criar elementos de interpretação e análise da variável abertura de dossel. Esta pesquisa teve como área de estudo a Unidade de Manejo Florestal I no Conjunto de Glebas Mamuru-Arapiuns, região oeste do estado do Pará; onde foram quantificados e avaliados a abertura de dossel nessa área de concessão florestal, através de imagens multiespectrais e fotos hemisféricas, com vistas a analisar a degradação e a qualidade do manejo executado nesta área. Os resultados obtidos mostraram que é possível estabelecer um processo de monitoramento com o uso dos sensores e técnicas aplicados, uma vez que os dados de MLME, em especial a imagem-fração solo apresentaram forte relação de covariância com os dados obtidos em campo através de fotos hemisféricas, permitindo considera-lo como uma boa ferramenta de alerta para as ações de monitoramentos das florestas amazônicas. Desta forma é possível tornar a gestão florestal mais acessível tanto ao poder público, quanto a entidades não governamentais ou privadas visando fiscalizar as ações de exploração florestal e agregar as populações que vivem nestas áreas tanto oportunidades de renda quanto a conservação florestal.
Resumo:
Pós-graduação em Medicina Veterinária - FMVZ
Resumo:
The main objective is to create a software, using C++ language, for reading and exhibiting in a graphic an Electrocardiogram (ECG) wave. The data is recorded as a FM modulated signal and compressed using Adaptive Differential Pulse Code Modulation (ADPCM). The signal have this characteristics because it was acquired using an experimental equipment, this equipment is the result of research made by the professor who supervised this work. FM demodulation techniques in discrete time, discrete filters and digital signal processing are some of the topics that can be found in this essay. Some concepts about the human heart and about ECG waves are also briefly introduced. These concepts are necessary for understanding the final evaluation of the software performance. The development is partly made using MATLAB. Most of the functions that are used on the software are first tested and designed in MATLAB environment. In the end, an evaluation is done comparing the results that are expected with the ones that MATLAB presents and the ones that the developed software presents
Resumo:
Pós-graduação em Ciência Florestal - FCA
Resumo:
Pós-graduação em Ciências Cartográficas - FCT
Resumo:
Os seres humanos identificam naturalmente outros seres humanos utilizando suas características físicas, fisiológicas ou comportamentais. Dentre essas características, destacam-se os traços faciais. O avanço tecnológico na área de Biometria tem promovido o desenvolvimento de inúmeras técnicas para o reconhecimento automático de faces por meio de computadores, entretanto, existem ainda vários fatores que dificultam esta aplicação, como por exemplo, a variação das condições de iluminação. O objetivo deste artigo é analisar os efeitos da aplicação de um filtro de processamento de imagens, denominado Transformada Census, em uma base de dados com imagens da face em diferentes condições de iluminação. Assim, experimentos foram realizados utilizando a técnica PCA com imagens da base de dados AR antes e depois da aplicação da Transformada Census. Os resultados desses experimentos mostraram que a aplicação da Transformada Census melhorou o resultado do reconhecimento das faces, reduzindo a taxa de erro.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Assunto bastante abordado quando se trata de Sistemas Inteligentes de Transportes (ITS), a identificação veicular - utilizada em grande parte das aplicações de ITS deve ser entendida como um conjunto de recursos de hardware, software e telecomunicações, que interagem para atingir, do ponto de vista funcional, o objetivo de, conseguir extrair e transmitir, digitalmente, a identidade de um veículo. É feita tanto por sistemas que transmitem e recebem uma identidade digital quanto por sistemas que, instalados na infraestrutura da via, são capazes de reconhecer a placa dos veículos circulantes. Quando se trata da identificação automática por meio do reconhecimento da placa veicular, os estudos têm se concentrado sobremaneira nas tecnologias de processamento de imagens, não abordando - em sua maioria - uma visão sistêmica, necessária para compreender de maneira mais abrangente todas as variáveis que podem interferir na eficácia da identificação. Com o objetivo de contribuir para melhor entender e utilizar os sistemas de reconhecimento automático de placas veiculares, este trabalho propõe um modelo sistêmico, em camadas, para representar seus componentes. Associada a esse modelo, propõe uma classificação para os diversos tipos de falhas que podem prejudicar seu desempenho. Uma análise desenvolvida com resultados obtidos em testes realizados em campo com sistemas de identificação de placas voltados à fiscalização de veículos aponta resultados relevantes e limitações para obter correlações entre variáveis, em função dos diversos fatores que podem influenciar os resultados. Algumas entrevistas realizadas apontam os tipos de falhas que ocorrem com mais frequência durante a operação desses sistemas. Finalmente, este trabalho propõe futuros estudos e apresenta um glossário de termos, que poderá ser útil a novos pesquisadores.
Resumo:
Uma grande diversidade de macrofibras poliméricas para reforço de concreto se encontram disponibilizadas hoje em dia. Por natureza estas fibras apresentam grande diversidade de características e propriedades. Estas variações afetam sua atuação como reforço no concreto. No entanto, não há normas brasileiras sobre o assunto e as metodologias de caracterização de normas estrangeiras apresentam divergências. Algumas normas definem que a caracterização do comportamento mecânico deva ser feita nos fios originais e outras que se devam utilizar métodos definidos para caracterização de materiais metálicos. A norma EN14889-2:2006 apresenta maior abrangência, mas deixa dúvidas quanto à adequação dos critérios de caracterização geométrica das fibras e não define um método de ensaio específico para sua caracterização mecânica. Assim, há a necessidade de estabelecimento de uma metodologia que permita a realização de um programa de controle de qualidade da fibra nas condições de emprego. Esta metodologia também proporcionaria uma forma de caracterização do material para estudos experimentais, o que permitiria maior fundamentação científica desses trabalhos que, frequentemente, fundamentam-se apenas em dados dos fabricantes. Assim, foi desenvolvido um estudo experimental focando a caracterização de duas macrofibras poliméricas disponíveis no mercado brasileiro. Focou-se o estudo na determinação dos parâmetros geométricos e na caracterização mecânica através da determinação da resistência à tração e avaliação do módulo de elasticidade. Na caracterização geométrica foi adotada como referência a norma europeia EN14889-2:2006. As medições do comprimento se efetuaram por dois métodos: o método do paquímetro e o método de análise de imagens digitais, empregando um software para processamento das imagens. Para a medição do diâmetro, além das metodologias mencionadas, foi usado o método da densidade. Conclui-se que o método do paquímetro, com o cuidado de esticar previamente as macrofibras, e o método das imagens digitais podem ser igualmente utilizados para medir o comprimento. Já parar determinar o diâmetro, recomenda-se o método da densidade. Quanto à caracterização mecânica, foi desenvolvida uma metodologia própria a partir de informações obtidas de outros ensaios. Assim, efetuaram-se ensaios de tração direta nas macrofibras coladas em molduras de tecido têxtil. Complementarmente, foi avaliado também o efeito do contato abrasivo das macrofibras com os agregados durante a mistura em betoneira no comportamento mecânico do material. Também se avaliou o efeito do método de determinação da área da seção transversal nos resultados medidos no ensaio de tração da fibra. Conclui-se que o método proposto para o ensaio de tração direta da fibra é viável, especialmente para a determinação da resistência à tração. O valor do módulo de elasticidade, por sua vez, acaba sendo subestimado. A determinação da área da seção da fibra através do método da densidade forneceu também os melhores resultados. Além disso, comprovou-se que o atrito das fibras com o agregado durante a mistura compromete o comportamento mecânico, reduzindo tanto a resistência quanto o módulo de elasticidade. Assim, pode-se afirmar que a metodologia proposta para o controle geométrico e mecânico das macrofibras poliméricas é adequada para a caracterização do material.
Resumo:
Mathematical Morphology presents a systematic approach to extract geometric features of binary images, using morphological operators that transform the original image into another by means of a third image called structuring element and came out in 1960 by researchers Jean Serra and George Matheron. Fuzzy mathematical morphology extends the operators towards grayscale and color images and was initially proposed by Goetherian using fuzzy logic. Using this approach it is possible to make a study of fuzzy connectives, which allows some scope for analysis for the construction of morphological operators and their applicability in image processing. In this paper, we propose the development of morphological operators fuzzy using the R-implications for aid and improve image processing, and then to build a system with these operators to count the spores mycorrhizal fungi and red blood cells. It was used as the hypothetical-deductive methodologies for the part formal and incremental-iterative for the experimental part. These operators were applied in digital and microscopic images. The conjunctions and implications of fuzzy morphology mathematical reasoning will be used in order to choose the best adjunction to be applied depending on the problem being approached, i.e., we will use automorphisms on the implications and observe their influence on segmenting images and then on their processing. In order to validate the developed system, it was applied to counting problems in microscopic images, extending to pathological images. It was noted that for the computation of spores the best operator was the erosion of Gödel. It developed three groups of morphological operators fuzzy, Lukasiewicz, And Godel Goguen that can have a variety applications
Resumo:
The increasing in world population, with higher proportion of elderly, leads to an increase in the number of individuals with vision loss and cataracts are one of the leading causes of blindness worldwide. Cataract is an eye disease that is the partial or total opacity of the crystalline lens (natural lens of the eye) or its capsule. It can be triggered by several factors such as trauma, age, diabetes mellitus, and medications, among others. It is known that the attendance by ophthalmologists in rural and poor areas in Brazil is less than needed and many patients with treatable diseases such as cataracts are undiagnosed and therefore untreated. In this context, this project presents the development of OPTICA, a system of teleophthalmology using smartphones for ophthalmic emergencies detection, providing a diagnostic aid for cataract using specialists systems and image processing techniques. The images are captured by a cellphone camera and along with a questionnaire filled with patient information are transmitted securely via the platform Mobile SANA to a online server that has an intelligent system available to assist in the diagnosis of cataract and provides ophthalmologists who analyze the information and write back the patient’s report. Thus, the OPTICA provides eye care to the poorest and least favored population, improving the screening of critically ill patients and increasing access to diagnosis and treatment.
Resumo:
This Thesis main objective is to implement a supporting architecture to Autonomic Hardware systems, capable of manage the hardware running in reconfigurable devices. The proposed architecture implements manipulation, generation and communication functionalities, using the Context Oriented Active Repository approach. The solution consists in a Hardware-Software based architecture called "Autonomic Hardware Manager (AHM)" that contains an Active Repository of Hardware Components. Using the repository the architecture will be able to manage the connected systems at run time allowing the implementation of autonomic features such as self-management, self-optimization, self-description and self-configuration. The proposed architecture also contains a meta-model that allows the representation of the Operating Context for hardware systems. This meta-model will be used as basis to the context sensing modules, that are needed in the Active Repository architecture. In order to demonstrate the proposed architecture functionalities, experiments were proposed and implemented in order to proof the Thesis hypothesis and achieved objectives. Three experiments were planned and implemented: the Hardware Reconfigurable Filter, that consists of an application that implements Digital Filters using reconfigurable hardware; the Autonomic Image Segmentation Filter, that shows the project and implementation of an image processing autonomic application; finally, the Autonomic Autopilot application that consist of an auto pilot to unmanned aerial vehicles. In this work, the applications architectures were organized in modules, according their functionalities. Some modules were implemented using HDL and synthesized in hardware. Other modules were implemented kept in software. After that, applications were integrated to the AHM to allow their adaptation to different Operating Context, making them autonomic.
Resumo:
The fluorescent proteins are an essential tool in many fields of biology, since they allow us to watch the development of structures and dynamic processes of cells in living tissue, with the aid of fluorescence microscopy. Optogenectics is another technique that is currently widely used in Neuroscience. In general, this technique allows to activate/deactivate neurons with the radiation of certain wavelengths on the cells that have ion channels sensitive to light, at the same time that can be used with fluorescent proteins. This dissertation has two main objectives. Initially, we study the interaction of light radiation and mice brain tissue to be applied in optogenetic experiments. In this step, we model absorption and scattering effects using mice brain tissue characteristics and Kubelka-Munk theory, for specific wavelengths, as a function of light penetration depth (distance) within the tissue. Furthermore, we model temperature variations using the finite element method to solve Pennes’ bioheat equation, with the aid of COMSOL Multiphysics Modeling Software 4.4, where we simulate protocols of light stimulation tipically used in optogenetics. Subsequently, we develop some computational algorithms to reduce the exposure of neuron cells to the light radiation necessary for the visualization of their emitted fluorescence. At this stage, we describe the image processing techniques developed to be used in fluorescence microscopy to reduce the exposure of the brain samples to continuous light, which is responsible for fluorochrome excitation. The developed techniques are able to track, in real time, a region of interest (ROI) and replace the fluorescence emitted by the cells by a virtual mask, as a result of the overlay of the tracked ROI and the fluorescence information previously stored, preserving cell location, independently of the time exposure to fluorescent light. In summary, this dissertation intends to investigate and describe the effects of light radiation in brain tissue, within the context of Optogenetics, in addition to providing a computational tool to be used in fluorescence microscopy experiments to reduce image bleaching and photodamage due to the intense exposure of fluorescent cells to light radiation.