1000 resultados para Sistema de visão computacional
Resumo:
Humans have a high ability to extract visual data information acquired by sight. Trought a learning process, which starts at birth and continues throughout life, image interpretation becomes almost instinctively. At a glance, one can easily describe a scene with reasonable precision, naming its main components. Usually, this is done by extracting low-level features such as edges, shapes and textures, and associanting them to high level meanings. In this way, a semantic description of the scene is done. An example of this, is the human capacity to recognize and describe other people physical and behavioral characteristics, or biometrics. Soft-biometrics also represents inherent characteristics of human body and behaviour, but do not allow unique person identification. Computer vision area aims to develop methods capable of performing visual interpretation with performance similar to humans. This thesis aims to propose computer vison methods which allows high level information extraction from images in the form of soft biometrics. This problem is approached in two ways, unsupervised and supervised learning methods. The first seeks to group images via an automatic feature extraction learning , using both convolution techniques, evolutionary computing and clustering. In this approach employed images contains faces and people. Second approach employs convolutional neural networks, which have the ability to operate on raw images, learning both feature extraction and classification processes. Here, images are classified according to gender and clothes, divided into upper and lower parts of human body. First approach, when tested with different image datasets obtained an accuracy of approximately 80% for faces and non-faces and 70% for people and non-person. The second tested using images and videos, obtained an accuracy of about 70% for gender, 80% to the upper clothes and 90% to lower clothes. The results of these case studies, show that proposed methods are promising, allowing the realization of automatic high level information image annotation. This opens possibilities for development of applications in diverse areas such as content-based image and video search and automatica video survaillance, reducing human effort in the task of manual annotation and monitoring.
Resumo:
The purpose of this work is to demonstrate and to assess a simple algorithm for automatic estimation of the most salient region in an image, that have possible application in computer vision. The algorithm uses the connection between color dissimilarities in the image and the image’s most salient region. The algorithm also avoids using image priors. Pixel dissimilarity is an informal function of the distance of a specific pixel’s color to other pixels’ colors in an image. We examine the relation between pixel color dissimilarity and salient region detection on the MSRA1K image dataset. We propose a simple algorithm for salient region detection through random pixel color dissimilarity. We define dissimilarity by accumulating the distance between each pixel and a sample of n other random pixels, in the CIELAB color space. An important result is that random dissimilarity between each pixel and just another pixel (n = 1) is enough to create adequate saliency maps when combined with median filter, with competitive average performance if compared with other related methods in the saliency detection research field. The assessment was performed by means of precision-recall curves. This idea is inspired on the human attention mechanism that is able to choose few specific regions to focus on, a biological system that the computer vision community aims to emulate. We also review some of the history on this topic of selective attention.
Resumo:
O curso proposto está dividido em sete capítulos que vão desde a apresentação da importância da análise de imagens em geologia até à discussão e aplicação de aprendizagem máquina na análise de imagens. Sou defensor do software livre, assim todos os programas utilizados neste curso caiem nesta categoria. Os exemplos apresentados serão demonstrados com recurso aos seguintes programas: QGIS – Sistemas de informação geográfica GIMP – Tratamento de imagens R - Cálculo RStudio – IDE para o R Anaconda Python Notebook – IDE para Python OpenCV – Visão computacional Pretendo que o curso para o qual este texto serve de suporte seja eminentemente prático, um curso de “mãos na massa”, esperando-se que cada participante possa tratar temas do seu interesse pessoal. No primeiro capítulo é feita uma introdução sobre o que são imagens e a sua importância em geologia. O segundo capítulo trata de descrever os passos para a instalação do software proposto e fornecer pequenos exemplos da sua utilização. O terceiro capítulo descreve os métodos e as limitações da aquisição das imagens. São dados alguns exemplos de funções de aquisição de imagens. Os exemplos práticos deste capítulo incluem exemplos em Python e R. O quarto capítulo fala dos parâmetros contidos num ficheiro de imagens. Neste capítulo são apresentados exemplos em Python. O quinto capítulo trata das ferramentas que se podem aplicar durante o préprocessamento de uma imagem. O sexto capítulo trata de mostrar alguns exemplos de análise de imagens e no sétimo capítulo é abordada a questão de utilização de algoritmos de aprendizagem máquina na análise de imagens.
Resumo:
Computational Swarms (enxames computacionais), consistindo da integração de sensores e atuadores inteligentes no nosso mundo conectado, possibilitam uma extensão da info-esfera no mundo físico. Nós chamamos esta info-esfera extendida, cíber-física, de Swarm. Este trabalho propõe uma visão de Swarm onde dispositivos computacionais cooperam dinâmica e oportunisticamente, gerando redes orgânicas e heterogêneas. A tese apresenta uma arquitetura computacional do Plano de Controle do Sistema Operacional do Swarm, que é uma camada de software distribuída embarcada em todos os dispositivos que fazem parte do Swarm, responsável por gerenciar recursos, definindo atores, como descrever e utilizar serviços e recursos (como divulgá-los e descobrí-los, como realizar transações, adaptações de conteúdos e cooperação multiagentes). O projeto da arquitetura foi iniciado com uma revisão da caracterização do conceito de Swarm, revisitando a definição de termos e estabelecendo uma terminologia para ser utilizada. Requisitos e desafios foram identificados e uma visão operacional foi proposta. Esta visão operacional foi exercitada com casos de uso e os elementos arquiteturais foram extraídos dela e organizados em uma arquitetura. A arquitetura foi testada com os casos de uso, gerando revisões do sistema. Cada um dos elementos arquiteturais requereram revisões do estado da arte. Uma prova de conceito do Plano de Controle foi implementada e uma demonstração foi proposta e implementada. A demonstração selecionada foi o Smart Jukebox, que exercita os aspectos distribuídos e a dinamicidade do sistema proposto. Este trabalho apresenta a visão do Swarm computacional e apresenta uma plataforma aplicável na prática. A evolução desta arquitetura pode ser a base de uma rede global, heterogênea e orgânica de redes de dispositivos computacionais alavancando a integração de sistemas cíber-físicos na núvem permitindo a cooperação de sistemas escaláveis e flexíveis, interoperando para alcançar objetivos comuns.
Resumo:
OBJETIVO: Conhecer a atribuição de significado dada por bioeticistas brasileiros quanto à equidade no sistema de saúde. MÉTODOS: Pesquisa qualitativa, exploratória. Entre julho de 2007 e julho de 2008, foram entrevistados 20 bioeticistas, dirigentes e ex-dirigentes da Sociedade Brasileira de Bioética e de suas regionais (2005-2008). O tratamento dos dados foi realizado por análise de discurso. RESULTADOS: Os discursos levaram ao estabelecimento das seguintes ideias centrais: tratar desigualmente os desiguais conforme suas necessidades; equidade e desigualdades compensadas; equidade e maximização dos benefícios; equidade e mérito social; equidade e direitos. CONCLUSÃO: Os resultados da pesquisa evidenciam a existência entre os bioeticistas pesquisados de uma diversidade de interpretações sobre equidade no sistema de saúde, reforçando a noção de que é difícil, no mundo contemporâneo, decidir sobre o que seria um sistema justo e equânime.
Resumo:
O artigo apresenta resultados da investigação sobre a integração de ambientes de modelagem computacional ao aprendizado exploratório de Física. Os resultados aqui apresentados são relativos ao estudo da interação e desempenho de alunos de ensino superior durante a utilização do ambiente de modelagem computacional semiquantitativo WLinkIt em uma atividade de conteúdo específico em Física: o sistema mola-massa. Os resultados mostram que os estudantes apresentaram habilidades para desenvolver um modelo sobre a situação proposta e relacionar o comportamento apresentado pelo modelo com o esperado por eles, alterar o modelo e explicar o comportamento apresentado pelas variáveis. Os resultados mostram também que as dificuldades apresentadas foram relacionadas à delimitação do sistema a ser estudado, ao entendimento da influência de uma variável sobre a outra, ao entendimento de quem é o agente causal do sistema, ao entendimento da função de uma ligação entre duas variáveis e ao entendimento dos conceitos envolvidos. Assim, o mapeamento desses aspectos é fundamental para o delineamento de pesquisas futuras no sentido de promover, na prática, a integração de Ambientes de Modelagem Computacional Semiquantitativos na sala de aula, mais especificamente para o estudo de tópicos de Física.
Resumo:
Apresenta-se um sistema computacional, denominado ICADPLUS, desenvolvido para elaboração de banco de dados, tabulação de dados, cálculo do índice CPO e análise estatística para estimação de intervalos de confiança e comparação de resultados de duas populações.Tem como objetivo apresentar método simplificado para atender necessidades de serviços de saúde na área de odontologia processando fichas utilizadas por cirurgiões dentistas em levantamentos epidemiológicos de cárie dentária. A característica principal do sistema é a dispensa de profissional especializado na área de odontologia e computação, exigindo o conhecimento mínimo de digitação por parte do usuário, pois apresenta "menus" simples e claros como também relatórios padronizados, sem possibilidade de erro. Possui opções para fichas de CPO segundo Klein e Palmer, CPO proposto pela OMS, CPOS segundo Klein, Palmer e Knutson, e ceo. A validação do sistema foi feita por comparação com outros métodos, permitindo recomendar sua adoção.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do grau de Mestre em Engenharia Informática
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologias da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
OBJETIVO: Este artigo mostra um procedimento de conversão de imagens de tomografia computadorizada ou de ressonância magnética em modelo de voxels tridimensional para fim de dosimetria. Este modelo é uma representação personalizada do paciente que pode ser usado na simulação, via código MCNP (Monte Carlo N-Particle), de transporte de partículas nucleares, reproduzindo o processo estocástico de interação de partículas nucleares com os tecidos humanos. MATERIAIS E MÉTODOS: O sistema computacional desenvolvido, denominado SISCODES, é uma ferramenta para planejamento computacional tridimensional de tratamentos radioterápicos ou procedimentos radiológicos. Partindo de imagens tomográficas do paciente, o plano de tratamento é modelado e simulado. São então mostradas as doses absorvidas, por meio de curvas de isodoses superpostas ao modelo. O SISCODES acopla o modelo tridimensional ao código MCNP5, que simula o protocolo de exposição à radiação ionizante. RESULTADOS: O SISCODES vem sendo utilizado no grupo de pesquisa NRI/CNPq na criação de modelos de voxels antropomórficos e antropométricos que são acoplados ao código MCNP para modelar braquiterapias e teleterapias aplicadas a tumores em pulmões, pelve, coluna, cabeça, pescoço, e outros. Os módulos atualmente desenvolvidos no SISCODES são apresentados junto com casos exemplos de planejamento radioterápico. CONCLUSÃO: O SISCODES provê de maneira rápida a criação de modelos de voxels personalizados de qualquer paciente que podem ser usados em simulações por códigos estocásticos tipo MCNP. A combinação da simulação via MCNP com um modelo personalizado do paciente traz grandes melhorias na dosimetria de tratamentos radioterápicos.
Resumo:
O objetivo deste trabalho foi analisar as atividades de produção de leite em sistema intensivo, classificá-las em processos de produção e projetá-las em valores energéticos em Mapa de Fluxo de Valores Energéticos (MFVE). Na pesquisa, realizada em uma fazenda do município de Córrego Fundo-MG, foi feito um estudo dos fluxos energéticos na produção, sendo todo o sistema dividido em processos de produção de milho para silagem, alimentação do rebanho, ordenha, sanidade animal, manejo sanitário e controle de produção. Foram levantados os empregos de energia direta e indireta nos processos produtivos em 2011. O valor unitário da energia empregada na produção de um litro de leite foi de 7,42 MJ kg-1, com eficiência energética de 34,56%. Por meio do Mapa de Fluxo de Valores Energéticos (MFVE) proposto, foi possível visualizar a participação energética para cada processo produtivo, viabilizando a aplicação de ações de planejamento e controle da produção direcionada à melhor eficiência econômica, ambiental e social.
Resumo:
O objetivo deste artigo é apresentar uma metodologia de automatização do processo de coleta e disponibilização de dados meteorológicos. Esta metodologia faz o uso de uma linguagem de scripts para definir as ações a serem executadas desde a coleta dos dados na estação climática, passando pelo seu processamento e finalizando com o envio dos dados processados para publicação em um site na internet. Os dados meteorológicos temperatura, umidade, velocidade do vento, chuva, radiação e evapotranspiração disponibilizados no site permitem aos produtores e pesquisadores analisar as variações climáticas, auxiliando assim em tomadas de decisão mais eficientes. O resultado obtido é o fornecimento sem custos de informações importantes e de qualidade sobre o clima.