45 resultados para Classificação supervisionada de imagens
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
Um dos maiores desafios tecnológicos no presente é o de se conseguir gerar e manter, de uma maneira eficiente e consistente, uma base de dados de objectos multimédia, em particular, de imagens. A necessidade de desenvolver métodos de pesquisa automáticos baseados no conteúdo semântico das imagens tornou-se de máxima importância. MPEG-7 é um standard que descreve o contudo dos dados multimédia que suportam estes requisitos operacionais. Adiciona um conjunto de descritores audiovisuais de baixo nível. O histograma é a característica mais utilizada para representar as características globais de uma imagem. Neste trabalho é usado o “Edge Histogram Descriptor” (EHD), que resulta numa representação de baixo nível que permite a computação da similaridade entre imagens. Neste trabalho, é obtida uma caracterização semântica da imagem baseada neste descritor usando dois métodos da classificação: o algoritmo k Nearest Neighbors (k-NN) e uma Rede Neuronal (RN) de retro propagação. No algoritmo k-NN é usada a distância Euclidiana entre os descritores de duas imagens para calcular a similaridade entre imagens diferentes. A RN requer um processo de aprendizagem prévia, que inclui responder correctamente às amostras do treino e às amostras de teste. No fim deste trabalho, será apresentado um estudo sobre os resultados dos dois métodos da classificação.
Resumo:
No passado recente foram desenvolvidas v árias t écnicas para classi ca ção de dados hiperspectrais. Uma abordagem tí pica consiste em considerar que cada pixel e uma mistura linear das reflectancias espectrais dos elementos presentes na c élula de resolu ção, adicionada de ru ído. Para classifi car e estimar os elementos presentes numa imagem hiperespectral, v ários problemas se colocam: Dimensionalidade dos dados, desconhecimento dos elementos presentes e a variabilidade da reflectância destes. Recentemente foi proposta a An álise em Componentes Independentes,para separa ção de misturas lineares. Nesta comunica ção apresenta-se uma metodologia baseada na An álise em Componentes Independentes para detec ção dos elementos presentes em imagens hiperespectrais e estima ção das suas quantidades. Apresentam-se resultados desta metodologia com dados simulados e com dados hiperespectrais reais, ilustrando a potencialidade da t écnica.
Resumo:
Ao longo dos últimos anos tem-se assistido a uma rápida evolução dos dispositivos móveis. Essa evolução tem sido mais intensa no poder de processamento, na resolução e qualidade das câmaras e na largura de banda das redes móveis de nova geração. Outro aspecto importante é o preço, pois cada vez mais existem dispositivos móveis avançados a um preço acessível, o que facilita a adopção destes equipamentos por parte dos utilizadores. Estes factores contribuem para que o número de utilizadores com “computadores de bolso” tenda a aumentar, possibilitando cada vez mais a criação de ferramentas com maior complexidade que tirem partido das características desses equipamentos. Existem muitas aplicações que exploram estas características para facilitar o trabalho aos utilizadores. Algumas dessas aplicações conseguem retirar informação do mundo físico e fazer algum tipo de processamento, como por exemplo, um leitor de códigos QR ou um OCR (Optical Character Recognizer). Aproveitando o potencial dos dispositivos móveis actuais, este trabalho descreve o estudo, a implementação e a avaliação de uma aplicação de realidade aumentada para adquirir e gerir recibos em papel de forma automática e inteligente. A aplicação utiliza a câmara do dispositivo para adquirir imagens dos recibos de forma a poder processá-las recorrendo a técnicas de processamento de imagem. Tendo uma imagem processada do recibo é efectuado um reconhecimento óptico de caracteres para extracção de informação e é utilizada uma técnica de classificação para atribuir uma classe ao documento. Para um melhor desempenho do classificador é utilizada uma estratégia de aprendizagem incremental. Após a correcta classificação é possível visualizar o recibo com informação adicional (realidade aumentada). O trabalho proposto inclui também a avaliação da interface e dos algoritmos desenvolvidos.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde - Área de especialização: Imagem Digital por Radiação X.
Resumo:
Dissertação de natureza científica realizada para a obtenção do grau de Mestre em Engenharia de redes de comunicação e Multimédia
Resumo:
Depois de mais quinhentos anos de literatura impressa (e de tradições orais e manuscritas anteriores), nas últimas décadas, as tecnologias da informação e comunicação estimularam uma diáspora textual do suporte impresso para o suporte digital e, pela primeira vez, a literatura passou a estar presente nas várias plataformas digitais (computador, e-readers, telemóvel, tablet, etc). Os meios audiovisuais e multimédia tornaram-se veículos de uma literatura digitalizada (obras impressas e digitalizadas eletronicamente), e parceiros ágeis de uma literatura eletrónica, a qual inclui, de uma forma completamente inovadora, produções originalmente criadas com o computador para serem lidas, quase, exclusivamente em ambiente digital. Esta comunicação pretende discutir as singularidades desta nova forma de literatura partindo do princípio de que a hibridez das formas e da inovação tecnológica que os artistas trazem para os trabalhos obrigam, de facto, a um nível elevado de experimentação que pode, no início, ofuscar o conteúdo literário e resistir às tentativas de categorização e classificação clássicas baseadas no impresso. Se a literatura também é tornar estranho o que é conhecido e fazer-nos olhar para as coisas de maneira diferente; se sempre existiram formas diferentes de escrever e de ler, será necessário perceber as características deste novo tipo de escrita eletrónica. A partir de alguns exemplos de trabalhos de literatura eletrónica, pretende-se colocar questões essenciais às práticas anteriores de criação e perceção através de propostas híbridas que compreendem modalidades visuais, sonoras, fílmicas, cinestésicas feitas, por exemplo, de letras que fogem do lugar, sons que ensurdecem, e imagens que cegam.
Resumo:
Relatório de investigação apresentado à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Ensino de 1º e 2º ciclo do Ensino Básico
Resumo:
Introdução – A cintigrafia de perfusão do miocárdio (CPM) é utilizada no diagnóstico e seguimento de pacientes com doença arterial coronária, sendo a sua avaliação frequentemente realizada através da análise visual dos cortes tomográficos. A escala de cores selecionada é essencial na interpretação clínica das imagens de perfusão do miocárdio. Objetivo – Avaliar a influência de diferentes escalas de cores na avaliação qualitativa das imagens de CPM e estudar quais as mais adequadas para análise visual. Métodos – Trinta e cinco estudos de CPM foram avaliados visualmente por 16 estudantes da licenciatura em medicina nuclear nas escalas de cores Cool, Gray, Gray Invert, Thermal e Warm. Para a escala de cores Cool, a análise das imagens de CPM foi realizada através de um sistema de classificação semiquantitativo por scores. As restantes escalas de cores foram avaliadas por comparação com a análise das imagens efetuada com escala de cores Cool. Resultados/Discussão – Para a escala de cores Cool, a variabilidade interoperador revelou a existência de diferenças estatisticamente significativas entre todos os participantes (p<0,05), o que se pode atribuir à subjetividade da avaliação visual. Os resultados relativos às escalas de cores Gray e Gray Invert foram os mais próximos da perfusão do miocárdio observada com a escala Cool, considerando-se escalas de cores alternativas na análise visual dos estudos de CPM. Para as escalas de cores Thermal e Warm os resultados foram mais divergentes, não se considerando adequadas para a avaliação visual dos estudos de CPM. Conclusão – A escala de cores influencia a avaliação qualitativa da perfusão na CPM.
Resumo:
Em três equipamentos de Ressonância Magnética [1,5T] avaliaram-se e compararam-se 3 modelos de bobinas dedicadas para estudos mamários. A variável qualidade de imagem foi avaliada quantitativamente através dos indicadores: (i) relação entre o sinal e o ruído (SNR) e (ii) uniformidade do sinal (U). Na avaliação qualitativa consideram-se as variáveis: (iii) conforto proporcionado às voluntárias durante o exame, (iv) acessibilidade à mama para procedimentos de intervenção, (v) manipulação e posicionamento pelos Técnicos de Radiologia, (vi) possibilidade de selecção uni ou bilateral na aquisição da imagem e (vii) orientação da paciente dentro do magneto. Para a obtenção das imagens, 3 mulheres voluntárias, sem história conhecida de patologia mamária que representavam os padrões mamários 1, 2 e 3 da classificação BIRADS (35, 53 e 72 anos) foram submetidas a uma sequência RM utilizando-se a técnica de saturação espectral da gordura (SPIR), em ponderação T2. Procedeu-se a uma análise de variância factorial com cinco factores fixos sem réplicas e verificou-se que existiam diferenças significativas nas imagens relativamente aos valores médios da SNR e U nas três bobinas [SNR (valor-p=0, F=277,193) e U (valor-p=0, F=1487,95)]. A análise das comparações múltiplas de Tukey, permitiu verificar que existem diferenças significativas entre os valores médios da SNR e da U entre todas as combinações de pares de bobinas, sendo a bobina Z a que apresentou os valores médios da SNR e da U significativamente mais elevados [SNR (15,08u.a.) e U (0,58u.a.)] e, por isso, permitindo obter melhores imagens. Quanto à bobina X verificaram-se os valores de (SNR=4,77 e U=0,30u.a.) e para a bobina Y o SNR (2u.a.) e a U (0,06u.a). Verificou-se que a posição da ROI nos procedimentos de medida (correlação de Spearman) não influencia a qualidade da imagem (valor-p≥0 em todas as bobinas). A classificação mais elevada relativamente ao conforto foi atribuída à bobina X, seguindo-se a bobina Z. A escolha do modelo da bobina é importante para promover o aumento da qualidade das imagens, do conforto da paciente e manipulação nas manobras de posicionamento. Este estudo poderá contribuir como regulador dos aspectos financeiros e comerciais desenvolvidos entre marcas concorrentes no mercado.
Resumo:
A limitada capacidade dos computadores em processar documentos de texto e consequente di culdade de extracção de informação desses documentos deve-se à dificuldade de processamento de informação não-estruturada. De modo a reduzir essa limitação é necessário aumentar a estrutura dos documentos com que os computadores trabalham. Este trabalho propõe um modelo de classificação de documentos através de um processo de refinamento sucessivo da informação. A cada iteração a informação presente no documento é melhor caracterizada através da aplicação de um classi cador apropriado. O processo de classificação recorre a informação estatística, usando o modelo de classificação de Bayes, sobre documentos ou fragmentos de documentos. O processo de classificação também recorre a técnicas para especificação de padrões de texto, usando expressões regulares para extrair informação que exibe um padrão conhecido. A informação obtida é armazenada em XML, que permite a interrogação de colecções de documentos de modo automático (recorrendo a bases de dados de suporte nativo XML). O XML também é usado para transformar a informação original noutros formatos, como por exemplo o HTML. Este formato pode ser usado para sintetizar a informação de modo melhorar a sua apresentação.
Resumo:
As características dos vídeos recolhidos num sistema de videovigilância são bastante diferentes dos vídeos recolhidos para filmes. Cada sistema de videovigilância é único. Este trabalho trata a implementação, e especialização, de um algoritmo de codificação de vídeo para um sistema particular de videovigilância composto por três câmaras fixas. O algoritmo desenvolvido tira partido do facto de se conhecer previamente as características físicas e de utilização do local. Utilizando uma codificação inteligente, a codificação das imagens recolhidas depende do dia da semana, hora, câmara e da detecção de alterações na área que se encontra sob vigilância. A especialização é realizada através da configuração do codificador, tendo em conta critérios pré-definidos, de modo a obter uma relação adequada entre a qualidade de imagem e a compressão dos dados. As imagens são independentemente codificadas pela seguinte ordem de operações: transformada discreta do co-seno, quantização, run-length e codificação de Huffman. São armazenadas todas as imagens onde for detectado movimento, não a totalidade da imagem, mas apenas as regiões onde foi detectado movimento sendo utilizado uma decomposição em árvore quaternária. Foi implementado um protótipo de modo a avaliar o desempenho do algoritmo de codificação. O algoritmo, quando comparado com a técnica de codificação usada no sistema de videovigilância, apresenta uma maior taxa de compressão As imagens descodificadas apresentam qualidade suficiente para identificar as pessoas em pontos críticos e seguir os seus movimentos ao longo do corredor.
Resumo:
O estudo da fiabilidade é um tema imprescindível para qualquer sistema homem-máquina que pretenda adquirir os melhores índices de segurança e rendimento. Se a fiabilidade dos equipamentos é um campo onde já muito foi estudado, debatido e provado no terreno e onde os novos desenvolvimentos irão apenas acontecer devido aos avanços tecnológicos que permitam melhor predizer as potenciais falhas dos equipamentos, já a fiabilidade humana é uma área de estudo relativamente nova e onde muito há a desenvolver, particularmente devido ás características inatas do ser humano. Ao contrário da evolução tecnológica, onde a melhoria dos materiais e processos obedece a um aperfeiçoamento relativamente gradual e crescente e que pode ser avaliado e melhorado, o comportamento e o aperfeiçoamento do ser humano apresentam dificuldades e complexidades variadas porque o mesmo é único e sofre influências adversas e imprevisíveis do meio em que vive, as quais têm influência directa no seu comportamento. Assim este trabalho académico propõe-se estudar e identificar as principais causas de erros humanos, através do conhecimento adquirido acerca dos processos cognitivos mais comuns do Homem, bem como definir os conceitos e procedimentos adjacentes à fiabilidade humana e às suas principais ferramentas de avaliação.
Resumo:
O tema deste trabalho visa abordar a Construção de Edifícios Residenciais de características singulares no mercado da Construção / Imobiliário, nomeadamente no que diz respeito à garantia das características a eles implícitas. Assim, abordam-se conseitos como a diferenciação e customização na construção, a especialização da equipa de trabalho e a classificação de empreendimentos, aqui designados como Super Prime. Um empreendimento Super Prime deve permitir alcançar um modo de vida bastante particular, movido pelo gosto, pela ostentação e pelo prazer. Um produto com estas características deve ser definido pela sua qualidade, exclusividade, criatividade, marca, emoção, autenticidade, prestígio e glamour. Num sector em constante mudança, cada vez mais exigente e competitivo e altamente dependente do mercado económico, facilmente se compreende a necessidade de diferenciação na construção de imóveis e da consciencialização do consumidor para a qualidade dos produtos. No entanto, não existe nenhuma metodologia, quer a nível nacional, quer a nível internacional, que garanta este conceito de classificação de edifícios residenciais. Este facto levou à proposta de uma Metodologia de Classificação de Empreendimentos Super Prime, que se designou por MCESP, e que tem como objectivo principal a verificação do cumprimento dos requisitos técnicos implícitos a estes empreendimentos, possibilitando a sua classificação dentro desse segmento. Desta forma, identificaram-se esses requisitos técnicos, definiu-se uma hierarquia lógica de exigências a cumprir, procedeu-se à distinção qualitativa de cada característica apresentada e obteve-se uma avaliação numérica, gráfica e justificativa. De uma forma geral, a proposta deste método de classificação surge como um critério de diferenciação e de notoriedade para empreiteiros, donos de obra e promotores, aumentando a rentabilidade e competitividade de uma empresa. A sua adopção possibilita a optimização de soluções, o aumento do nível de confiança dos clientes e o aumento de prestígio das suas empresas. Procurou-se igualmente, contribuir para o avanço do conhecimento no campo da tecnologia de construção residencial Super Prime, apoiando a inovação, o desenvolvimento e a personalização, contribuindo para um melhor produto final.
Resumo:
Este ensaio reflecte sobre os factores que presidem à distinção da Fotografia Publicitária face às categorias da Fotografia Artística e da Fotografia Jornalística. As diferentes formas de utilizar a fotografia podem traduzir-se em várias categorias cujas fronteiras são muitas vezes ténues e extremamente difíceis de situar. No entanto, a existência destas categorias é comummente aceite e reconhecida, dando origem a uma classificação hierarquizada que acarreta uma diferença de estatutos. Os anos de exercício em diversas funções da Publicidade, a par da prática de investigação académica, permitiram uma análise realista do “lugar” ocupado por esta categoria a partir de uma interrogação acerca das diferenças de estatuto subjacentes a estas três categorias. Na sociedade contemporânea as imagens da Publicidade são um reflexo dos desejos de consumo e a Fotografia Publicitária possui uma conotação marcadamente mercantil que a coloca numa espécie de categoria à parte, que importa ser analisada. Eis porque nos propomos interrogar ao longo deste trabalho acerca dos eventuais pontos de contacto entre a Fotografia Publicitária, a Fotografia Artística e a Fotografia Jornalística, para então determinar possíveis factores que presidem à sua distinção. Igualmente, como forma de “testar” as conclusões, apresenta-se um conjunto de exercícios que visam provar a tese defendida.
Resumo:
Esta tese pretende contribuir para o estudo e análise dos factores relacionados com as técnicas de aquisição de imagens radiológicas digitais, a qualidade diagnóstica e a gestão da dose de radiação em sistema de radiologia digital. A metodologia encontra-se organizada em duas componentes. A componente observacional, baseada num desenho do estudo de natureza retrospectiva e transversal. Os dados recolhidos a partir de sistemas CR e DR permitiram a avaliação dos parâmetros técnicos de exposição utilizados em radiologia digital, a avaliação da dose absorvida e o índice de exposição no detector. No contexto desta classificação metodológica (retrospectiva e transversal), também foi possível desenvolver estudos da qualidade diagnóstica em sistemas digitais: estudos de observadores a partir de imagens arquivadas no sistema PACS. A componente experimental da tese baseou-se na realização de experiências em fantomas para avaliar a relação entre dose e qualidade de imagem. As experiências efectuadas permitiram caracterizar as propriedades físicas dos sistemas de radiologia digital, através da manipulação das variáveis relacionadas com os parâmetros de exposição e a avaliação da influência destas na dose e na qualidade da imagem. Utilizando um fantoma contraste de detalhe, fantomas antropomórficos e um fantoma de osso animal, foi possível objectivar medidas de quantificação da qualidade diagnóstica e medidas de detectabilidade de objectos. Da investigação efectuada, foi possível salientar algumas conclusões. As medidas quantitativas referentes à performance dos detectores são a base do processo de optimização, permitindo a medição e a determinação dos parâmetros físicos dos sistemas de radiologia digital. Os parâmetros de exposição utilizados na prática clínica mostram que a prática não está em conformidade com o referencial Europeu. Verifica-se a necessidade de avaliar, melhorar e implementar um padrão de referência para o processo de optimização, através de novos referenciais de boa prática ajustados aos sistemas digitais. Os parâmetros de exposição influenciam a dose no paciente, mas a percepção da qualidade de imagem digital não parece afectada com a variação da exposição. Os estudos que se realizaram envolvendo tanto imagens de fantomas como imagens de pacientes mostram que a sobreexposição é um risco potencial em radiologia digital. A avaliação da qualidade diagnóstica das imagens mostrou que com a variação da exposição não se observou degradação substancial da qualidade das imagens quando a redução de dose é efectuada. Propõe-se o estudo e a implementação de novos níveis de referência de diagnóstico ajustados aos sistemas de radiologia digital. Como contributo da tese, é proposto um modelo (STDI) para a optimização de sistemas de radiologia digital.