965 resultados para RECONHECIMENTO DE PADRÕES


Relevância:

60.00% 60.00%

Publicador:

Resumo:

O processamento de imagem tem entre outras aplicações a melhoria a codificação e o reconhecimento de padrões, pode se citar como exemplos de áreas onde se efectua essa aplicação: o diagnostico medico (raios X, ressonância magnética, ultra som) a detecção remota (aviões e satélites) e a geologia (análise dados sonares e sísmocos).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O estudo científico dos correlatos cognitivos da aquisição e desenvolvimento da competência de leitura é um assunto de grande relevância quer teórica quer prática, no sentido em que pode ajudar a compreender os processos cognitivos básicos envolvidos na leitura e, em última instância, a delinear os seus preditores e a predizer dificuldades na sua aquisição. A par da consciência fonológica – capacidade para perceber e manipular as unidades de som –, um dos construtos que frequentemente tem sido associado ao desenvolvimento da competência de leitura é a velocidade de nomeação de estímulos visuais (também conhecida como nomeação rápida automatizada ou velocidade de acesso ao léxico). Tradicionalmente, esta capacidade tem sido avaliada recorrendo ao paradigma clássico das provas de nomeação rápida automatizada (RAN) desenvolvidas por Denckla e Rudel (1976), nas quais é pedido ao sujeito que nomeie o mais rapidamente possível um conjunto de estímulos familiares apresentados serialmente. Nas últimas décadas, inúmeros estudos vieram demonstrar que a nomeação rápida é um importante preditor da competência de leitura, sobretudo da fluência da leitura, e um défice central em perturbações de leitura como a dislexia. O desempenho numa tarefa de nomeação rápida apela à sincronização e integração de vários processos, incluindo: (a) atenção ao estímulo, (b) integração da informação visual com representações visuais ou ortográficas arquivadas em memória, (c) recuperação de uma etiqueta verbal, e a (d) ativação da representação articulatória (Wolf & Bowers, 1999). Uma vez que a leitura e a nomeação rápida envolvem processos cognitivos semelhantes, não parece surpreendente que ambas as competências estejam associadas. No entanto, os estudos têm variado consideravelmente no que respeita à magnitude da associação entre a nomeação rápida e a leitura, encontrando-se resultados nulos ou negligenciáveis do valor preditivo da nomeação rápida na explicação da variância do desempenho de leitura. Vários fatores podem contribuir para as discrepâncias observadas na literatura, entre os quais as medidas utilizadas para avaliar o desempenho de nomeação rápida (por exemplo, medidas que utilizam estímulos ortográficos ou não-ortográficos) e de leitura (por exemplo, medidas de fluência ou de acuidade). A importância da natureza das medidas quer de nomeação rápida quer de leitura tem sido reconhecida por vários autores (para uma revisão, ver Norton & Wolf, 2011). Paralelamente, as amostras estudadas, que têm variado quanto à idade/escolaridade dos participantes e à sua competência de leitura (leitores normais ou fracos leitores ou leitores disléxicos), poderão estar a contribuir para a heterogeneidade dos resultados publicados. A literatura recente tem salientado a relevância destes fatores na aquisição e desenvolvimento da leitura, embora a direccionalidade do seu efeito seja ainda pouco clara. Por exemplo, a transição de um procedimento de leitura baseado em estratégias de descodificação fonológica para uma leitura automática, à medida que o sujeito se torna um leitor fluente, parece ser acompanhada por uma mudança no peso relativo das capacidades cognitivas subjacentes à leitura (ex., Reis, Faísca, Castro, & Petersson, in press). Outro fator importante que tem dificultado a interpretação dos dados publicados sobre os construtos envolvidos na leitura, e em particular sobre a nomeação rápida, relaciona-se com a consistência ortográfica do sistema de escrita nos quais os estudos são conduzidos. Estudos trans-linguísticos sugerem que a consistência ortográfica influencia a facilidade com que se aprende a ler nas escritas alfabéticas, bem como o tipo de processamento de leitura predominantemente adotado pelos leitores (Seymour, Aro, & Erskine, 2003). No seio deste enquadramento, nesta tese procurámos clarificar as divergências encontradas na literatura relativamente à relação entre a nomeação rápida e o desempenho de leitura. Através de um estudo de meta-análise 1 é nosso objetivo realizar uma síntese objetiva do estado da arte sobre a relação entre a nomeação rápida e a leitura, e avaliar a influência de potenciais fatores moderadores da magnitude desta relação, nomeadamente: (a) a natureza da tarefa de nomeação (tipo de estímulo nomeado, número total de itens, e número de itens diferentes); (b) a natureza da tarefa de leitura (subcomponente de leitura, e medida de resposta usada para avaliar o desempenho); (c) características da amostra (escolaridade e nível de leitura); e (d) ortografia (sistema de escrita, e consistência ortográfica). Para tal, foi realizada uma procura de artigos científicos nas bases de dados PubMed, PsycINFO, e Web of Knowledge, tendo sido incluídas na meta-análise um total de 154 experiências independentes, compreendendo 21,706 participantes. Os resultados indicam uma relação moderada-a-forte entre a nomeação rápida e o desempenho de leitura (r =.44, I2 = 71.19). Nas análises seguintes procurou-se avaliar o contributo de potenciais variáveis moderadoras que possam explicar a heterogeneidade observada entre os tamanhos dos efeitos. Verificou-se que a nomeação rápida se associa significativamente e em magnitude semelhante com todas as medidas de leitura, i.e., quer estas apelem preferencialmente a um processamento de descodificação fonológica ou de reconhecimento de padrões ortográficos da palavra. Os resultados sugerem ainda que a magnitude das correlações é inflacionada nos estudos em que o desempenho de leitura é baseado na velocidade/fluência de leitura, em particular nos níveis de escolaridade mais avançados, e que utilizam tarefas de nomeação com estímulos alfanuméricos ao invés de estímulos não-alfanuméricos. Adicionalmente, verificou-se que a força da associação entre a nomeação rápida e a acuidade de leitura varia de forma não linear durante a evolução da leitura, sendo que a correlação é maior nos leitores escolarizados mais novos e decresce à medida que a escolaridade aumenta. O papel atribuível à proficiência dos leitores, i.e., fracos leitores/leitores disléxicos ou leitores normais, foi menos claro; no entanto, houve uma tendência para a relação ser mais forte nas amostras de fracos leitores/leitores disléxicos. Os resultados das comparações trans-linguísticas, por sua vez, sugerem que a nomeação rápida tem um papel importante para o desempenho da leitura independentemente das características da ortografia, ainda que as correlações tenham sido maiores nas ortografias opacas, e em particular nas línguas não-alfabéticas. Em suma, a presente meta-análise fornece resultados convincentes de que o desempenho em tarefas de nomeação rápida refletirá processos cognitivos subjacentes que são também relevantes para a aquisição/desenvolvimento da leitura. Consequentemente, pode dizer-se que estas medidas serão um preditor útil da competência de leitura. Os resultados são também discutidos no contexto das teorias atuais que procuram explicar através de que processos cognitivos se associam a nomeação rápida e a leitura, com ênfase nas hipóteses fonológica versus ortográfica. 1 Uma meta-análise permite a integração quantitativa de resultados de diversos estudos, recorrendo para isso à noção de magnitude do efeito.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A performance dos detetores sísmicos atualmente utilizados pode e deve ser melhorada. Atualmente existem vários algoritmos para a deteção de sismos de forma automática, desde os sistemas simples baseados em STA/LTA, aos mais sofisticados baseados em reconhecimento de padrões. Este estudo pretende dar continuidade ao desenvolvimento de uma abordagem de deteção de eventos sísmicos ao nível da estação local, utilizando uma técnica bastante conhecida, chamada Máquina de Vetores de Suporte (SVM). SVM é amplamente utilizada em problemas de classificação, devido a sua boa capacidade de generalização. Nesta experiência, a técnica baseada em SVM é aplicada em diferentes modos de operações. Os resultados mostraram que a técnica proposta dá excelentes resultados em termos de sensibilidade e especificidade, além de exigir um tempo de deteção suficientemente pequeno para ser utilizado num sistema de aviso precoce (early-warning system). Começamos pela classificação de dados de forma Off-line, seguido da validação do classificador desenvolvido. Posteriormente, o processamento de dados é executado de forma contínua (On-line). Os algoritmos foram avaliados em conjuntos de dados reais, provenientes de estações sísmicas da Rede de Vigilância Sísmica de Portugal, e em aplicações reais da área de Sismologia (simulação de funcionamento em ambiente real). Apesar de apenas duas estações serem consideradas, verificou-se que utilizando a combinação de detetores, consegue-se uma percentagem de deteção idêntica para quando utilizado um único modelo (Abordagem OR) e o número de falsos alarmes para a combinação de modelos é quase inexistente (Abordagem AND). Os resultados obtidos abrem várias possibilidades de pesquisas futuras.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tese de doutoramento, Ciências Geofísicas e da Geoinformação (Geofisíca), Universidade de Lisboa, Faculdade de Ciências, 2014

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A procura de padrões nos dados de modo a formar grupos é conhecida como aglomeração de dados ou clustering, sendo uma das tarefas mais realizadas em mineração de dados e reconhecimento de padrões. Nesta dissertação é abordado o conceito de entropia e são usados algoritmos com critérios entrópicos para fazer clustering em dados biomédicos. O uso da entropia para efetuar clustering é relativamente recente e surge numa tentativa da utilização da capacidade que a entropia possui de extrair da distribuição dos dados informação de ordem superior, para usá-la como o critério na formação de grupos (clusters) ou então para complementar/melhorar algoritmos existentes, numa busca de obtenção de melhores resultados. Alguns trabalhos envolvendo o uso de algoritmos baseados em critérios entrópicos demonstraram resultados positivos na análise de dados reais. Neste trabalho, exploraram-se alguns algoritmos baseados em critérios entrópicos e a sua aplicabilidade a dados biomédicos, numa tentativa de avaliar a adequação destes algoritmos a este tipo de dados. Os resultados dos algoritmos testados são comparados com os obtidos por outros algoritmos mais “convencionais" como o k-médias, os algoritmos de spectral clustering e um algoritmo baseado em densidade.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Projeto para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A identificação e o monitoramento de microorganismos aquáticos, como bactérias e microalgas, tem sido uma tarefa árdua e morosa. Técnicas convencionais, com uso de microscópios e corantes, são complexas, exigindo um grande esforço por parte dos técnicos e pesquisadores. Uma das maiores dificuldades nos processos convencionais de identificação via microscopia é o elevado número de diferentes espécies e variantes existentes nos ambientes aquáticos, muitas com semelhança de forma e textura. O presente trabalho tem por objetivo o desenvolvimento de uma metodologia para a caracterização e classificação de microorganismos aquáticos (bactérias e microalgas), bem como a determinação de características cinemáticas, através do estudo da mobilidade de microalgas que possuem estruturas que permitem a natação (flagelos). Para caracterização e reconhecimento de padrões as metodologias empregadas foram: o processamento digital de imagens e redes neurais artificiais (RNA). Para a determinação da mobilidade dos microorganismos foram empregadas técnicas de velocimetria por processamento de imagens de partículas em movimento (Particle Tracking Velocimetry - PTV). O trabalho está dividido em duas partes: 1) caracterização e contagem de microalgas e bactérias aquáticas em amostras e 2) medição da velocidade de movimentação das microalgas em lâminas de microscópio. A primeira parte envolve a aquisição e processamento digital de imagens de microalgas, a partir de um microscópio ótico, sua caracterização e determinação da densidade de cada espécie contida em amostras. Por meio de um microscópio epifluorescente, foi possível, ainda, acompanhar o crescimento de bactérias aquáticas e efetuar a sua medição por operadores morfológicos. A segunda parte constitui-se na medição da velocidade de movimentação de microalgas, cujo parâmetro pode ser utilizado como um indicador para se avaliar o efeito de substâncias tóxicas ou fatores de estresse sobre as microalgas. O trabalho em desenvolvimento contribuirá para o projeto "Produção do Camarão Marinho Penaeus Paulensis no Sul do Brasil: Cultivo em estruturas Alternativas" em andamento na Estação Marinha de Aquacultura - EMA e para pesquisas no Laboratório de Ecologia do Fitoplâncton e de Microorganismos Marinhos do Departamento de Oceanografia da FURG. O trabalho propõe a utilização dos níveis de intensidade da imagem em padrão RGB e oito grandezas geométricas como características para reconhecimento de padrões das microalgas O conjunto proposto de características das microalgas, do ponto de vista de grandezas geométricas e da cor (nível de intensidade da imagem e transformadas Fourier e Radon), levou à geração de indicadores que permitiram o reconhecimento de padrões. As redes neurais artificiais desenvolvidas com topologia de rede multinível totalmente conectada, supervisionada, e com algoritmo de retropropagação, atingiram as metas de erro máximo estipuladas entre os neurônios de saída desejados e os obtidos, permitindo a caracterização das microalgas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho observa e descreve o processo de composição de termos em textos de Medicina em língua alemã e sua tradução para o português. Ao buscar o reconhecimento de padrões de construção da terminologia e da sua tradução, a pesquisa faz uma revisão da literatura que inclui o tratamento gramatical e lexicográfico dos compostos em alemão, de trabalhos que tratam da tradução de Komposita, além de revisar fundamentos teóricos de Terminologia e de Tradução e sua relação com a composição de termos. A perspectiva adotada pela pesquisa vincula Lingüística de Corpus e enfoques de perspectiva textual de Terminologia, além de relacionar padrões de tradução de compostos a uma maior ou menor inserção cultural do texto traduzido. O trabalho apresenta um levantamento quantitativo e qualitativo de ocorrências de compostos e de suas traduções em um corpus formado por textos didáticos de Medicina nas subáreas Fisiologia e Genética. O corpus alinhado alemão-português é composto por 99 parágrafos de texto. A diversidade de escolhas de tradução verificada e a concentração de escolhas no padrão substantivo+preposição+substantivo apontam uma baixa inserção cultural da tradução produzida para o português

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cada vez mais as empresas vêm enfrentando níveis de concorrência mais altos, menores margens nas vendas e perda de diferenciação de seus produtos e serviços. Por outro lado, o desenvolvimento tecnológico e particularmente a Internet vêm permitindo às empresas ter um contato próximo com seus clientes. Este mesmo desenvolvimento também permite que todos os dados, operações e transações empresas sejam armazenadas, fazendo com que maioria delas possuam grandes bancos de dados. Este trabalho tem por objetivo: • Entender quais as tendências do Marketing e como o surgimento de novos canais como a Internet podem alavancar a posição competitiva das empresas; • Constatar a grande quantidade de dados que as empresas possuem, e qual o potencial de informações contida nos mesmos; • Mostrar como Datamining pode auxiliar na descoberta de informações contidas em meio ao emaranhado de dados, • Desenvolvimento de metodologia em um estudo de caso prático, onde se buscará determinar que clientes têm maiores probabilidades de compra, e quais seus padrões de consumoatravés de um estudo de caso, e como a empresa pode usufruir destas informações; • Mostrar como as empresas podem usufruir das informações descobertas e quais são os valores econômico e estratégico.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trata da aplicação de ferramentas de Data Mining e do conceito de Data Warehouse à coleta e análise de dados obtidos a partir das ações da Secretaria de Estado da Educação de São Paulo. A variável dependente considerada na análise é o resultado do rendimento das escolas estaduais obtido através das notas de avaliação do SARESP (prova realizada no estado de São Paulo). O data warehouse possui ainda dados operacionais e de ações já realizadas, possibilitando análise de influência nos resultados

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.