1000 resultados para algoritmos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese resume os trabalhos desenvolvidos na área de processamento automático de fala com o objetivo de incrementar a quantidade de recursos linguísticos disponíveis para o português europeu. O estágio de desenvolvimento e a aplicação das tecnologias de fala para uma língua estão relacionados com a quantidade e a qualidade de recursos disponíveis para esta língua. Poucas línguas apresentam, no domínio público e livre, todos os recursos necessários para desenvolver as tecnologias de fala. A língua portuguesa, como muitas outras, tem escassez de recursos públicos e livres, o que pode dificultar o desenvolvimento e a aplicação de tecnologias de fala que incorporam esta língua. Os trabalhos descritos nesta tese apresentam uma abordagem para criar bases de dados de fala, recorrendo apenas aos recursos do domínio público e livres, partindo de sinais multimédia sem transcrições ortográficas ou fonéticas. É apresentada uma solução para aproveitar a grande disponibilidade de material multimédia existente no domínio público (podcasts por exemplo) e selecionar segmentos de fala adequados para treinar modelos acústicos. Para isso, foram desenvolvidos vários sistemas para segmentar e classificar automaticamente os noticiários. Estes sistemas podem ser combinados para criar bases de dados de fala com transcrição fonética sem a intervenção humana. Foi desenvolvido um sistema de conversão automático de grafemas para fonemas que se apoia em regras fonológicas e modelos estatísticos. Esta abordagem híbrida é justificada pelos desenvolvimentos de algoritmos de aprendizagem automática aplicados a conversão de grafemas para fonemas e pelo fato do português apresentar uma razoável regularidade fonética e fonológica bem como uma ortografia de base fonológica. Com auxílio deste sistema, foi criado um dicionário de pronunciação com cerca de 40 mil entradas, que foram verificadas manualmente. Foram implementados sistemas de segmentação e de diarização de locutor para segmentar sinais de áudio. Estes sistemas utilizam várias técnicas como a impressão digital acústica, modelos com misturas de gaussianas e critério de informação bayesiana que normalmente são aplicadas noutras tarefas de processamento de fala. Para selecionar os segmentos adequados ou descartar os segmentos com fala não preparada que podem prejudicar o treino de modelos acústicos, foi desenvolvido um sistema de deteção de estilos de fala. A deteção de estilos de fala baseia-se na combinação de parâmetros acústicos e parâmetros prosódicos, na segmentação automática e em classificadores de máquinas de vetores de suporte. Ainda neste âmbito, fez-se um estudo com o intuito de caracterizar os eventos de hesitações presentes nos noticiários em português. A transcrição fonética da base de dados de fala é indispensável no processo de treino de modelos acústicos. É frequente recorrer a sistemas de reconhecimento de fala de grande vocabulário para fazer transcrição automática quando a base de dados não apresenta nenhuma transcrição. Nesta tese, é proposto um sistema de word-spotting para fazer a transcrição fonética dos segmentos de fala. Fez-se uma implementação preliminar de um sistema de word-spotting baseado em modelos de fonemas. Foi proposta uma estratégia para diminuir o tempo de resposta do sistema, criando, a priori, uma espécie de “assinatura acústica” para cada sinal de áudio com os valores de todos os cálculos que não dependem da palavra a pesquisar, como a verosimilhanças de todos os estados dos modelos de fonemas. A deteção de uma palavra utiliza medidas de similaridade entre as verosimilhanças do modelo da palavra e do modelo de enchimento, um detetor de picos e um limiar definido por forma a minimizar os erros de deteção. Foram publicados vários recursos para a língua portuguesa que resultaram da aplicação dos vários sistemas desenvolvidos ao longo da execução desta tese com especial destaque para o sistema de conversão de grafemas para fonemas a partir do qual se publicaram vários dicionários de pronunciação, dicionários com as palavras homógrafas heterofónicas, dicionário com estrangeirismos, modelos estatísticos para a conversão de grafemas para fonemas, o código fonte de todo sistema de treino e conversão e um demonstrador online.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work aims the applicability of the Transient electromagnetic method at an arid and semiarid environmental condition in the Santiago Island – Cape Verde. Some seashore areas of this island show an increasing salt contamination of the groundwater. The main objective of present work is to relate this water-quality condition with parameters taken from the transient sounding’s data. In this context, transient soundings have been acquired from 2005 through 2009, at several chosen valleys near the sea, in a mean rate of one field campaign each year. The first phase of this work was the understanding of the geophysical method details, problems and applicability, as the chosen and acquired equipment was the first one to be permanently available to the Portuguese geosciences community. This first phase was also accomplished with field tests. Interpretation of the transient sounding’s data curves were done by application of 1-D inversion methods already developed and published, as also with quasi 2-D and quasi 3-D inversion algorithms, where applicability was feasible. This was the second phase. The 2-D and 3-D approximation results are satisfactory and promising; although a higher spatial sounding’s density should certainly allow for better results. At phase three, these results have been compared against the available lithologic, hydrologic and hydrochemical data, in the context of Santiago’s island settings. The analyses of these merged data showed that two distinct origins for the observed inland groundwater salinity are possible; seashore shallow mixing with contemporary seawater and mixing with a deep and older salty layer from up flow groundwater. Relations between the electric resistivity and the salt water content distribution were found for the surveyed areas. To this environment condition, the electromagnetic transient method proved to be a reliable and powerful technique. The groundwater quality can be accessed beyond the few available watershed points, which have an uneven distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema da Programação Linear, com as suas particularizações do Problema dos Transportes e do Problema da Afectação de Recursos, é hoje estudado em cursos diversos onde uma disciplina de Investigação Operacional esteja presente. Trata-se, em última análise, de um problema de cálculo de extremos condicionados, seja de máximo ou de mínimo, que apresenta características muito particulares e de grande elegância simbólica. Também os Problemas dos Transportes e da Afectação de Recursos se podem resolver como problemas de Programação Linear, através do Algoritmo Simplex, embora seja preferível o recurso a algoritmos próprios, de muitíssimo maior simplicidade: o Algoritmo dos Transportes e o Algoritmo Húngaro, respectivamente. De molde a facilitar a compreensão do que realmente está em jogo, consideram-se aqui dois casos de determinação de extremos e de extremos condicionados, mas ao nível do final do ensino secundário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho monográfico, intitulado Segurança Informática: o caso das escolas secundárias da cidade da Praia, tem como objectivo principal compreender os principais conceitos e técnicas de segurança e auditoria informática e conhecer a realidade da segurança informática nas escolas secundárias da cidade da Praia, analisando as práticas da segurança informática nas mesmas. Para este estudo recorreu-se a uma metodologia baseada por um lado, na pesquisa qualitativa e por outro, numa abordagem quantitativa. No quadro da pesquisa qualitativa, utilizou-se a pesquisa bibliográfica, que serviu de suporte para debruçar sobre os aspectos da segurança e auditoria informática que constituem a base deste trabalho. A segurança informática pode ser resumida num conjunto de medidas que possibilita a um sistema informático garantir os princípios de autenticidade, disponibilidade, integridade e disponibilidade. Por seu lado, a auditoria permite verificar se tais medidas são práticas de segurança no sistema informático e se as mesmas estão em conformidade com as regras e procedimentos existentes na política de segurança de uma organização. Na abordagem quantitativa, onde foi realizada parte prática, os resultados indicam que nenhuma das escolas em estudo, dispõem de uma política de segurança. Foi nesse sentido que sugeriu-se como proposta de melhoramento a criação de um documento formal que especifica as regras, normas e princípios de segurança informática, bem como as respectivas sanções, ou seja, uma política de segurança para as escolas secundárias da cidade da Praia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En aquest projecte s'analitzen dos algoritmes de correspondència entre imatges amb l'objectiu d'accelerar el procés de reconstrucció 3D mitjançant MVS. S'analitza tot el procés de reconstrucció i a partir d'un software existent es fa la comparació de l'algoritme SIFT i l'algoritme BRISK. A partir dels tests realitzats es conclou que el BRISK és més ràpid i millor per a una reconstrucció 3D.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ANGLÈS] This project introduces GNSS-SDR, an open source Global Navigation Satellite System software-defined receiver. The lack of reconfigurability of current commercial-of-the-shelf receivers and the advent of new radionavigation signals and systems make software receivers an appealing approach to design new architectures and signal processing algorithms. With the aim of exploring the full potential of this forthcoming scenario with a plurality of new signal structures and frequency bands available for positioning, this paper describes the software architecture design and provides details about its implementation, targeting a multiband, multisystem GNSS receiver. The result is a testbed for GNSS signal processing that allows any kind of customization, including interchangeability of signal sources, signal processing algorithms, interoperability with other systems, output formats, and the offering of interfaces to all the intermediate signals, parameters and variables. The source code release under the GNU General Public License (GPL) secures practical usability, inspection, and continuous improvement by the research community, allowing the discussion based on tangible code and the analysis of results obtained with real signals. The source code is complemented by a development ecosystem, consisting of a website (http://gnss-sdr.org), as well as a revision control system, instructions for users and developers, and communication tools. The project shows in detail the design of the initial blocks of the Signal Processing Plane of the receiver: signal conditioner, the acquisition block and the receiver channel, the project also extends the functionality of the acquisition and tracking modules of the GNSS-SDR receiver to track the new Galileo E1 signals available. Each section provides a theoretical analysis, implementation details of each block and subsequent testing to confirm the calculations with both synthetically generated signals and with real signals from satellites in space.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi determinar a aptidão agrícola das terras para cultura do milho em sistema de produção tecnificado, a partir de dados extraídos de levantamento de solos em escala 1:50.000 e da estimativa do risco climático, usando um sistema de informações geográficas. A área de estudo foi a bacia hidrográfica do rio Jardim, no Distrito Federal. Utilizou-se um modelo de balanço hídrico para simular o risco climático para a cultura do milho (Zea mays L.), considerando nove datas de plantio. Foram definidos valores quantitativos para cada um das propriedades condicionadoras da produtividade do milho em áreas de cerrado e, por meio de algoritmos de lógica booleana estabelecidos com base em critérios definidos em tabelas-guia previamente elaboradas, foram realizados cruzamentos consecutivos que permitiram a elaboração de mapas de aptidão agrícola das terras para a cultura do milho, com cinco classes, que evidenciaram a variação temporal da aptidão. Constatou-se que 66,5 % da área total não apresentou limitações físicas, 96% das terras foram restritas em fertilidade e o período de menor risco climático foi de 11 a 20/10.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se presenta una introducción a los patrones de enlace, brindados por la estructura de red de la World Wide Web, como una nueva fuente de información para la recuperación de información efectiva y eficiente. Se describen sus características y tres tipos de algoritmos de ordenación por relevancia basados en el análisis de conectividad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As redes de pesquisa impulsionam a criação do conhecimento e o processo de inovação resultantes do intercâmbio de informações e, sobretudo, da junção de competências de grupos que unem esforços na busca de metas comuns. Este artigo apresenta breve histórico dos estudos relativos às redes de colaboração científica, sua evolução cronológica e as principais abordagens de estudo. Discute-se particularmente como as análises de redes de pesquisa podem ser revisitadas à luz das possibilidades recentes surgidas com as novas Tecnologias de Informação e de Comunicação (TICs). Para tal, apresentam-se exemplos de sistemas de conhecimento no âmbito da Plataforma Lattes: Egressos, Colaboradores e Redes-GP. Esses sistemas permitem executar, com grandes volumes de dados, análises de redes por meio de algoritmos descritos na literatura, bem como criar novas formas de análise possibilitadas pelas TICs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta una aplicación basada en técnicas de estado-finito a los procesos de unificación de términos en español. Los algoritmos de unificación, o conflación, de términos son procedimientos computacionales utilizados en algunos sistemas de Recuperación de Información (RI) para la reducción de variantes de términos, semánticamente equivalentes, a una forma normalizada. Los programas que realizan habitualmente este proceso se denominan: stemmers y lematizadores. El objetivo de este trabajo es evaluar el grado de deficiencias y errores de los lematizadores en el proceso de agrupación de los términos a su correspondiente radical. El método utilizado para la construcción del lematizador se ha basado en la implementación de una herramienta lingüística que permite construir diccionarios electrónicos representados internamente en Transductores de Estado-Finito. Los recursos léxicos desarrollados se han aplicado a un corpus de verificación para evaluar el funcionamiento de este tipo de analizadores léxicos. La métrica de evaluación utilizada ha sido una adaptación de las medidas de cobertura y precisión. Los resultados muestran que la principal limitación del proceso de unificación de variantes de término por medio de tecnología de estado-finito es el infra-análisis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a evolução da tecnologia da informação e a disseminação de documentos digitais na Web, faz-se necessário criar meios que forneçam um mecanismo de organização de tais documentos, facilitando sua busca e recuperação. Em bibliotecas digitais ou repositórios de obras eletrônicas, por exemplo, existe a necessidade de uma ferramenta que possa classificar automaticamente os documentos, visto que o processo de classificação (categorização) é feito de forma manual. Esta ferramenta será de grande importância no apoio à catalogação. Este artigo apresenta o desenvolvimento de uma ferramenta que tem como objetivo principal classificar automaticamente documentos digitais em categorias preestabelecidas, nas quais cada documento pertencerá a uma ou mais categorias de acordo com seu conteúdo, tornando assim mais eficaz e rápida a classificação. Na elaboração da ferramenta foram utilizadas técnicas e algoritmos de mineração de textos, sendo definidas no estudo de caso algumas categorias e termos relacionados, tais como informática, direito e física, para validar a ferramenta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar a adequação do uso do sensor AVHRR/NOAA (Advanced Very High Resolution Radiometer/National Oceanic and Atmospheric Administration) para mapeamento da temperatura da superfície terrestre (TST) no Estado do Rio Grande do Sul, por meio da comparação entre três algoritmos clássicos. Foram comparados os métodos de Becker & Li, Sobrino et al. e Kerr et al. para estimativa das TST mínimas, utilizando imagens noturnas e logo após o amanhecer. Os dados de emissividade e TST foram obtidos por meio de combinações matemáticas da radiação detectada nas faixas do visível, infravermelho próximo e termal do sensor AVHRR/NOAA. O sensor AVHRR é adequado para o mapeamento de TST para as condições do tipo de cobertura do solo que predominam no Rio Grande do Sul, visto que a TST estimada pelos três métodos testados foi próxima à temperatura do ar medida nos locais selecionados. O método de Sobrino et al. foi o mais adequado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi realizar uma análise bayesiana de modelos auto-regressivos de ordem p, AR(p), para dados em painel referentes às diferenças esperadas nas progênies (DEP) de touros da raça Nelore publicados de 2000 a 2006. Neste trabalho, adotou-se o modelo AR(2), indicado pela análise prévia da função de autocorrelação parcial. As comparações entre as prioris, realizadas por meio do Fator de Bayes e do Pseudo-Fator de Bayes, indicaram superioridade da priori independente t-Student multivariada - Gama inversa em relação à priori hierárquica Normal multivariada - Gama inversa e a priori de Jeffreys. Os resultados indicam a importância de se dividir os animais em grupos homogêneos de acordo com a acurácia. Constatou-se também que, em média, a eficiência de previsão dos valores de DEP para um ano futuro foi próxima de 80%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi estimar correlações genéticas e fenotípicas de características reprodutivas e ponderais em 579 touros Nelore, em criação extensiva. As características reprodutivas estudadas foram: circunferência escrotal, consistência, volume e forma testiculares, comprimento dos testículos esquerdo e direito, largura dos testículos esquerdo e direito, motilidade e vigor espermáticos, defeitos espermáticos maiores, menores e totais e classificação andrológica por pontos. As características foram analisadas pelo método de máxima verossimilhança restrita, com algoritmos livres de derivadas, sob modelo animal, com inclusão da matriz de numeradores dos coeficientes de parentesco entre os animais e seus ascendentes. As correlações genéticas entre circunferência escrotal e as características peso corporal, volume testicular, motilidade espermática, vigor espermático, defeitos espermáticos menores, defeitos espermáticos totais e classificação andrológica por pontos foram, respectivamente, 0,72, 0,99, 0,72, 0,60, -0,67, -0,12 e 0,64. As maiores correlações fenotípicas encontradas entre peso e circunferência escrotal, características físicas e morfológicas do sêmen, quando comparadas às correlações entre idade e as mesmas características, são indicativas de que o peso tem maior influência na condição reprodutiva. As correlações genéticas entre classificação andrológica por pontos e as características: peso, circunferência escrotal, volume testicular, defeitos espermáticos maiores e defeitos espermáticos totais foram, respectivamente, 0,19, 0,64, 0,71, -0,47 e -0,58.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquest treball fi de carrera és un estudi-prototip d'un model de privacitat per a xarxes socials on els missatges són visibles només per a qui comparteix un cert nombre d'amics en comú, fent servir els algorismes RSA i la compartició de secrets de Shamir. Per realitzar el prototip s'ha creat un plugin de Google Chrome per a la part de client i per a la part de servidor un servei en NodeJS i l'emmagatzematge en una base de dades NoSQL mongoDB, que són tecnologies emergents dins del desenvolupament web; per tant, tot el codi ha estat escrit en JavaScript.