70 resultados para algoritmo, localizzazione, sonar


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação, foi utilizada a técnica SIFT (Scale Invariant Feature Transform) para o reconhecimento de imagens da área dos olhos (região periorbital). Foi implementada uma classificação das imagens em subgrupos internos ao banco de dados, utilizando-se das informações estatísticas provenientes dos padrões invariantes produzidos pela técnica SIFT. Procedeu-se a uma busca categorizada pelo banco de dados, ao invés da procura de um determinado padrão apresentado, através da comparação deste com cada padrão presente no banco de dados. A tais padrões foi aplicada uma abordagem estatística, através da geração da matriz de covariâncias dos padrões gerados, sendo esta utilizada para a categorização, tendo por base uma rede neural híbrida. A rede neural classifica e categoriza o banco de dados de imagens, criando uma topologia de busca. Foram obtidos resultados corretos de classificação de 76,3% pela rede neural híbrida, sendo que um algoritmo auxiliar determina uma hierarquia de busca, onde, ocorrendo uma errônea classificação, a busca segue em grupos de pesquisas mais prováveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Baía de Sepetiba, localizada entre a Baía de Guanabara e a Baía de Ilha Grande, Estado do Rio de Janeiro, está inserida em um cenário estratégico para o desenvolvimento econômico do Estado. Isto ocorre devido ao aumento da concentração populacional, que está diretamente relacionado com o turismo, com a presença de portos e de áreas industriais. Sendo assim, se faz necessário estudar sua estrutura geológica e dinâmica sedimentar para entender sua evolução ao longo do tempo e para uma utilização mais racional desta área. Utilizando-se da sísmica rasa de alta resolução e da sonografia de varredura lateral juntamente com dados pretéritos de amostragem superficial de sedimentos, o presente trabalho tem como objetivo principal analisar sua geologia holocênica. A investigação, em subsuperfície, da geologia estrutural e sedimentar dessa baía, através da interpretação de 09 perfis sísmicos, baseada na determinação de diferentes tipos de ecotexturas, revelou a presença de diferentes pacotes sedimentares depositados ao longo do Holoceno. Ao todo, foram encontrados 15 tipos de ecotexturas perfazendo 14 camadas sedimentares, que estão relacionados em 4 Grupos de acordo com sua distribuição. Já a investigação em superfície através dos registros sonográficos, baseada nos diferentes graus de reflexão acústica (backscattering) e parametrizada pelos dados de amostragem direta pretérita, identificou 6 padrões sonográficos distintos. Com isso foi confeccionado um novo mapa de distribuição textural dos sedimentos superficiais da Baía de Sepetiba. Com a correlação dos dados de sísmica rasa com os dados sonográficos, foi possível ainda sugerir a provável existência de neotectonismo na área de estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a necessidade de extrair as informações contidas nas imagens de satélite de forma rápida, eficiente e econômica, são utilizadas cada vez mais as técnicas computacionais de processamento de imagens como a de segmentação automática. Segmentar uma imagem consiste em dividí-la em regiões através de um critério de similaridade, onde os pixels que estão contidos nestas possuem características semelhantes, como por exemplo, nível de cinza, textura, ou seja, a que melhor represente os objetos presentes na imagem. Existem vários exemplos de algoritmos segmentadores, como o de crescimento de regiões onde os pixels crescem e são aglutinados formando regiões. Para determinar quais os melhores parâmetros utilizados nestes algoritmos segmentadores é necessário que se avalie os resultados a partir dos métodos mais utilizados, que são os supervisionados onde há necessidade de uma imagem de referência, considerada ideal fazendo com que se tenha um conhecimento a priori da região de estudo. Os não supervisionados, onde não há a necessidade de uma imagem de referência, fazendo com que o usuário economize tempo. Devido à dificuldade de se obter avaliadores para diferentes tipos de imagem, é proposta a metodologia que permite avaliar imagens que possuam áreas com vegetação, onde serão formadas grandes regiões (Crianass) e o que avaliará as imagens com áreas urbanas onde será necessário mais detalhamento (Cranassir).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de pesquisa descreve três estudos de utilização de métodos quimiométricos para a classificação e caracterização de óleos comestíveis vegetais e seus parâmetros de qualidade através das técnicas de espectrometria de absorção molecular no infravermelho médio com transformada de Fourier e de espectrometria no infravermelho próximo, e o monitoramento da qualidade e estabilidade oxidativa do iogurte usando espectrometria de fluorescência molecular. O primeiro e segundo estudos visam à classificação e caracterização de parâmetros de qualidade de óleos comestíveis vegetais utilizando espectrometria no infravermelho médio com transformada de Fourier (FT-MIR) e no infravermelho próximo (NIR). O algoritmo de Kennard-Stone foi usado para a seleção do conjunto de validação após análise de componentes principais (PCA). A discriminação entre os óleos de canola, girassol, milho e soja foi investigada usando SVM-DA, SIMCA e PLS-DA. A predição dos parâmetros de qualidade, índice de refração e densidade relativa dos óleos, foi investigada usando os métodos de calibração multivariada dos mínimos quadrados parciais (PLS), iPLS e SVM para os dados de FT-MIR e NIR. Vários tipos de pré-processamentos, primeira derivada, correção do sinal multiplicativo (MSC), dados centrados na média, correção do sinal ortogonal (OSC) e variação normal padrão (SNV) foram utilizados, usando a raiz quadrada do erro médio quadrático de validação cruzada (RMSECV) e de predição (RMSEP) como parâmetros de avaliação. A metodologia desenvolvida para determinação de índice de refração e densidade relativa e classificação dos óleos vegetais é rápida e direta. O terceiro estudo visa à avaliação da estabilidade oxidativa e qualidade do iogurte armazenado a 4C submetido à luz direta e mantido no escuro, usando a análise dos fatores paralelos (PARAFAC) na luminescência exibida por três fluoróforos presentes no iogurte, onde pelo menos um deles está fortemente relacionado com as condições de armazenamento. O sinal fluorescente foi identificado pelo espectro de emissão e excitação das substâncias fluorescentes puras, que foram sugeridas serem vitamina A, triptofano e riboflavina. Modelos de regressão baseados nos escores do PARAFAC para a riboflavina foram desenvolvidos usando os escores obtidos no primeiro dia como variável dependente e os escores obtidos durante o armazenamento como variável independente. Foi visível o decaimento da curva analítica com o decurso do tempo da experimentação. Portanto, o teor de riboflavina pode ser considerado um bom indicador para a estabilidade do iogurte. Assim, é possível concluir que a espectroscopia de fluorescência combinada com métodos quimiométricos é um método rápido para monitorar a estabilidade oxidativa e a qualidade do iogurte

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os métodos espectrais são ferramentas úteis na análise de dados, sendo capazes de fornecer informações sobre a estrutura organizacional de dados. O agrupamento de dados utilizando métodos espectrais é comumente baseado em relações de similaridade definida entre os dados. O objetivo deste trabalho é estudar a capacidade de agrupamento de métodos espectrais e seu comportamento, em casos limites. Considera-se um conjunto de pontos no plano e usa-se a similaridade entre os nós como sendo o inverso da distância Euclidiana. Analisa-se a qual distância mínima, entre dois pontos centrais, o agrupamento espectral é capaz de reagrupar os dados em dois grupos distintos. Acessoriamente, estuda-se a capacidade de reagrupamento caso a dispersão entre os dados seja aumentada. Inicialmente foram realizados experimentos considerando uma distância fixa entre dois pontos, a partir dos quais os dados são gerados e, então, reduziu-se a distância entre estes pontos até que o método se tornasse incapaz de efetuar a separação dos pontos em dois grupos distintos. Em seguida, retomada a distância inicial, os dados foram gerados a partir da adição de uma perturbação normal, com variância crescente, e observou-se até que valor de variância o método fez a separação dos dados em dois grupos distintos de forma correta. A partir de um conjunto de pontos obtidos com a execução do algoritmo de evolução diferencial, para resolver um problema multimodal, testa-se a capacidade do método em separar os indivíduos em grupos diferentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos um estudo preliminar da produção difrativa de mésons utilizando dados obtidos da colisão próton-próton, a energias de centro de massa de 7 TeV, com o experimento CMS-LHC. O trabalho inclui o desenvolvimento do algoritmo de reconstrução dos mésons D* através do canal de decaimento D*->D0 + pion (lento) ->K+pion, a medida da eficiência de detecção e reconstrução, e uma análise do comportamento de variáveis cinemáticas na produção difrativa dessas partículas, particularmente, das lacunas de rapidez. Para isso, foi utilizada uma luminosidade integrada de 3,171pb^(-1) de dados coletados no ano de 2010. As análises com os dados experimentais foram comparadas com os resultados obtidos com geradores de Monte Carlo PYTHIA6, PYTHIA8 e POMPYT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Presente dissertação apresenta uma aplicação de Inteligência Computacional na área de Geotecnia, com a utilização da Técnica de Neuro-Fuzzy para indicar a suscetibilidade de escorregamento de taludes no município do Rio de Janeiro, a partir de inspeção visual. Neste trabalho, a suscetibilidade corresponde à possibilidade de ocorrência de escorregamento sem considerar os danos relacionados ao evento. Adotou-se como variável de saída a Previsão de Escorregamento (PE) com três adjetivos que correspondem a Suscetibilidades Alta, Média e Baixa. A metodologia utilizada consistiu em, inicialmente, montar um banco de dados com informações preliminares de análise de estabilidade, com a indicação dos condicionantes de escorregamento relacionados à geomorfologia, pluviosidade, capacidade de drenagem, vegetação e ocupação com seus respectivos graus de suscetibilidades de escorregamento obtidos em um conjunto de Laudos de Vistoria da Geo Rio. O banco de dados foi aplicado em um algoritmo de Neuro-Fuzzy. Diversos testes foram realizados com as alterações dos parâmetros do modelo Neuro-Fuzzy para uma combinação de fatores condicionantes de escorregamento e refinamento do banco de dados. Os testes apresentaram diminuição do erro fornecido pelo programa com o aumento de tipos de condicionantes utilizados no treinamento, o que permite inferir que o escorregamento ocorre por uma complexa relação entre diversos fatores condicionantes. O banco de dados utilizado nos testes apresenta descontinuidades nas relações entre os diversos condicionantes, ou seja, para uma mesma faixa de valores de Altura do talude, não é possível obter uma relação para todas as faixas de outro condicionante e, até mesmo, para todas as faixas da Previsão de Escorregamento. As PEs obtidas na validação do modelo tiveram seus valores próximos aos desejados somente nos conjuntos de variáveis utilizadas para o treinamento. O modelo não foi capaz de apresentar valores de suscetibilidades dentro da faixa de valores utilizados no treinamento para combinação de variáveis com pequenos ruídos, o que indica a necessidade de ampliação do banco de dados tanto quantitativamente quanto qualitativamente de modo a cobrir as descontinuidades apresentadas nas relações entre as variáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta Tese desenvolvemos várias abordagens "Darbouxianas"para buscar integrais primeiras (elementares e Liouvillianas) de equações diferenciais ordinárias de segunda ordem (2EDOs) racionais. Os algoritmos (semi-algoritmos) que desenvolvemos seguem a linha do trabalho de Prelle e Singer. Basicamente, os métodos que buscam integrais primeiras elementares são uma extensão da técnica desenvolvida por Prelle e Singer para encontrar soluções elementares de equações diferenciais ordinárias de primeira ordem (1EDOs) racionais. O procedimento que lida com 2EDOs racionais que apresentam integrais primeiras Liouvillianas é baseado em uma extensão ao nosso método para encontrar soluções Liouvillianas de 1EDOs racionais. A ideia fundamental por tras do nosso trabalho consiste em que os fatores integrantes para 1-formas polinomiais geradas pela diferenciação de funções elementares e Liouvillianas são formados por certos polinômios denominados polinômios de Darboux. Vamos mostrar como combinar esses polinômios de Darboux para construir fatores integrantes e, de posse deles, determinar integrais primeiras. Vamos ainda discutir algumas implementações computacionais dos semi-algoritmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Restauração de Imagens é uma técnica que possui aplicações em várias áreas, por exemplo, medicina, biologia, eletrônica, e outras, onde um dos objetivos da restauração de imagens é melhorar o aspecto final de imagens de amostras que por algum motivo apresentam imperfeições ou borramentos. As imagens obtidas pelo Microscópio de Força Atômica apresentam borramentos causados pela interação de forças entre a ponteira do microscópio e a amostra em estudo. Além disso apresentam ruídos aditivos causados pelo ambiente. Neste trabalho é proposta uma forma de paralelização em GPU de um algoritmo de natureza serial que tem por fim a Restauração de Imagens de Microscopia de Força Atômica baseado na Regularização de Tikhonov.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Compact Muon Solenoid (CMS) é um dos principais detectores instalados no LHC que possibilita o estudo de diferentes aspectos da Física, indo do Modelo Padrão à matéria escura. Esse detector de propósito geral, foi construído para ser capaz de medir múons com uma grande precisão e todos os seus subdetectores foram construídos com uma alta granularidade, tornando possível identificar e caracterizar as propriedades cinemáticas das partículas finais da colisão. O algoritmo de reconstrução de eventos inclui a identificação de jatos, ou seja, é possível identificar a assinatura da produção de pártons na colisão e a medida de seções de choque da produção de muitos jatos é um dos métodos para se explorar as contribuições da Cromodinâmica Quântica (Quantum Chromodynamics - QCD) perturbativa, permitindo avaliar as previsões implementadas nas simulações de eventos. Tendo em vista a caracterização de processos relacionados com a QCD em colisões de próton-próton a uma energia do centro de massa de 7 TeV, é apresentada a medida da seção de choque da produção inclusiva de multijatos no CMS. Para realizar essa medida foram utilizados dados reais coletados em 2010, onde não se apresentava muitas colisões por cruzamento de pacote, com uma luminosidade integrada de L = 2,869 pb-1 e utilizando jatos que estão em quase todo o espaço de fase acessível em pseudorapidez |n|≤ 4,8 e momentum transverso pT ≥ 30 GeV/ c2. Desse resultado foram removidos os efeitos de detecção comparado com predições simuladas.