906 resultados para Algoritmos computacionales
Resumo:
[ES]Este proyecto tiene como objetivo analizar el rendimiento de diferentes técnicas criptográficas que el protocolo de movilidad HIP puede utilizar para proporcionar los servicios de seguridad que se determinen. Lo primero que se hará será seleccionar los diferentes algoritmos criptográficos que HIP podría utilizar para cubrir los servicios de seguridad considerados más relevantes, estos son autenticación, confidencialidad e integridad de datos. A continuación se identificarán los parámetros más significativos en relación al rendimiento y se definirá un escenario y un plan de pruebas para realizar las mediciones. Posteriormente se realizarán las mediciones con los algoritmos criptográficos previamente seleccionados, y por último se analizarán y valorarán los resultados obtenidos para así determinar la eficiencia de cada algoritmo criptográfico.
Resumo:
Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.
Resumo:
Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.
Resumo:
O presente trabalho apresenta a aplicação das fórmulas de Vincenty nos cálculos das correções do terreno e do efeito indireto, que desempenham papel relevante na construção de cartas geoidais. Implementa-se um programa de processamento que realiza a integração numérica sobre o modelo digital do terreno, discretizado em células triangulares de Delaunay. O sistema foi desenvolvido com a linguagem de programação FORTRAN, para a execução de intensos algoritmos numéricos usando compiladores livres e robustos. Para o cálculo do efeito indireto, considera-se a redução gravimétrica efetuada com base no segundo método de condensação de Helmert, face ao pequeno valor de efeito indireto no cálculo do geóide, em função da mudança que este produz no potencial da gravidade devido ao deslocamento da massa topográfica. Utiliza-se, o sistema geodésico SIRGAS 2000 como sistema de referência para o cômputo das correções. Simplificando o exame dos resultados alcançados, distingue-se o processamento e desenvolvimento do trabalho em etapas como a escolha de ferramentas geodésicas para máxima precisão dos resultados, elaboração de subrotinas e comparação de resultados com cálculos anteriores. Os resultados encontrados foram de geração sadia e satisfatória e podem ser perfeitamente empregados no cálculo do geóide em qualquer área do globo.
Resumo:
A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo
Resumo:
O presente trabalho aborda um problema inverso associado a difus~ao de calor em uma barra unidimensional. Esse fen^omeno e modelado por meio da equac~ao diferencial par- cial parabolica ut = uxx, conhecida como equac~ao de difus~ao do calor. O problema classico (problema direto) envolve essa equac~ao e um conjunto de restric~oes { as condic~oes inicial e de contorno {, o que permite garantir a exist^encia de uma soluc~ao unica. No problema inverso que estudamos, o valor da temperatura em um dos extremos da barra n~ao esta disponvel. Entretanto, conhecemos o valor da temperatura em um ponto x0 xo no interior da barra. Para aproximar o valor da temperatura no intervalo a direita de x0, propomos e testamos tr^es algoritmos de diferencas nitas: diferencas regressivas, leap-frog e diferencas regressivas maquiadas.
Resumo:
Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.
Resumo:
Com a necessidade de extrair as informações contidas nas imagens de satélite de forma rápida, eficiente e econômica, são utilizadas cada vez mais as técnicas computacionais de processamento de imagens como a de segmentação automática. Segmentar uma imagem consiste em dividí-la em regiões através de um critério de similaridade, onde os pixels que estão contidos nestas possuem características semelhantes, como por exemplo, nível de cinza, textura, ou seja, a que melhor represente os objetos presentes na imagem. Existem vários exemplos de algoritmos segmentadores, como o de crescimento de regiões onde os pixels crescem e são aglutinados formando regiões. Para determinar quais os melhores parâmetros utilizados nestes algoritmos segmentadores é necessário que se avalie os resultados a partir dos métodos mais utilizados, que são os supervisionados onde há necessidade de uma imagem de referência, considerada ideal fazendo com que se tenha um conhecimento a priori da região de estudo. Os não supervisionados, onde não há a necessidade de uma imagem de referência, fazendo com que o usuário economize tempo. Devido à dificuldade de se obter avaliadores para diferentes tipos de imagem, é proposta a metodologia que permite avaliar imagens que possuam áreas com vegetação, onde serão formadas grandes regiões (Crianass) e o que avaliará as imagens com áreas urbanas onde será necessário mais detalhamento (Cranassir).
Resumo:
O Ensino à distância (EaD) procura utilizar propostas pedagógicas para desenvolver sistemas inclusivos de ensino e aprendizagem. Estas propostas tem colaborado no sucesso que a EaD tem alcançado no meio empresarial corporativo. Neste meio, a demanda por cursos de formação técnica tem sido tão alta, que as empresas envolvidas no design instrucional de EaD criaram a noção de cursos à distância expressos, ou seja, cursos cuja a concepção e elaboração devem atender as tradicionais necessidades de rapidez do mercado de trabalho. Esta dissertação procura soluções para um tipo de ensino à distância ainda pouco explorado. O cenário que procuramos equacionar é o do ensino de ferramentas (softwares) para desenho vetorial, onde a metodologia de ensino é parte do processo de ensino corporativo. No processo atual de ensino de ferramentas de computação gráfica, o aluno submete ao professor, normalmente pela internet, o seu trabalho para que uma avaliação seja feita. Nesta dissertação sugerimos que este processo seja modificado de duas formas. Primeiro, no design instrucional para esta situação, trabalhamos constantemente a questão de avaliação não só na sua forma tradicional (atribuição de graus e valores) mas também como aperfeiçoamento do processo de ensino. A hipermídia adaptativa entra nesta proposta como facilitador da relação alunoprofessor-conhecimento, permitindo individualização de um ensino voltado para as massas. Em segundo lugar, propomos que a avaliação das tarefas sejam automatizada. O aluno oferece as partes (objetos) da solução que são avaliadas individualmente através de algoritmos computacionais. Isto permite uma menor participação do professor, o que é compatível com a proposta de cursos expressos. Para que isto seja possível a tarefa proposta pelo professor é dividida em objetos componentes, sendo o aluno estimulado a criar cada objeto segundo o modelo padrão oferecido. A comparaçào de cada objeto criado pelo aluno com o padrão a ser alcançado pode ser feita por diversos algoritmos computacionais existentes ou criados especificamente pelo autor do curso. Neste trabalho apresentamos exemplos desta abordagem e um protótipo que demonstra a viabilidade da proposta.
Resumo:
O caos determinístico é um dos aspectos mais interessantes no que diz respeito à teoria moderna dos sistemas dinâmicos, e está intrinsecamente associado a pequenas variações nas condições iniciais de um dado modelo. Neste trabalho, é feito um estudo acerca do comportamento caótico em dois casos específicos. Primeiramente, estudam-se modelos préinflacionários não-compactos de Friedmann-Robertson-Walker com campo escalar minimamente acoplado e, em seguida, modelos anisotrópicos de Bianchi IX. Em ambos os casos, o componente material é um fluido perfeito. Tais modelos possuem constante cosmológica e podem ser estudados através de uma descrição unificada, a partir de transformações de variáveis convenientes. Estes sistemas possuem estruturas similares no espaço de fases, denominadas centros-sela, que fazem com que as soluções estejam contidas em hipersuperfícies cuja topologia é cilíndrica. Estas estruturas dominam a relação entre colapso e escape para a inflação, que podem ser tratadas como bacias cuja fronteira pode ser fractal, e que podem ser associadas a uma estrutura denominada repulsor estranho. Utilizando o método de contagem de caixas, são calculadas as dimensões características das fronteiras nos modelos, o que envolve técnicas e algoritmos de computação numérica, e tal método permite estudar o escape caótico para a inflação.
Resumo:
221 p.
Resumo:
Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).
Resumo:
Este trabalho apresenta uma arquitetura geral para evolução de circuitos eletrônicos analógicos baseada em algoritmos genéticos. A organização lógica privilegia a interoperabilidade de seus principais componentes, incluindo a possibilidade de substituição ou melhorias internas de suas funcionalidades. A plataforma implementada utiliza evolução extrínseca, isto é, baseada em simulação de circuitos, e visa facilidade e flexibilidade para experimentação. Ela viabiliza a interconexão de diversos componentes aos nós de um circuito eletrônico que será sintetizado ou adaptado. A técnica de Algoritmos Genéticos é usada para buscar a melhor forma de interconectar os componentes para implementar a função desejada. Esta versão da plataforma utiliza o ambiente MATLAB com um toolbox de Algoritmos Genéticos e o PSpice como simulador de circuitos. Os estudos de caso realizados apresentaram resultados que demonstram a potencialidade da plataforma no desenvolvimento de circuitos eletrônicos adaptativos.