33 resultados para Algoritmo de busca por retrocesso
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
Esta dissertação apresenta o desenvolvimento de um novo algoritmo de criptografia de chave pública. Este algoritmo apresenta duas características que o tornam único, e que foram tomadas como guia para a sua concepção. A primeira característica é que ele é semanticamente seguro. Isto significa que nenhum adversário limitado polinomialmente consegue obter qualquer informação parcial sobre o conteúdo que foi cifrado, nem mesmo decidir se duas cifrações distintas correspondem ou não a um mesmo conteúdo. A segunda característica é que ele depende, para qualquer tamanho de texto claro, de uma única premissa de segurança: que o logaritmo no grupo formado pelos pontos de uma curva elíptica de ordem prima seja computacionalmente intratável. Isto é obtido garantindo-se que todas as diferentes partes do algoritmo sejam redutíveis a este problema. É apresentada também uma forma simples de estendê-lo a fim de que ele apresente segurança contra atacantes ativos, em especial, contra ataques de texto cifrado adaptativos. Para tanto, e a fim de manter a premissa de que a segurança do algoritmo seja unicamente dependente do logaritmo elíptico, é apresentada uma nova função de resumo criptográfico (hash) cuja segurança é baseada no mesmo problema.
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
Resumo:
O presente estudo procura aprofundar a compreensão do romance de Julio Cortázar, O Jogo da Amarelinha, investigando o papel que a noção de jogo e o questionamento e mobilidade de fronteiras entre gêneros literários e literatura, arte e filosofia desempenham na busca de uma transcendência imanente e comunicável, que é o projeto da obra. Essa busca de um céu na terra, impulsionada por uma vontade que perde seus contornos e devora a si mesma, acaba por se converter em um irônica descida aos infernos. Pelas ironias da vontade e pelo cuidadoso trabalho do autor, porém, é nesse inferno que brilharão as centelhas do céu humano. Por meio da comparação com outras obras da literatura latino-americana e universal, bem como das contribuições críticas e filosóficas pertinentes ao tema e de alguns trabalhos plásticos, nos quais se aborda a problemática do dizer/mostrar uma experiência que é humana e, ao mesmo tempo, está além do homem, foi se montando este trabalho. Realizamos uma abordagem que partiu de indicações do próprio texto estudado e de contrapontos que ele, em sua vertiginosa empreitada irônica, insinuava, demonstrando que a unidade fundamental da produção cortazariana, dos gêneros literários e das diversas formas de arte e reflexão, repousa naquela experiência inefável, comunicada de formas variáveis. Finalmente, notamos que a rede de relações que se tece na obra, a partir da temática do lúdico, unifica experiência amorosa, estética e intelectual, apontando para uma compreensão mais flexível e ampla de racionalidade, na qual a vontade, sempre equilibrada pela ironia, desempenha um papel fundamental.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
Resumo:
A medicina moderna vem apresentando sinais de uma crise similar àquela do paradigma sociocultural da modernidade. Diversos componentes dessa crise são descritos na literatura e identificados na análise das práticas profissionais, no cotidiano dos serviços. Essa crise da medicina moderna tem particular visibilidade quando analisada à luz dos princípios e diretrizes, do ideário e do modo de funcionamento do sistema público de saúde desenhado na Constituição Federal, o Sistema Único de Saúde (SUS). Nesse contexto, para identificar possibilidades emergentes à clínica e à pedagogia médicas buscou- se registrar e analisar, por meio de uma cartografia, idéias inovadoras, considerando a inovação como tensão, ruptura e transição do paradigma vigente, com reconfiguração de poderes e saberes. Esse conceito, formulado por Boaventura Santos (1997), já vem sendo utilizado para a análise de experiências revitalizadoras do ensinar e do aprender na universidade (Leite e cols., 1995). No que se refere à pesquisa que compõe esta Tese, foram analisados documentos da Associação Médica Brasileira e do Conselho Federal de Medicina, no que foi denominado de Território da Medicina, e as atas das reuniões do Conselho Estadual de Saúde do Rio Grande do Sul, no que foi denominado de Território do Conselho, bem como outros documentos e dados complementares. A cartografia dessas idéias e das marcas e cicatrizes produzidas no trânsito do cartógrafo pelos cenários da educação e da saúde mostrou a emergência de possibilidades inovadoras, agrupadas nos conceitos de clínica nômade e de pedagogia médica mestiça. As idéias emergentes relativas à clínica mostram seu exercício produzido a partir de combinações locais de conhecimentos de outras áreas e racionalidades, além daqueles utilizados nas práticas biomédicas, bem como a capacidade de escuta ao andar a vida individual e coletiva, capazes de fazer vingar mais saúde e a autonomia dos usuários dos serviços, quando operados a partir de um compromisso ético-estético-político. À pedagogia médica emergente é proposta a ruptura com suas visões antropológica, metodológica e teleológica configuradas pela modernidade, em favor de concepções mais abertas e heterogêneas, fomentadoras de protagonismo e de práticas mais democráticas nos serviços de saúde e na sociedade. No contexto da crise da medicina moderna, as idéias inovadoras mostraram contornos que tornam visível a transição paradigmática, composta pela fronteira sul do território oficial da medicina atual.
Resumo:
O presente trabalho tem por objetivo estudar e aplicar um método de integração numérica de tempo para estrutras dinâmicas com dissipação de energia. Nessa dissertação tal método é analisado e posteriormente implementado em MATLAB, afim de resolver algumas aplicações em sistemas dinâmicos dotados de massas, molas e amortecedores que são apresentados no primeiro capítulo. Usando o método implementado em MATLAB, também é apresentada uma aplicação para vibrações transversais em cordas axialmente.
Resumo:
Este estudo propôs-se, inicialmente, a observar os movimentos e as vicissitudes na busca da constituição de uma comunidade de aprendizagem em uma escola da Rede Municipal de Ensino de Porto Alegre, à luz da teoria de Humberto Maturana - A Biologia do Conhecer. A escola em questão foi escolhida por apresentar em seu projeto político-pedagógico a metodologia de projetos de aprendizagem mediada pelas tecnologias digitais. A pesquisadora acompanhou, durante dois meses, uma turma de progressão parcial composta por vinte adolescentes, do sexo masculino, em fase de conclusão do ensino fundamental, sem estarem alfabetizados. As observações passaram-se em diversos cenários da escola, envolvendo o laboratório de informática, a sala dos professores, as reuniões pedagógicas, o conselho de classe e a sala de aula. Por meio de uma pesquisa-ação, os dados do trabalho de campo foram recolhidos junto aos professores, coordenação pedagógica e serviço de orientação educacional. Foram fotografados os alunos em seu local de trabalho. Neste percurso, procuramos mostrar os movimentos que apontaram tanto para a constituição na direção de uma comunidade de aprendizagem quanto os recuos. Observamos que, nos momentos nos quais ocorreu um encontro no emocionar e no aprender entre alunos e professores, houve também uma proposta pedagógica compartilhada. A tecnologia, neste aspecto, apareceu apenas como um recurso, sendo utilizada de forma individualizada.
Resumo:
Esta dissertação parte da unidade como categoria teórica. São utilizados para este estudo a filosofia da física (CAPRA, WILBER, HAWKING ); a teoria do imaginário (DURAND, BACHELARD ) e a biologia do conhecimento ( MATURANA ). O método de trabalho é fenomenológico hermenêutico e através do conceito de vivência ( DILTHEY apud AMARAL ) prioriza a experiência direta com o mundo. Na relação indissociável entre teoria e método assume-se o sentido de unidade com o meio onde estamos inseridos, num processo de interdependência. O trabalho proposto constitui-se de vivências na natureza, através de rituais da cultura indígena, desenvolvidos com alunos de Séries Iniciais do Ensino Fundamental. O objetivo é que a criança tome consciência da unidade, como forma de “ser” humano ou de simplesmente ser, de maneira que a criança perceba a importância dos seus atos para o cosmos. Finalizo o trabalho com uma abertura para uma filosofia de vida que registra a importância de como educadores tentarmos resgatar valores que a cultura tecnológica e urbana enfraqueceram.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.
Resumo:
A criptografia assumiu papel de destaque no cotidiano das pessoas, em virtude da necessidade de segurança em inúmeras transações eletrônicas. Em determinadas áreas, a utilização de hardware dedicado à tarefa de criptografia apresenta vantagens em relação à implementação em software, devido principalmente ao ganho de desempenho. Recentemente, o National Institute of Standards and Technology (NIST) publicou o novo padrão norte-americano de criptografia simétrica, chamado de Advanced Encryption Standard (AES). Após um período de aproximadamente 3 anos, no qual várias alternativas foram analisadas, adotou-se o algoritmo Rijndael. Assim, este trabalho apresenta um Soft IP do padrão AES, codificado em VHDL, visando a implementação em FPGA Altera. Todo o projeto foi construído com funções e bibliotecas genéricas, a fim de permitir a posterior implementação sobre outras tecnologias. Foram geradas duas versões: uma priorizando desempenho e outra priorizando a área ocupada nos componentes. Para cada uma das versões, produziu-se um circuito para encriptar e outro para decriptar. O desempenho alcançado em termos de velocidade de processamento superou todos os outros trabalhos publicados na área, sobre a mesma tecnologia. São apresentados os detalhes de implementação, arquiteturas envolvidas e decisões de projeto, bem como todos os resultados. A dissertação contém ainda conceitos básicos de criptografia e uma descrição do algoritmo Rijndael.
Resumo:
O presente trabalho visa definir um modelo de alocação dos recursos da produção para centros de trabalho em sistemas baseados em job shop, usando a abordagem heurística para garantir uma boa alocação dos recursos. São levados em conta a complexidade de um ambiente de produção, seus aspectos temporais e os modelos de Job Shop Scheduling atualmente em uso. Com isso são examinados os aspectos conceituais deste ambiente e proposto um modelo de alocação de recursos para auxiliar no planejamento operacional do mesmo. Pode-se definir os recursos como todos os elementos necessários à execução das diversas atividades de um processo produtivo, tais como equipamentos, máquinas, mão-de-obra, etc. Por sua vez, os recursos são limitados por natureza, quanto à quantidade de unidades disponíveis, às suas funcionalidades e à capacidade produtiva. O processo de alocação dos recursos pressupõe a designação dos recursos mais satisfatórios para a execução de cada uma das atividades que fazem parte de um projeto. O modelo proposto é baseado no uso de heurísticas para resolver o escalonamento nos centros de trabalho, também chamados de células de produção, usando restrições e regras entre as ordens de fabricação (peças) e as máquinas, para encontrar uma solução satisfatória ao problema. O resultado final é uma ferramenta de apoio à decisão no processo de manufatura, permitindo a visualização do melhor escalonamento de produção, visando a redução do ciclo e setup de produção no processo, com base nas informações locais do ambiente fabril. O sistema está implementado numa empresa de componentes hidráulicos, inicialmente no centro de trabalho de corte, composto por quatro máquinas que realizam o corte de diversos tipos de matérias-primas.