830 resultados para Algoritmos - conceitos
Resumo:
131 p.: graf.
Resumo:
En este artículo se plantea la resolución de un problema de Investigación Operativa utilizando PHPSimplex (herramienta online de resolución de problemas de optimización utilizando el método Simplex), Solver de Microsoft Excel y un prototipo híbrido que combina las teorías de los Algoritmos Genéticos con una técnica heurística de búsqueda local. La hibridación de estas dos técnicas es conocida como Algoritmo Memético. Este prototipo será capaz de resolver problemas de Optimización con función de maximización o minimización conocida, superando las restricciones que se planteen. Los tres métodos conseguirán buenos resultados ante problemas sencillos de Investigación Operativa, sin embargo, se propone otro problema en el cual el Algoritmo Memético y la herramienta Solver de Microsoft Excel, alcanzarán la solución óptima. La resolución del problema utilizando PHPSimplex resultará inviable. El objetivo, además de resolver el problema propuesto, es comparar cómo se comportan los tres métodos anteriormente citados ante el problema y cómo afrontan las dificultades que éste presenta. Además, este artículo pretende dar a conocer diferentes técnicas de apoyo a la toma de decisiones, con la intención de que se utilicen cada vez más en el entorno empresarial sustentando, de esta manera, las decisiones mediante la matemática o la Inteligencia Artificial y no basándose únicamente en la experiencia.
Resumo:
Con este proyecto hemos querido proporcionar un conjunto de recursos útiles para la impartición de un curso de Swarm Intelligence enfocado a la Particle Swarm Optimization (PSO). Estos recursos constan de una aplicación en NetLogo para poder experimentar, ejecutar y visualizar los diferentes modelos de la PSO, un review de la Swarm Intelligence profundizando en la PSO y una ontología de PSO que incluye los recursos bibliográficos necesarios para la investigación y la escritura de artículos.
Resumo:
O presente trabalho possui como objetivo central investigar a teoria acerca da origem da significação, presente na obra Ser e tempo, de Martin Heidegger, procurando mostrar em que medida a significação dos entes traz consigo a interpretação do conhecimento teórico como sendo uma transformação modal da relação semântica em que se movimenta medianamente o existente humano. Para tanto, procuraremos mostrar a partir da idéia de que existem dois extremos de um mesmo movimento de transformação semântica que caracterizam um processo de objetivação ou perda de sentido que a origem de sentido ou instância de produção de todos os conceitos e enunciados filosóficos reside no próprio ser-aí não como um sujeito cognoscente ou representacional, mas como um eu no sentido do si-mesmo próprio que, ao assumir a responsabilidade por seu ser, se mostra como sendo o ponto de vista modal a partir do qual é possível recorrer o sentido indo de encontro com sua própria atividade fundamental.
Resumo:
Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.
Resumo:
Quantum Computing is a relatively modern field which simulates quantum computation conditions. Moreover, it can be used to estimate which quasiparticles would endure better in a quantum environment. Topological Quantum Computing (TQC) is an approximation for reducing the quantum decoherence problem1, which is responsible for error appearance in the representation of information. This project tackles specific instances of TQC problems using MOEAs (Multi-objective Optimization Evolutionary Algorithms). A MOEA is a type of algorithm which will optimize two or more objectives of a problem simultaneously, using a population based approach. We have implemented MOEAs that use probabilistic procedures found in EDAs (Estimation of Distribution Algorithms), since in general, EDAs have found better solutions than ordinary EAs (Evolutionary Algorithms), even though they are more costly. Both, EDAs and MOEAs are population-based algorithms. The objective of this project was to use a multi-objective approach in order to find good solutions for several instances of a TQC problem. In particular, the objectives considered in the project were the error approximation and the length of a solution. The tool we used to solve the instances of the problem was the multi-objective framework PISA. Because PISA has not too much documentation available, we had to go through a process of reverse-engineering of the framework to understand its modules and the way they communicate with each other. Once its functioning was understood, we began working on a module dedicated to the braid problem. Finally, we submitted this module to an exhaustive experimentation phase and collected results.
Resumo:
A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).
Resumo:
Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.
Resumo:
Apresentamos neste trabalho uma investigação acerca de algumas das condições que compõem as aplicações da chamada Educação a Distância no Brasil. Interessa-nos, em particular, descobrir as potencialidades desta modalidade de ensino-aprendizagem que se dão através do uso de computadores atrelados à Internet. Porém, optamos por adotar uma perspectiva imanente de investigação, que engloba uma multiplicidade de questões que atravessam a Educação como um todo e não somente o seu modo de operação à distância. Para tanto, nós realizamos uma espécie de cartografia mezzo-histórica do ensinar-aprender à distância no nosso país com o intuito de mostrar como é longa a distância entre as primeiras experiências em Educação a Distância e o cenário atual propício a estas práticas. Discutimos a apropriação de técnicas, tecnologias e usos que ocorrem em meio a linhas políticas, econômicas, pedagógicas e, sobretudo, éticas, constituindo algumas das condições cruciais à invenção e captura deste modo de fazer educacional. Analisamos alguns dos possíveis impactos na Educação a Distância vigente em nosso país que são efeito do ressentimento oriundo do contínuo e inacabável processo de Globalização, que afeta diferentes segmentos da nossa sociedade, não deixando de forma alguma ilesos os processos de ensino-aprendizagem contemporâneos. Frente a esta conjectura, nós avançamos na tentativa de verificar até que ponto é possível extrair potências da suposta fragilidade imposta pela política neoliberal nos dias de hoje, amparados pelas pistas deixadas pelo trabalho de Deleuze e de Foucault no movimento que vai das Sociedades Disciplinares às de Controle misturadas às alternativas apontadas pelo que se convém denominar Capitalismo Cognitivo. As condições de experiência e de produção de sentido(s) possíveis em processos de Educação a Distância são problematizadas através da fabricação dos conceitos de distância, proximidade e velocidade, por um percurso que nos posiciona entre as duas margens mais comuns na discussão sobre esta referida modalidade de ensino-aprendizagem, que são compostas de um lado por entusiastas e de outro pelos algozes críticos. Apresentamos ainda neste estudo algumas noções de rede, considerando as suas possíveis conceituações, seja como parafernália técnica que viabiliza conexões informáticas, permitindo a comunicação na Internet, seja como modo de mobilização de coletivos que buscam a multiplicação de sentidos em suas práticas. Apostamos na capacidade inerente às redes de aumentar consideravelmente a potência de ação dos coletivos envolvidos com práticas de ensino-aprendizagem à distância, através da implementação de estratégias e táticas micropolíticas, conforme inspiração na análise acerca do processo de invenção do cotidiano registrado na obra de Michel de Certeau.
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Esta pesquisa tem como objeto de estudo filmes brasileiros contemporâneos que têm professores e/ou a escola como personagens/cenários em seus conteúdos. Para a análise desses filmes, realiza-se, inicialmente, a apresentação do desenvolvimento da atividade cinematográfica no Brasil e seu funcionamento como indústria, a partir de três etapas: produção, distribuição e exibição. Todas essas etapas envolvem grandes investimentos que podem ser públicos ou privados. Atualmente, o Estado brasileiro financia de forma indireta a produção fílmica, através de parcerias com o mercado. As fases de distribuição e exibição, por sua vez, só recebem investimentos de instâncias privadas, o que contribui para um processo de monopolização da atividade cinematográfica brasileira por indústrias culturais, sejam americanas ou nacionais. A partir da relação cinema e indústria, apresenta-se o conceito de indústria cultural, desenvolvido por Adorno e Horkheimer, abordando os interesses econômicos e ideológicos que permeiam a criação de produtos culturais. No intuito de explicitar, ainda mais, a importância dos interesses ideológicos, busca-se o conceito de hegemonia, de Gramsci, a partir do qual se afirma que a indústria cultural pode funcionar como um aparelho privado de hegemonia, contribuindo para hegemonizar valores comuns aos parceiros. No Brasil, o foco está posto nas Organizações Globo como indústria cultural e aparelho privado de hegemonia, com a discussão de suas práticas econômicas e sociais. A Globo Filmes é a empresa das Organizações Globo responsável pelo cinema, atuando na produção e divulgação de filmes nacionais. Os filmes escolhidos para análise nesse trabalho foram produzidos ou apoiados por essa empresa e são eles: Verônica (2009), Uma Professora Muito Maluquinha (2011) e Qualquer gato vira-lata (2011). Todos eles têm o professor como personagem principal e os dois primeiros apresentam a escola como cenário. A análise do discurso na abordagem tridimensional apresentada por Fairclough é utilizada como proposta teórico-metodológica, para abordar os filmes como texto, prática discursiva e prática social, permitindo a aproximação do objeto expresso no título da tese
Resumo:
O objetivo dessa pesquisa é a análise das práticas de leitura realizadas no processo de aquisição da língua escrita, considerando as denominadas práticas de alfabetização realizadas no 1 segmento do Ensino Fundamental I às práticas de letramento no Ensino Fundamenta lI. Especificamente, será analisado o desempenho dos estudantes da E. M. Sobral Pinto, situada em Jacarepaguá, Zona Oeste, do Município do Rio de Janeiro. Esta escola é matriz naquela região, recebendo estudantes que terminaram o Ensino Fundamental I 1 ao 5 ano de escolaridade. Para fins do objetivo proposto, realiza-se uma análise triangulada, cujos vértices são os seguintes: a) análise da prova de leitura bimestral aplicada pelo SME semestralmente. b) análise das respostas docentes ao questionário aplicado cujo objetivo é discutir sobre os conceitos de leituras, alfabetização e letramento, cerne da pesquisa. c) Os dados referentes às planilhas de resultados das provas bimestrais referentes ao 1 e 4 bimestres de 2013, concernentes a cerca de 300 alunos E. M. Sobral Pinto, do 6 ano de escolaridade. A análise reforça os resultados exarados pela SME que revelam maioria absoluta de estudos com rendimento regular e/ou insuficiente em leitura, contrapondo-se a ínfimo percentual de estudantes com rendimento muito bom ou proficiente em leitura. As razões para os resultados estão centradas em uma abordagem de língua que se distancia das teorias linguísticas em perspectiva sociointeracionista
Resumo:
O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.
Resumo:
Nesta Dissertação propõe-se a aplicação de algoritmos genéticos para a síntese de filtros para modular sinais de controladores a estrutura variável e modo deslizante. A modulação do sinal de controle reduz a amplitude do sinal de saída e, consequentemente, pode reduzir o consumo de energia para realizar o controle e o chattering. Esses filtros também são aplicados em sistemas que possuem incertezas paramétricas nos quais nem todas as variáveis de estado são medidas. Nesses sistemas, as incertezas nos parâmetros podem impedir que seus estados sejam estimados com precisão por observadores. A síntese desses filtros necessita da obtenção da envoltória, que é o valor máximo da norma de cada resposta impulsiva admissível no sistema. Após este passo, é sintetizado um filtro que seja um majorante para a envoltória. Neste estudo, três métodos de busca da envoltória por algoritmos genéticos foram criados. Um dos métodos é o preferido, pois apresentou os melhores resultados e o menor tempo computacional.
Resumo:
Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.