902 resultados para Algoritmos Paralelos
Resumo:
[ES]El objetivo del presente TFG es el Análisis Dinámico de mecanismos paralelos según las necesidades de la mecatrónica. La mecatrónica requiere expresiones explícitas de las fuerzas motoras que sólo dependen de las propias posiciones, velocidades y aceleraciones en los accionamientos. Ello requiere métodos avanzados de la mecánica analítica de sólido rígido. Concretamente se han desarrollado la ecuación de Lagrange modificada (según [11]) y la ecuación de Boltzmann-Hamel modificada, siendo esta última una aportación de este TFG. Como aplicación práctica se ha programado un modelo mecatrónico para un manipulador paralelo 5R y se ha optimizado el diseño de una Multi Axis Simulation Table 3PRS.
Resumo:
Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.
Resumo:
Quantum Computing is a relatively modern field which simulates quantum computation conditions. Moreover, it can be used to estimate which quasiparticles would endure better in a quantum environment. Topological Quantum Computing (TQC) is an approximation for reducing the quantum decoherence problem1, which is responsible for error appearance in the representation of information. This project tackles specific instances of TQC problems using MOEAs (Multi-objective Optimization Evolutionary Algorithms). A MOEA is a type of algorithm which will optimize two or more objectives of a problem simultaneously, using a population based approach. We have implemented MOEAs that use probabilistic procedures found in EDAs (Estimation of Distribution Algorithms), since in general, EDAs have found better solutions than ordinary EAs (Evolutionary Algorithms), even though they are more costly. Both, EDAs and MOEAs are population-based algorithms. The objective of this project was to use a multi-objective approach in order to find good solutions for several instances of a TQC problem. In particular, the objectives considered in the project were the error approximation and the length of a solution. The tool we used to solve the instances of the problem was the multi-objective framework PISA. Because PISA has not too much documentation available, we had to go through a process of reverse-engineering of the framework to understand its modules and the way they communicate with each other. Once its functioning was understood, we began working on a module dedicated to the braid problem. Finally, we submitted this module to an exhaustive experimentation phase and collected results.
Resumo:
Desenvolvimento de metodologia para a determinação de aflatoxinas em amostras de amendoim usando espectrofluorimetria e análise dos fatores paralelos (PARAFAC). 2012. 92 f. Dissertação (Mestrado em Engenharia Química) - Instituto de Química, Universidade do Estado do Rio de Janeiro , Rio de Janeiro, 2012. Neste trabalho de pesquisa são descritos dois estudos de caso que se baseiam na determinação de aflatoxinas B1, B2, G1 e G2 em amostras de amendoim, utilizando a técnica de espectroscopia de fluorescência molecular. O primeiro estudo tem o objetivo de avaliar a metodologia empregada para a quantificação de aflatoxinas totais em amendoins, utilizando o método clássico de validação fazendo-se o uso da calibração univariada. Os principais parâmetros de desempenho foram avaliados visando certificar a possibilidade de implementação desta metodologia em laboratórios. O segundo estudo está focado na separação e quantificação destas aflatoxinas com a aplicação combinada da espectrofluorimetria e de um método quimiométrico de segunda ordem (PARAFAC) utilizando a calibração multivariada. Esta técnica pode ser empregada como uma alternativa viável para a determinação de aflatoxinas B1, B2, G1 e G2 isoladamente, tradicionalmente é feito por cromatografia líquida de alta eficiência com detector de fluorescência. Porém, como estes analitos apresentam uma larga faixa de sobreposição espectral e as aflatoxinas (B1 e G1) possuem intensidade de sinal de fluorescência bem abaixo das demais, a separação e quantificação das quatro aflatoxinas foi inviável. O estudo foi retomado com a utilização das aflatoxinas B2 e G2 e os resultados alcançados foram satisfatórios. O método utilizado para a quantificação de aflatoxinas totais apresentou bons resultados, mostrando-se como uma importante ferramenta para a determinação destes analitos. Alem disso, comtempla perfeitamente o que é requerido pela legislação brasileira para a análise de aflatoxinas B1, B2, G1 e G2, que tem como exigência em laudos finais de análise a declaração do somatório, em g/kg, destas aflatoxinas, ou seja, sem a necessidade de quantifica-las separadamente
Resumo:
Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.
Resumo:
[ES] La industria ósea postpaleolítica, por lo general, pocas veces ha merecido la atención que se le ha concedido a la fabricada durante el Paleolítico Superior. No obstante una de dichas excepciones serán los denominados ídolos-espátulas con decoración acanalada en su mitad proximal, trabajados sobre tibias de "Capra/Ovis" y procedentes por lo que hasta ahora conocemos de contextos sepulcrales megalíticos. En su morfología deben de señalarse el extremo activo romo, al modo de otras espátulas tan comunes en contextos neolíticos, y el extremo proximal decorado con profundos acanalamientos que conforman motivos geométricos más o menos complejos (espiral, zig-zag, etc.) en unos casos y en menos alguna figura antropomorfa femenina. Los primeros hallazgos se realizaron en la provincia de Álava durante la década de los sesenta, destacando entre ellos los procedentes del sepulcro de corredor de San Martín (Laguardia), a los que se sucedieron otros como los de Kurtzebide, Los Llanos, etc. en el mismo territorio y los importantes conjuntos hallados en distintas provincias de la Meseta Norte y en La Rioja. Todos ellos debido al tipo de contexto del que proceden y las características de los ídolos-espátula ritual dan cierto grado de homogeneidad ideológico o religioso a todo el territorio. No obstante, fuera de este territorio y muy alejados desde el punto de vista geográfico existen otros ejemplares (Tell Halula -Siria-, Sesklo, Agios Petras -Grecia-) que muestran gran similitud tipológica aunque no un nexo de unión entre ambas zonas. Por otra parte, hay que subrayar la notable mayor antigüedad del foco oriental y que el contexto del que proceden no es funerario como en el caso de los ejemplares occidentales.
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Nesta Dissertação propõe-se a aplicação de algoritmos genéticos para a síntese de filtros para modular sinais de controladores a estrutura variável e modo deslizante. A modulação do sinal de controle reduz a amplitude do sinal de saída e, consequentemente, pode reduzir o consumo de energia para realizar o controle e o chattering. Esses filtros também são aplicados em sistemas que possuem incertezas paramétricas nos quais nem todas as variáveis de estado são medidas. Nesses sistemas, as incertezas nos parâmetros podem impedir que seus estados sejam estimados com precisão por observadores. A síntese desses filtros necessita da obtenção da envoltória, que é o valor máximo da norma de cada resposta impulsiva admissível no sistema. Após este passo, é sintetizado um filtro que seja um majorante para a envoltória. Neste estudo, três métodos de busca da envoltória por algoritmos genéticos foram criados. Um dos métodos é o preferido, pois apresentou os melhores resultados e o menor tempo computacional.
Resumo:
Este trabalho apresenta contribuições para algoritmos de controle utilizados em filtros ativos e híbridos conectados em redes elétricas trifásicas a 3 ou a 4 fios. Em relação aos algoritmos de controle para filtros ativos, a contribuição consiste em estender o conceito da filtragem harmônica seletiva para compensação de correntes harmônicas e desequilibradas em uma rede trifásica a 4 fios. Esses algoritmos derivam dos conceitos utilizados na teoria da potência instantânea (teoria pq), em conjunto com um circuito de sincronismo PLL. É importante ressaltar que estes algoritmos não utilizam as correntes consumidas pelas cargas, ou seja, apenas as tensões no ponto da rede onde o filtro está conectado são utilizadas para determinação das correntes harmônicas de referência. Apenas as correntes na saída do conversor são utilizadas como realimentação do controle PWM. Estes algoritmos também foram utilizados no filtro híbrido para compensação de correntes harmônicas em uma rede trifásica a 3 fios. Por fim foi feito uma alteração nesses algoritmos de controle que permite eliminar as correntes utilizadas na realimentação do controle PWM. Resultados de simulação são apresentados com objetivo de observar o comportamento desses algoritmos tanto no filtro ativo quanto no híbrido nas condições mencionadas.
Resumo:
A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.
Resumo:
A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.
Resumo:
A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
Resumo:
O conhecimento do uso atual e cobertura do solo é imprescindível em qualquer projeto de caracterização e monitoramento ambientais, permitindo demarcar os diferentes usos da terra e vegetação, bem como subsidiar o planejamento e gestão ambientais. O presente trabalho abrange a totalidade do Estado do Rio de Janeiro, compreendido entre os meridianos 410 e 450 de longitude Oeste e os paralelos 200 30? e 230 30? de latitude Sul, estendendo-se por aproximadamente 44.000 km2. Tem como objetivo inventariar e mapear o estado atual da ocupação dos solos, distinguindo e quantificando os principais tipos de uso do solo e de cobertura vegetal, apresentados numa escala generalizada de 1:250.000. Para tal, fez-se um mapeamento preliminar com base nos padrões espectrais das imagens de satélite Landsat ETM7+, cedidas pela EMATER-RJ, utilizando-se de diferentes algoritmos de classificação espectral. Durante a elaboração da versão final do Mapa de Uso Atual e Cobertura Vegetal dos Solos do Estado do Rio de Janeiro, foram viagens de verificação in situ a fim de esclarecer dúvidas e subsidiar ajustes e modificações posteriores. O trabalho de pré-processamento, interpretação e classificação das imagens para a produção e edição final do Mapa de Uso Atual e Cobertura Vegetal realizou-se no período de março de 2002 a fevereiro de 2003, pelas equipes técnicas da CPRM (Serviço Geológico Brasileiro), Divisão de Geoprocessamento - DIGEOP, Departamento de Informações Institucionais (DEINF) e o Laboratório de Geoinformação da Embrapa Solos. Foram identificadas e mapeadas 13 grandes classes de uso e ocupação do solo, algumas delas subdivididas em tipos, assim classificadas e distribuídas: 1 ? Mata Atlântica (Remanescente/Secundária e Ciliar); 2 ? Mangue (Mangue e Mangue Degradado); 3 ? Restinga; 4 - Pecuária (Pastagem Plantada e Campo / Passtagem em Zona Úmida); 5 ? Agricultura; 6 ? Reflorestamento; 7 ? Afloramento de Rocha; 8 ? Solo Exposto; 9 ? Corpo d?Água; 10 ? Salina; 11 ? Extração de Areia / Mineração; 12 ? Praia e Duna; 13 ? Área Urbana.
Resumo:
Problemas de localização. Descrição do algoritmo genético construtivo.
Resumo:
Para muitos usuários, a programação visual é uma alternativa atrativa às linguagens de programação textuais. Uma das razões para esta atração é que a representação visual de um problema está muito mais próxima com a forma pela qual a solução é obtida ou entendida se comparada à representação textual. Este trabalho apresenta um modelo para a programação visual de matrizes baseado nos paradigmas de fluxo de dados e planilhas eletrônicas. O fluxo de dados e a planilha forma a base semântica da linguagem, enquanto as representações gráficas do grafo direcionado e de uma planilha fundamentam sua base sintática. Este modelo consiste em um conjunto de diagramas bidimensionais e de regras de transformação. Os processos são implementados como redes de fluxo de dados e os dados são representados por planilhas. As planilhas podem ser vistas como variáveis do tipo matriz que armazenam dados bidimensionais, ou como funções, que recebem e produzem valores utilizados por outros processos. Neste caso, as planilhas são programadas seguindo o paradigma de programação por demonstrações que incorporam um poderoso construtor de interação, reduzindo significativamente a utilização de recursos e repetições. O modelo proposto pode ser utilizado em diversos domínios de aplicação, principalmente para simplificar a construção de modelos matemáticos de simulação e análise estatística.