882 resultados para algoritmos de confiabilidade


Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper addresses the analysis of probabilistic corrosion time initiation in reinforced concrete structures exposed to ions chloride penetration. Structural durability is an important criterion which must be evaluated in every type of structure, especially when these structures are constructed in aggressive atmospheres. Considering reinforced concrete members, chloride diffusion process is widely used to evaluate the durability. Therefore, at modelling this phenomenon, corrosion of reinforcements can be better estimated and prevented. These processes begin when a threshold level of chlorides concentration is reached at the steel bars of reinforcements. Despite the robustness of several models proposed in the literature, deterministic approaches fail to predict accurately the corrosion time initiation due to the inherently randomness observed in this process. In this regard, the durability can be more realistically represented using probabilistic approaches. A probabilistic analysis of ions chloride penetration is presented in this paper. The ions chloride penetration is simulated using the Fick's second law of diffusion. This law represents the chloride diffusion process, considering time dependent effects. The probability of failure is calculated using Monte Carlo simulation and the First Order Reliability Method (FORM) with a direct coupling approach. Some examples are considered in order to study these phenomena and a simplified method is proposed to determine optimal values for concrete cover.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O problema de Planejamento da Expansão de Sistemas de Distribuição (PESD) visa determinar diretrizes para a expansão da rede considerando a crescente demanda dos consumidores. Nesse contexto, as empresas distribuidoras de energia elétrica têm o papel de propor ações no sistema de distribuição com o intuito de adequar o fornecimento da energia aos padrões exigidos pelos órgãos reguladores. Tradicionalmente considera-se apenas a minimização do custo global de investimento de planos de expansão, negligenciando-se questões de confiabilidade e robustez do sistema. Como consequência, os planos de expansão obtidos levam o sistema de distribuição a configurações que são vulneráveis a elevados cortes de carga na ocorrência de contingências na rede. Este trabalho busca a elaboração de uma metodologia para inserir questões de confiabilidade e risco ao problema PESD tradicional, com o intuito de escolher planos de expansão que maximizem a robustez da rede e, consequentemente, atenuar os danos causados pelas contingências no sistema. Formulou-se um modelo multiobjetivo do problema PESD em que se minimizam dois objetivos: o custo global (que incorpora custo de investimento, custo de manutenção, custo de operação e custo de produção de energia) e o risco de implantação de planos de expansão. Para ambos os objetivos, são formulados modelos lineares inteiros mistos que são resolvidos utilizando o solver CPLEX através do software GAMS. Para administrar a busca por soluções ótimas, optou-se por programar em linguagem C++ dois Algoritmos Evolutivos: Non-dominated Sorting Genetic Algorithm-2 (NSGA2) e Strength Pareto Evolutionary Algorithm-2 (SPEA2). Esses algoritmos mostraram-se eficazes nessa busca, o que foi constatado através de simulações do planejamento da expansão de dois sistemas testes adaptados da literatura. O conjunto de soluções encontradas nas simulações contém planos de expansão com diferentes níveis de custo global e de risco de implantação, destacando a diversidade das soluções propostas. Algumas dessas topologias são ilustradas para se evidenciar suas diferenças.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este artículo se plantea la resolución de un problema de Investigación Operativa utilizando PHPSimplex (herramienta online de resolución de problemas de optimización utilizando el método Simplex), Solver de Microsoft Excel y un prototipo híbrido que combina las teorías de los Algoritmos Genéticos con una técnica heurística de búsqueda local. La hibridación de estas dos técnicas es conocida como Algoritmo Memético. Este prototipo será capaz de resolver problemas de Optimización con función de maximización o minimización conocida, superando las restricciones que se planteen. Los tres métodos conseguirán buenos resultados ante problemas sencillos de Investigación Operativa, sin embargo, se propone otro problema en el cual el Algoritmo Memético y la herramienta Solver de Microsoft Excel, alcanzarán la solución óptima. La resolución del problema utilizando PHPSimplex resultará inviable. El objetivo, además de resolver el problema propuesto, es comparar cómo se comportan los tres métodos anteriormente citados ante el problema y cómo afrontan las dificultades que éste presenta. Además, este artículo pretende dar a conocer diferentes técnicas de apoyo a la toma de decisiones, con la intención de que se utilicen cada vez más en el entorno empresarial sustentando, de esta manera, las decisiones mediante la matemática o la Inteligencia Artificial y no basándose únicamente en la experiencia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con este proyecto hemos querido proporcionar un conjunto de recursos útiles para la impartición de un curso de Swarm Intelligence enfocado a la Particle Swarm Optimization (PSO). Estos recursos constan de una aplicación en NetLogo para poder experimentar, ejecutar y visualizar los diferentes modelos de la PSO, un review de la Swarm Intelligence profundizando en la PSO y una ontología de PSO que incluye los recursos bibliográficos necesarios para la investigación y la escritura de artículos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quantum Computing is a relatively modern field which simulates quantum computation conditions. Moreover, it can be used to estimate which quasiparticles would endure better in a quantum environment. Topological Quantum Computing (TQC) is an approximation for reducing the quantum decoherence problem1, which is responsible for error appearance in the representation of information. This project tackles specific instances of TQC problems using MOEAs (Multi-objective Optimization Evolutionary Algorithms). A MOEA is a type of algorithm which will optimize two or more objectives of a problem simultaneously, using a population based approach. We have implemented MOEAs that use probabilistic procedures found in EDAs (Estimation of Distribution Algorithms), since in general, EDAs have found better solutions than ordinary EAs (Evolutionary Algorithms), even though they are more costly. Both, EDAs and MOEAs are population-based algorithms. The objective of this project was to use a multi-objective approach in order to find good solutions for several instances of a TQC problem. In particular, the objectives considered in the project were the error approximation and the length of a solution. The tool we used to solve the instances of the problem was the multi-objective framework PISA. Because PISA has not too much documentation available, we had to go through a process of reverse-engineering of the framework to understand its modules and the way they communicate with each other. Once its functioning was understood, we began working on a module dedicated to the braid problem. Finally, we submitted this module to an exhaustive experimentation phase and collected results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Orthognathic Quality of Life Questionnaire (OQLQ) foi desenvolvido em 2000 e validado em 2002, com o objetivo de analisar os impactos e benefícios do tratamento orto-cirúrgico na qualidade de vida dos pacientes. O objetivo deste trabalho foi avaliar a validade de construto e confiabilidade da versão brasileira deste instrumento, B-OQLQ, para verificar se, no processo de adaptação transcultural, as propriedades psicométricas do questionário original foram mantidas. Para tal, foi realizado um estudo seccional com uma amostra composta por cento e um pacientes com necessidade de tratamento ortodôntico-cirúrgico no Hospital Universitário Pedro Ernesto (HUPE) e na Faculdade de Odontologia da Universidade do Estado do Rio de Janeiro (UERJ), utilizando o B-OQLQ na forma de autopreenchimento. A média de idade dos pacientes foi de 26,51 (dp= 9,25), sendo a maioria do sexo feminino (58,42%; n=59) e maior que 21 anos (n=68, 67,33%). Quanto ao tipo de cirurgia, 42,57% (n=43) da amostra necessitavam fazer procedimento cirúrgico que envolveria as duas bases ósseas, 16,83% (n=17) necessitavam operar apenas uma das bases ósseas e para 40,59% (n=41) dos pacientes ainda não era possível definir qual o tipo de cirurgia seria necessária. Uma ortodontista treinada examinou os dentes dos pacientes para registrar o Índice de Dentes Cariados, Perdidos e Obturados (CPOD). A validade de construto foi acessada através do teste de correlação de Spearman entre as pontuações do B-OQLQ e do questionário Oral Health Impact Profile (OHIP-14) e das pontuações do B-OQLQ com as pontuações obtidas através de indicadores subjetivos e objetivos de saúde. A confiabilidade foi acessada em termos de consistência interna e estabilidade (teste-reteste), utilizando-se o alfa de Cronbach e o Coeficiente de Correlação Intraclasse (CCI), respectivamente. Os escores do B-OQLQ se correlacionaram significativamente com: o escore total do OHIP-14 (rs=0,70, p<0,001), a saúde bucal percebida (rs=-0,24, p=0,02), a qualidade de vida medida por um item único de avaliação (rs=-0,29, p=0,03), a satisfação com a aparência física (rs=-0,40, p<0,001) e a satisfação com a aparência facial (rs=-0,39, p=0,0001). Foi encontrada uma associação entre a faixa etária e o escore total do B-OQLQ (p=0,0012), sendo que pacientes maiores de 21 anos obtiveram escores mais elevados que pacientes mais novos. A associação entre o escore total do B-OQLQ e o tipo de cirurgia não foi estatisticamente significativa. O alfa de Cronbach e o CCI foram 0,95 e 0,90, respectivamente. Os domínios do B-OQLQ que mais causaram impacto na qualidade de vida foram aspectos sociais da deformidade (13,0; dp= 10,54) e estética facial (11,81; dp= 6,23). A versão brasileira do questionário OQLQ se mostrou um instrumento válido e confiável, com boas propriedades psicométricas podendo, portanto, ser considerada um instrumento apropriado para acessar o impacto da deformidade dentofacial na qualidade de vida de pacientes portadores desta condição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos diversos segmentos da Geotecnia e em especial na área de fundações, o engenheiro se depara com uma série de incertezas. Algumas destas incertezas são inerentes à variabilidade local do solo, às condições de carregamento, aos efeitos do tempo, às diferenças nos processos executivos, erros de sondagens, que influenciam diretamente a estimativa da capacidade de carga da fundação, seja por ocasião de seu carregamento estático, seja durante ou logo após a cravação. O objetivo desta dissertação é a adaptação, a estacas em terra (onshore), de um procedimento concebido originalmente para emprego em estacas offshore, que trata da atualização da estimativa da resistência durante a cravação, com base em registros documentados durante a execução. Neste procedimento a atualização é feita através da aplicação dos conceitos da análise Bayesiana, assumindo que os parâmetros da distribuição probabilística utilizada sejam variáveis randômicas. A incerteza dos parâmetros é modelada por distribuições a priori e a posteriori. A distribuição a posteriori é calculada pela atualização da distribuição a priori, utilizando uma função de máxima verossimilhança, que contém a observação obtida dos registros de cravação. O procedimento é aplicado a um conjunto de estacas de um extenso estaqueamento executado na Zona Oeste do Rio de Janeiro. As estimativas atualizadas são posteriormente comparadas aos resultados dos ensaios de carregamento dinâmico. Várias aplicações podem surgir com o emprego deste procedimento, como a seleção das estacas que, por apresentarem reduzido valor de estimativa atualizada de resistência, ou uma maior incerteza desta estimativa, devam ser submetidas a provas de carga. A extensão deste estudo a diferentes tipos de estacas em perfis de solo de natureza distintos poderá levar ao desenvolvimento de sistemas mais adequados de controle de execução, capazes de identificar as principais incertezas presentes nos diferentes tipos de execução de estacas, contribuindo assim para a otimização de futuros projetos de fundações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de modelos de estudo dentários faz parte tanto da prática quanto da pesquisa odontológica e ortodôntica. Com a introdução dos scanners 3D e dos tomógrafos CBCT (cone beam computer tomography) tornou-se possível a obtenção de modelos dentários tridimensionais virtuais das arcadas dentárias. Foram selecionados 56 modelos dentários superiores e escaneados em três tipos diferentes de scanners: Maestro 3D Dental Scanner (AGE Solutions, Potedera, Italia), 3Shape R700 3D Scanner (3Shape, Copenhagen, Dinamarca) e o scanner 3Shape TRIOS (3Shape, Copenhagen, Dinamarca). Doze medidas foram realizadas nos modelos dentários de gesso e comparadas com as mesmas medidas realizadas nos modelos dentários digitais por meio do teste de Análise de Variância (ANOVA). Estatisticamente não foram encontradas diferenças significativas entre as medições tradicionais nos modelos dentários de gesso e as medidas realizadas nos modelos dentários digitais. Os três tipos de métodos de aquisição de modelos dentários digitais foram considerados confiáveis para as medições horizontais, transversais e verticais. Os modelos dentários virtuais podem ser indicados como substitutos dos modelos dentários de gesso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta Dissertação propõe-se a aplicação de algoritmos genéticos para a síntese de filtros para modular sinais de controladores a estrutura variável e modo deslizante. A modulação do sinal de controle reduz a amplitude do sinal de saída e, consequentemente, pode reduzir o consumo de energia para realizar o controle e o chattering. Esses filtros também são aplicados em sistemas que possuem incertezas paramétricas nos quais nem todas as variáveis de estado são medidas. Nesses sistemas, as incertezas nos parâmetros podem impedir que seus estados sejam estimados com precisão por observadores. A síntese desses filtros necessita da obtenção da envoltória, que é o valor máximo da norma de cada resposta impulsiva admissível no sistema. Após este passo, é sintetizado um filtro que seja um majorante para a envoltória. Neste estudo, três métodos de busca da envoltória por algoritmos genéticos foram criados. Um dos métodos é o preferido, pois apresentou os melhores resultados e o menor tempo computacional.