11 resultados para Inverse Algorithm
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
Nas últimas décadas, teorias têm sido formuladas para interpretar o comportamento de solos não saturados e estas têm se mostrado coerentes com resultados experimentais. Paralelamente, várias técnicas de campo e de laboratório têm sido desenvolvidas. No entanto, a determinação experimental dos parâmetros dos solos não saturados é cara, morosa, exige equipamentos especiais e técnicos experientes. Como resultado, essas teorias têm aplicação limitada a pesquisas acadêmicas e são pouco utilizados na prática da engenharia. Para superar este problema, vários pesquisadores propuseram equações para representar matematicamente o comportamento de solos não saturados. Estas proposições são baseadas em índices físicos, caracterização do solo, em ensaios convencionais ou simplesmente em ajustes de curvas. A relação entre a umidade e a sucção matricial, convencionalmente denominada curva característica de sucção do solo (SWCC) é também uma ferramenta útil na previsão do comportamento de engenharia de solos não saturados. Existem muitas equações para representar matematicamente a SWCC. Algumas são baseadas no pressuposto de que sua forma está diretamente relacionada com a distribuição dos poros e, portanto, com a granulometria. Nestas proposições, os parâmetros são calibrados pelo ajuste da curva de dados experimentais. Outros métodos supõem que a curva pode ser estimada diretamente a partir de propriedades físicas dos solos. Estas propostas são simples e conveniente para a utilização prática, mas são substancialmente incorretas, uma vez que ignoram a influência do teor de umidade, nível de tensões, estrutura do solo e mineralogia. Como resultado, a maioria tem sucesso limitado, dependendo do tipo de solo. Algumas tentativas têm sido feitas para prever a variação da resistência ao cisalhamento com relação a sucção matricial. Estes procedimentos usam, como uma ferramenta, direta ou indiretamente, a SWCC em conjunto com os parâmetros efetivos de resistência c e . Este trabalho discute a aplicabilidade de três equações para previsão da SWCC (Gardner, 1958; van Genuchten, 1980; Fredlund; Xing, 1994) para vinte e quatro amostras de solos residuais brasileiros. A adequação do uso da curva característica normalizada, proposta por Camapum de Carvalho e Leroueil (2004), também foi investigada. Os parâmetros dos modelos foram determinados por ajuste de curva, utilizando técnicas de problema inverso; dois métodos foram usados: algoritmo genético (AG) e Levenberq-Marquardt. Vários parâmetros que influênciam o comportamento da SWCC são discutidos. A relação entre a sucção matricial e resistência ao cisalhamento foi avaliada através de ajuste de curva utilizando as equações propostas por Öberg (1995); Sällfors (1997), Vanapalli et al., (1996), Vilar (2007); Futai (2002); oito resultados experimentais foram analisados. Os vários parâmetros que influênciam a forma da SWCC e a parcela não saturadas da resistência ao cisalhamento são discutidos.
Resumo:
Esta dissertação apresenta um estudo da modelagem de experimentos aplicados a um processo industrial de tratamento térmico. A motivação deste trabalho surgiu diante das dificuldades associadas aos processos de recozimento industrial de aços do tipo baixa liga, na tentativa de encontrar temperaturas nas quais as durezas superficiais dos aços atingissem valores suficientemente baixos, adequados para etapas posteriores de fabricação, em especial a usinagem. Inicialmente forem realizados diversos experimentos com diferentes aços, onde a dureza superficial é obtida em função da temperatura de recozimento e dos teores de carbono e silício das amostras utilizadas. Em seguida propôs-se um modelo quadrático para modelar a dureza superficial como função dessas três variáveis. A estimação de parâmetros do modelo proposto foi realizada com o emprego do algoritmo Simulated Annealing, uma meta-heurística para otimização global que procura imitar o processo de recozimento de um material sólido. Finalmente, usando-se o modelo proposto, foi resolvido o chamado problema inverso, o qual consiste na estimação da temperatura de recozimento em função dos teores de carbono e silício e da dureza desejada.
Resumo:
O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.
Resumo:
Extensos estudos realizados nas últimas décadas sobre a propagação de ondas ultrassônicas em sólidos levaram ao desenvolvimento de técnicas não destrutivas para a avaliação da segurança e integridade de estruturas e componentes industriais. O interesse na aplicação de técnicas ultrassônicas para medição de tensões aplicadas e residuais decorre da mudança mensurável da velocidade das ondas ultrassônicas na presença de um campo de tensões, fenômeno conhecido como efeito acustoelástico. Uma teoria de acustoelasticidade fornece um meio atrativo e não destrutivo de medir a tensão média ao longo do caminho percorrido pela onda. O estudo da propagação das ondas ultrassônicas em meios homogêneos anisotrópicos sob tensão conduz a um problema não linear de autovalores dado pela equação de Christoffel generalizada. A característica não linear deste problema decorre da interdependência entre as constantes elásticas efetivas do material e as tensões atuantes. A medição experimental de tensões por técnicas ultrassônicas é um problema inverso da acustoelasticidade. Esta dissertação apresenta a implementação de um algoritmo numérico, baseado no método proposto por Degtyar e Rokhlin, para solução do problema inverso da acustoelasticidade em sólidos ortotrópicos sujeitos a um estado plano de tensões. A solução da equação de Christoffel generalizada apresenta dificuldades de natureza numérica e prática. A estabilidade e a precisão do algoritmo desenvolvido, bem como a influência das incertezas na medição experimental das velocidades das ondas ultrassônicas, foram então investigadas. Dados sintéticos para as velocidades das ondas ultrassônicas de incidência oblíqua em uma placa sujeita a um estado plano de tensões foram gerados pela solução direta da equação de Christoffel generalizada para ilustrar a aplicação do algoritmo desenvolvido. O objetivo maior desta dissertação é a disponibilização de uma nova ferramenta de cálculo para suporte às atividades experimentais de medição de tensões por ultrassom no país.
Resumo:
Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
Neste trabalho são utilizados a técnica baseada na propagação de ondas acústicas e o método de otimização estocástica Luus-Jaakola (LJ) para solucionar o problema inverso relacionado à identificação de danos em barras. São apresentados o algoritmo algébrico sequencial (AAS) e o algoritmo algébrico sequencial aperfeiçoado (AASA) que modelam o problema direto de propagação de ondas acústicas em uma barra. O AASA consiste nas modificações introduzidas no AAS. O uso do AASA resolve com vantagens o problema de identificação de danos com variações abruptas de impedância. Neste trabalho são obtidos, usando-se o AAS-LJ e o AASA-LJ, os resultados de identificação de cinco cenários de danos. Três deles com perfil suave de impedância acústica generalizada e os outros dois abruptos. Além disso, com o objetivo de simular sinais reais de um experimento, foram introduzidos variados níveis de ruído. Os resultados alcançados mostram que o uso do AASA-LJ na resolução de problemas de identificação de danos em barras é bastante promissor, superando o AAS-LJ para perfis abruptos de impedância.
Resumo:
Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.
Resumo:
Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.