33 resultados para método de correção por equação matemática
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Neste trabalho, desenvolvemos uma metodologia semi-analítica para solução de problemas de condução de calor bidimensional, não-estacionária em meios multicompostos. Esta metodologia combina os métodos nodal, com parâmetros concentrados, e a técnica da transformada de Laplace. Inicialmente, aplicamos o método nodal. Nele, a equação diferencial parcial que descreve o problema é integrada, transversalmente, em relação a uma das variáveis espaciais. Em seguida, é utilizado o método de parâmetros concentrados, onde a distribuição de temperatura nos contornos superior e inferior é substituída pelo seu valor médio. Os problemas diferenciais unidimensionais resultantes são então resolvidos com o uso da técnica da transformada de Laplace, cuja inversão é avaliada numericamente. O método proposto é usado na solução do problema de condução de calor, em paredes de edificações. A implementação computacional é feita, utilizando-se a linguagem FORTRAN e os resultados numéricos obtidos são comparados com os disponíveis na literatura.
Resumo:
Esta tese trata da relação matemática entre as espessuras real e aparente em contaminações subterrâneas com gasolina e com gasolina e etanol. Foi testada a hipótese de que a relação entre as espessuras dos dois tipos de gasolinas pode ser descrita pela mesma relação matemática desde que esta relação incorpore as tensões interfaciais entre a água e a gasolina e gasolina e o ar que ocorrem no meio poroso. É proposta uma relação matemática hidrostática para o equilíbrio considerando o contato entre o poço de monitoramento e o meio poroso e a tensão interfacial responsável pelos efeitos capilares no meio poroso e a densidade dos fluidos. Os experimentos conduzidos em meio poroso e colunas acrílicas mostraram um ajuste estatisticamente melhor da equação matemática proposta para a gasolina pura e um ajuste que apresentou menor representatividade estatística para a gasolina com etanol. Esta discrepância está relacionada ao fato da transferência de massa do etanol presente na gasolina para a água não ser um fenômeno desprezível, causar grande influência no sistema e não estar contemplada na relação matemática proposta. Outro fenômeno observado em gotas de fluidos em experimentos para medir a tensão interfacial pode ser responsável pelo ajuste menos representativo da equação que é a presença de instabilidades na interface de contato entre a gasolina e a água. Estas instabilidades que são chamadas na literatura de Efeito Marangoni produzem variações na interface entre água e gasolina e são também responsáveis pela diferença no ajuste da equação.
Resumo:
Apresentamos a fotometria de 6 campos estelares profundos distribuídos na Grande Nuvem de Magalhães obtidos com a Wide Field and Planetary Camera 2/Hubble Space Telescope em duas bandas fotométricas: F814W (~I) e F555W (~V). Foram selecionadas ao todo 15997 estrelas pela nossa amostra, que somadas às estrelas da amostra de Castro et aI. 2001 [9] contabilizaram 22239 estrelas, dentro de limites de magnitude típicos que estão no intervalo 18.5<-V <-26. Investigamos o comportamento do erro fotométrico através da tarefa PHOT/IRAF, bem como via medidas independentes de magnitude de um mesmo objeto obtidas com diferentes exposições. Implementamos um método de correção para a completeza fotométrica como função da posição no diagrama cor-magnitude, isto é, com função tanto da magnitude como da cor e analisamos a sensibilidade das funções de luminosidade obtidas para diferentes métodos de correção. Foram obtidos os diagramas cor-magnitude, com os quais ajustamos isócronas de Pádova com idades T ;S 16 Gano e metalicidades 0.001 < Z < 0.004 ou -1.3 < [Fe/H] < -0.7. A população mais velha (r~12 Gano) pode ser encontrada através do ponto de turn-off em V~22. Estrelas de idade intermediária (r~1 - 8 Gano) podem ser localizadas pela presença de um clump. Os campos próximos aos aglomerados jovens NGC1805 e NGC1818 são os campos mais populosos, apresentando estrelas com r~1 Gano. Construímos funções de luminosidade para 18.5<-V <-25, utilizando os dados das duas amostras; não foram encontradas diferenças significativas entre os campos Desenvolvemos um método para geração de diagramas cor-magnitude (CMDs) artificiais a partir de um modelo de histórico de formação estelar. Este método incorpora os efeitos de erros fotométricos, binarismo não resolvido, avermelhamento e permite o uso de formas variadas de função de massa inicial e do próprio histórico. Implementamos o Método dos Modelos Parciais para modelamento de CMDs, incluindo experimentos controlados para a comprovação da validade deste método na busca de vínculos ao histórico de formação estelar da Grande Nuvem de Magalhães em dife!entes regiões. Recuperamos SFHs confiáveis para cada um dos 6 campos da LMC. Observamos variações na formação estelar de um campo para outro. Em todos os campos encontramos uma lacuna na formação estelar com 7 rv 700 Mano. Os dois campos próximos à barra (NGC1805 e NGC1818) apresentam alguns pequenos surtos, tendo formado em sua maioria, estrelas velhas ou relativamente jovens. Já os campos próximos a NGC1831 e NGC1868 apresentam formação estelar que se aproxima de um histórico de formação estelar uniforme, com alguns pequenos surtos. Os campos NGC2209 e Hodge 11 apresentam três períodos de formação estelar muitos semelhantes.
Resumo:
Apresentamos a análise de diagramas cor-magnitude (CMDs) profundos para 5 aglomerados ricos da Grande Nuvem de Magalhães (LMC). Os dados fazem parte do projeto HST G07307, entitulado "Formação e Evolução de Aglomerados Estelares Ricos da LMC", e foram obtidos através do HST/WFPC2 nos filtros F555W (~ V) e F814W (~ I), alcançando V555~25. A amostra de aglomerados é composta por NGC 1805 e NGC 1818, os mais jovens (r < 100 Myr), NGC 1831e NGC 1868,de idades intermediárias (400 < r < 1000Myr), e Hodge 14, o mais velho (r > 1200Myr). Discutimos e apresentamos um método de correção dos CMDs para incompleteza da amostra e contaminação por estrelas de campo. O uso eficiente das informações contidas nos CMDs foi feito por meio de comparações entre os CMDs observados e CMDs modelados. O processo de modelamento de CMDs gera uma Seqüência Principal (MS) sintética, que utiliza como entrada do modelo a informação sobre idade (r), metalicidade (Z), Função de Massa do Presente (PDMF), fração de binárias não resolvidas, distância e extinção da luz. As incertezas fotométricas foram empiricamente determinadas a partir dos dados e incorporadas no modelamento. Técnicas estatísticas de comparação entre CMDs em 1D e 2D são apresentadas e aplicadas como métodos objetivos capazes de determinar a compatibilidade entre modelo e observação. Modelando os CMDs da região central dos aglomerados podemos inferir a metalicidade (Z), o módulo de distância intrínseco ((V - Mv)o) e o avermelhamento (E(B-V)) para cada aglomerado. Também determinamos as idades para os 3 aglomerados mais velhos de nossa amostra. Continuação) Através da comparação em 2D os valores encontrados foram os seguintes: para NGC 1805, Z = 0.007:1+-0.003, (V - Mv)o = 18.50:1+- 0.10, E(B - V) = 0.03:1+-0.01; para NGC 1818,Z = 0.005:1+-0.002, (V - Mv)o = 18.50:1+-0.15, E(B - V)~0.00; para NGC 1831, Z = 0.012:1+-0.002, log(r /yr) = 8.70 :I+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V)~ 0.00; para NGC 1868, Z = 0.008:1+-0.002,log(r/yr) =8.95:1+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V) ~0.00; para Hodge 14, Z = 0.008+-0.004, log(r/yr) = 9.23+-0.10, (V - Mv)o = 18.50+-0.15, E(B - V) = 0.02+- 0.02. Estes valores estão de acordo, dentro das incertezas, com os valores obtidos através da análise de linhas fiduciais (lD), o que agrega confiabilidade a estas determinações. Através da análise de CMDs em regiões concêntricas determinamos a dependência espacial da inclinação da PDMF (a) nos aglomerados mais ricos. Para tanto empregamos duas abordagens distintas para a determinação de a: 1) método tradicional em 1D via conversão direta de V555em massa; 2) método em 2D via modelmento de CMDs. Independente do método de análise, todos os aglomerados analisados demonstram claramente o efeito de segregação em massa. Além disso, NGC 1818, NGC 1831 e NGC 1868 apresentam uma possível perda seletiva de estrelas de baixa massa nas suas regiões mais externas.
Resumo:
O principal objetivo dessa tese consiste em determinar uma solução numéricada equação bidimensional do transporte de nêutrons para elevadas ordens de quadratura angular. Diagonalizando a matriz de transporte LTSN bidimensional , construímos dois algoritmos que se diferenciam pela forma de representar os termos de fuga transversal, que surgem nas equações LTSN integradas transversalmente. Esses termos no método LTSN2D − Diag são expressos como combinação linear dos autovetores multiplicados por exponenciais dos respectivos autovalores. No método LTSN2D − DiagExp os termos de fuga transversal são representados por uma função exponencial com constante de decaimento heuristicamente identificada com parâmetros materiais característicos do meio. A análise epectral desenvolvida permite realizar a diagonalização. Um estudo sobre o condicionamento é feito e também associamos um número de condicionamento ao termo de fuga transversal. Definimos os erros no fluxo aproximado e na fórmula da quadratura, e estabelecemos uma relação entre eles. A convergência ocorre com condições de fronteira e quadratura angular adequadas. Apresentamos os resultados numéricos gerados pelos novos métodos LTSN2D − Diag e LTSN2D − DiagExp para elevadas ordens de quadratura angular para um problema ilustrativo e comparamos com resultados disponíveis na literatura.
Resumo:
O objetivo deste trabalho é obter uma nova solução analítica para a equação de advecção-difusão. Para tanto, considera-se um problema bidimensional difusivo-advectivo estacionário com coeficiente de difusão turbulenta vertical variável que modela a dispersão de poluentes na atmosfera. São utilizados três coeficientes difusivos válidos na camada limite convectiva e que dependem da altura, da distância da fonte e do perfil de velocidade. A abordagem utilizada para a resolução do problema é a técnica da Transformada Integral Generalizada, na qual a equação transformada do problema difusivo-advectivo é resolvida pela técnica da Transformada de Laplace com inversão analítica. Nenhuma aproximação é feita durante a derivação da solução, sendo assim, esta é exata exceto pelo erro de truncamento. O modelo ´e avaliado em condições moderadamente instáveis usando o experimento de Copenhagen. Apresentam-se os resultados numéricos e estatísticos, comparando os resultados obtidos com dados experimentais e com os resultados da literatura. O modelo proposto mostrou-se satisfatório em relação aos dados dos experimentos difusivos considerados.
Resumo:
Neste trabalho é desenvolvida uma solução semi-analítica para a Equação de Langevin assintótica (Equação de Deslocamento Aleatório) aplicada à dispersão de poluentes na Camada Limite Convectiva (CLC). A solução tem como ponto de partida uma equação diferencial de primeira ordem para o deslocamento aleatório, sobre a qual é aplicado o Método Iterativo de Picard. O novo modelo é parametrizado por um coeficiente de difusão obtido a partir da Teoria de Difusão Estatística de Taylor e de um modelo para o espectro de turbulência, assumindo a supersposição linear dos efeitos de turbulência térmica e mecânica. A avaliação do modelo é realizada através da comparação com dados de concentração medidos durante o experimento de dispersão de Copenhagen e com resultados obtidos por outros quatro modelos: modelo de partículas estocástico para velocidade aleatória (Modelo de Langevin), solução analítica da equação difusão-advecção, solução numérica da equação difusão-advecção e modelo Gaussiano. Uma análise estatística revela que o modelo proposto simula satisfatoriamente os valores de concentração observados e apresenta boa concordância com os resultados dos outros modelos de dispersão. Além disso, a solução através do Método Iterativo de Picard pode apresentar algumas vantagem em relação ao método clássico de solução.
Resumo:
Neste trabalho e apresentado um avanço na tecnica GILTT(Generalized Integral and Laplace Transform Technique) solucionando analiticamente um sistema de EDO's(Equações Diferenciais Ordinarias) de segunda ordem resultante da transformação pela GITT(Generalized Integral Transform Technique). Este tipo de problema usualmente aparece quando esta tecnica é aplicada na solução de problemas bidimensionais estacionários. A principal idéia consiste na redução de ordem do problema transformado em outro sistema de EDO's lineares de primeira ordem e a solução analítica deste problema, pela técnica da transformada de Laplace. Como exemplo de aplicação é resolvida a equação da energia linear bidimensional e estacionária. São apresentadas simulações numéricas e comparações com resultados disponíveis na literatura.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
Neste trabalho é apresentada a solução da equação de difusão-advecção transiente para simular a dispersão de poluentes na Camada Limite Planetária. A solução é obtida através do método analítico GILTT (Generalized Integral Laplace Transform Technique) e da técnica de inversão numérica da quadratura de Gauss. A validação da solução é comprovada utilizando as concentraçãos obtidas a partir do modelo com as obtidas experimentalmente pelo Experimento de Copenhagen. Nesta comparação foram utilizados os perfis de vento potencial e logaritmo e os parâmetros de turbulência propostos por Degrazia et al (1997) [19] e (2002) [17]. Os melhores resultados foram obtidos utilizando o perfil de vento potencial e o coeficiente de difusão propostos por Degrazia et al (1997). A influência da velocidade vertical é mostrada através do comportamento das concentrações de poluentes na pluma. Além disso, as velocidades verticais e longitudinais geradas pelo Large Eddy Simulation (LES) foram colocadas no modelo para poder simular uma camada limite turbulenta mais realística, a qual apresentou resultados satisfatórios quando comparados com os disponíveis na literatura.
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
Conhecer o comportamento vibratório de rotores de máquinas rotativas, já durante a fase de projeto, é uma necessidade cada vez maior nos dias atuais, quando modificações corretivas, após o início da operação, já não são mais aceitáveis, devido aos altos custos de material e execução empregados, se comparados com os lucros que são cada vez mais reduzidos, em função das regras impostas pelo mercado, e devido também ao tempo necessário para tais modificações, que implica em manter a máquina parada, sem gerar lucros nesse penodo, acarretando em mu1tas contratuais para o fabricante. o presente trabalho visa dar subsídiosà análise dinâmicadas linhas de eixos de turbo e hidrogeradores (conjuntos formados pela turbina mais o gerador, usados respectivamentenas centraistermelétricase hidrelétricas). Inicialmente é feita uma breve explanação sobre formas construtivas de hidrogeradores e tipos de turbinas hidráu1icas utilizados atualmente. O trabalho prossegue apresentando as propriedades dos mancais com filme de óleo, os fenômenos do empuxo magnético no rotor do gerador e do efeito giroscópico, bem como a norma ISO 1940, que define os níveis admissíveis de desbalanceamentos residuais para rotores de máquinas É apresentada uma formulação matemática pelo Método das Matrizes de Transferência para as análises das vibrações livres, bem como das vibrações forçadas com carregamentos cíclicos devido aos desbalanceamentos residuais das linhas de eixos. A análise das vibrações livres é feita para a obtenção das fteqüências naturais torcionais e das fteqüências tlexionais críticas em um plano. A análise das vibrações forçadas é elaborada para fornecer as respostas dinâmicas em dois planos ortogonais, devido ao desbalanceamento residual. Para aplicação da metodologia de cálculo apresentada, são elaboradas rotinas computacionais de cálculos, utilizando como plataforma o software MATLAB. Para testar o Método das Matrizes de Transferência, bem como os programas de computador elaborados, faz-se algumas análises com soluções analíticas exatas e comparam-se resultados obtidos. Como aplicação prática, faz-se um estudo aprofundado dos comportamentos dinâmicos algumas linhas de eixos de hidrogeradores, para variações de configurações de construção dessas, bem como para as diversas condições de operação.
Resumo:
O objetivo deste trabalho consiste em aplicar o método LTSn em cálculos de parâmetros críticos como Keff, espessura e concentração atômica e obtenção do fiuxo escalar, da potência específica e do enriquecimento do combustível em placa plana homogenea e heterogênea, considerando modelo multigrupo e em diversas ordens de quadraturas. O método LTSn consiste na aplicação da transformada de Laplace em um conjunto de equações~de ordenadas discretas gerado pela aproximação SN, resultando em um sistema de equações algébricas simbólicas dependentes do parâmetro complexo s e reconstrução dos fluxos angulares pela técnica de expansão de Heaviside. A aplicação do método LTSn reduz a soluçào de um problema de autovalor, a solução de uma equação transcedental, possibilitando a obtenção de parâmetros críticos. Simulações numéricas são apresentadas.
Resumo:
A corrosão da annadura é um dos principais problemas para um grande número de es1ruturas de concreto annado por causa da redução substancial da área de aço, da perda de aderência, da fonnação de fissuras e lascamento do concreto. O modelo tridimensional proposto por este trabalho é baseado no processo de corrosão iniciado por ataque de cloretos e propagado a partir de micropilhas de corrosão, utilizando o método dos elementos finitos. A influência da temperatura, da umidade relativa do concreto, da ligação dos cloretos com compostos do concreto, da fonnação de fissuras provenientes do carregamento e da resistência ôhmica do concreto são levados em consideração. O modelo é dividido em 4 módulos que interagem entre si, sendo eles: análise estrutural, transferência de calor, difusão de cloretos e corrosão eletroquímica. O modelo computacional para a análise estrutural utiliza dois procedimentos. No primeiro busca-se a resposta da estrutura para um carregamento instantâneo, considerando-se o material com comportamento elasto-viscoplástico, associado com modelos de annadura incorporada e fissuras distribuídas.No segundo, detennina-se a resposta da estrutura ao longo do tempo com a teoria da solidificação proposta por Bazant e Prasannan (1989), utilizando as cadeias Kelvin, apresentando ótimos resultados com uma grande economia computacional. O processo de transferência de calor é baseado na fonnulação tridimensional da equação de Helmholtz, com condições de contorno de fluxos provenientes da radiação solar, convecção e radiação, apresentando bons resultados em relação a fonnulações analíticas. Para análise de vigas com a variação da temperatura média diária, constatou-se que as mesmas se encontram em equilíbrio ténnico com o ambiente A análise de difusão de cloretos implementada apresentou um comportamento idêntico ao da segunda lei de Fick para casos unidimensionais. Para análises de vigas carregadas se constatou que as fissuras provenientes de cargas de serviço não influenciam o processo de difusão e que o coeficiente de difusão referencial é o principal parâmetro na análise. O modelo de corrosão eletroquímica é baseado na fonnulação proposta por Liu (1996), obtendo-se como resultado a taxa de corrosão em função do tempo.