1000 resultados para métodos de aplicação


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho tratou-se do estudo da Reação de Acoplamento de Eschenmoser e da redução dos sistemas β-enaminocarbonílicos derivados da mesma com sua aplicação da síntese de alcalóides com atividade biológica. Estudou-se condições de formação de compostos β-enaminocarbonílicos trissubstituídos e tetrassubstituídos, secundários e terciários. Métodos de redução via hidreto ou através de hidrogenação catalítica foram estudadas neste trabalho. O efeito do tamanho do anel (5 e 6 membros) na Reação de Acoplamento de Eschenmoser foi estudado ajudando no esclarecimento do mecanismo da mesma. A metodologia desenvolvida foi aplicada na síntese dos alcalóides Noralosedamina e Fenidato de Metila.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. As previsões de resultados a ensaios sob diferentes condições aos das calibrações mostraram resultados qualitativamente bons às freqüências de ciclo de 1 Hz, comprovados na comparação das curvas de deslocamentos normalizadas. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: Estenose subglótica (ESG) é definida como o estreitamento da porção inferior da laringe. De etiologia congênita ou adquirida, ela é a segunda causa de estridor e a segunda causa de indicação de traqueostomia na criança. As dificuldades encontradas no manejo da estenose subglótica, principalmente na população pediátrica, justificam o desenvolvimento de modelos experimentais de fácil reprodutibilidade, poucas complicações e baixo custo. O objetivo deste estudo foi comparar dois métodos de indução experimental de estenose subglótica.Material e métodos: No período de janeiro a dezembro de 2003, vinte cães foram selecionados de forma aleatória, e colocados por sorteio em dois grupos: Gp I (n=9) de eletrocoagulação e Gp II (n=11) de infiltração de NaOH 23 %. No Gp I foi realizada eletrocoagulação com auto-interrupção, aplicada em um ponto nos quatro quadrantes da cartilagem cricóide; no Gp II infiltração de 0,2 ml de NaOH 23 % na camada submucosa das porções anterior e posterior da cartilagem cricóide. A cada semana foi feita endoscopia e aferição do calibre da região subglótica por tubos endotraqueais, e nova aplicação de eletrocoagulação ou infiltração NaOH 23 % realizada quando não havia evidência de estenose subglótica. Os animais foram sacrificados após 21 dias da aplicação; aqueles que apresentaram sofrimento respiratório foram sacrificados antes. Resultados : Um animal do Gp I morreu 14 dias após a aplicação, durante o transporte; dois animais do Gp II morreram: um por fístula traqueoesofágica após 7 dias, e outro de causa indeterminada após 5 dias. Estenose subglótica significativa (acima de 51% de obstrução) foi observada em 67% dos animais do Gp I e 64% do Gp II (p=0,99). A mediana de tempo para o surgimento de estenose significativa foi de 21 dias em ambos os grupos, necessitando em média de 2 a 3 aplicações. O tempo necessário para a realização dos procedimentos foi significativamente menor (p<0,01) no Gp I (média 6,36 minutos) do que no Gp II (média de 14,88 minutos). Conclusão : Os dois modelos experimentais de estenose subglótica estudados em cães demonstraram ser efetivos no desenvolvimento de estenose subglótica significativa: ambos métodos estudados ocasionaram estenose no mesmo período de tempo e com mesmo número de aplicações. Entretanto, a eletrocoagulação foi o método de mais rápida execução.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivo - Investigar os efeitos da aplicação endocárdica do laser de hólmio em regiões isquêmicas de pacientes com angina refratária, sobre a classe funcional de angina, a tolerância ao esforço, o duplo produto, a fração de ejeção e o consumo de antianginosos. Métodos - Treze pacientes (66.10 ±12 anos) não elegíveis para angioplastia ou cirurgia, com angina refratária classe III-IV e fração de ejeção de 43,4±7,8% foram submetidos a 30-40 perfurações endocárdicas de 5 mm de profundidade com o laser de hólmio, aplicado pela via percutânea a regiões isquêmicas determinadas pela prova do Tálio 201. Cinco variáveis clínicas foram avaliadas aos 3, 6 e 12 meses. A significância estatística aos 3, 6 e 12 meses foi avaliada pelo ANOVA e pelo método proposto por Bonferroni. Resultados - Todos os procedimentos tiveram sucesso. A classe funcional de angina de base, aos 3, 6 e 12 meses era respectivamente: 3,5±0,5; 2,2±0,4; 1,7±0,5; 2,0±0,7 (P<0,001); a prova submáxima de Naughton (segundos) 374±133 (base); 518±121 (6 meses) [P=0,05]; 428±132 (12 meses) [P=0,029]; os antianginosos (mg/dia) 204,8±72,5; 204,8±72,5; 137,9±66,1; 121,7±32,7[P= 0,01]; a fração de ejeção (%) 43,4±7,8 (base); 49,0±6,9 (6 meses) [0,081] e o duplo produto (x 1000) 16,2±3,4 (base); 17,8±4,4 (6 meses); 17,5±4,4 (12 meses) [P=0,253]. Conclusão - Os dados sugerem que, no grupo estudado, a aplicação percutânea do laser de hólmio em regiões isquêmicas melhora de forma significativa a classe funcional de angina e a tolerância ao esforço, apesar da redução da medicação antianginosa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho trata da importância do modelamento da dinâmica do livro de ordens visando a compreensão dessa microestrutura de mercado. Para tanto, objetiva aplicar as técnicas de modelamento do livro de ofertas utilizando o modelo estocástico proposto por Cont, Stoikov e Talreja (2010) ao mercado acionário brasileiro. Uma vez aplicado o modelo, analisamos os resultados obtidos sob a ótica de outros estudos empíricos, como Bouchaud et al. (2002). Após a estimação e análise dos resultados foram realizadas simulações para constatar se os parâmetros encontrados refletem a dinâmica do mercado local, para diferentes cenários de normalização do tamanho das ordens. Por fim, com a análise dos resultados encontrados, foi possível concluir, com algumas ressalvas, que o modelo proposto é válido para o mercado de ações brasileiro, assim como é apresentado o impacto da liquidez dos ativos na comparação aos parâmetros encontrados em outros mercados internacionais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo objetivou dimensionar o valor estratégico dos Serious Games e da Gamificação como alternativas pedagógicas em favor do aprendizado sobre Gestão Pública. De cunho exploratório e descritivo, o estudo, visa fornecer algum conhecimento sobre ferramentas alternativas de apoio ao ensino da Gestão Pública, tomando o papel dos jogos digitais como instrumentos contributivos aos educadores. A metodologia aplicada é fenomenológica, pois buscou extrair significados por intermédio dos sujeitos, a fim de obter uma maior compreensão do fenômeno de aprendizagem baseada em jogos digitais. A investigação foi conduzida por pesquisas bibliográficas e de campo, na qual a coleta de dados foi obtida por meio de entrevistas por pautas. Ao todo, a amostra contemplou 18 sujeitos envolvidos com games em educação, baseando-se em três critérios: pesquisa, desenvolvimento e aplicação. Foram analisados artigos e publicações de autores brasileiros, constatando-se a baixa produção sobre o tema, principalmente, de cunho qualitativo sobre ao assunto. Além disso, observou-se uma presença de livros e publicações em língua inglesa muito superior às produções nacionais, por essa razão, a pesquisa buscou ampliar a discussão sobre o tema. Como resultados das entrevistas, foram destacados benefícios cognitivos, pedagógicos, interacionais com base nas teorias interacionistas de Vygotsky e Piaget, nas quais os jogos digitais formam espaços de aprendizagem e interação, cabendo, contudo, aos educadores, a escolha de empregá-los ou não em salas de aula. Os resultados também revelam alguns problemas de implementação, tais como: (1) falta de investimentos em treinamento dos professores, (2) falta de infraestrutura nas instituições de ensino, (3) integração curricular, (4) acesso à infraestrutura/tecnologia em comunidades ribeirinhas fora dos grandes centros urbanos, (5) adequação ao público-alvo, pois nem todos os estudantes se interessam por jogos eletrônicos. Ao final, iniciativas do MEC têm propiciado a busca de novas ferramentas e tecnologias que venham a incrementar as práticas pedagógicas, e nesse sentido, os jogos digitais adequam-se a esta realidade exigida, pois trazem consigo novas reflexões acerca do ensino, do papel dos professores, e de novas possibilidades no ensino de Gestão Pública. O valor estratégico dos games revela-se como uma ferramenta pedagógica propiciadora de espaços de aprendizado alicerçados em: interatividade, imersão e interconectividade, responsáveis por tornarem os aluno sujeitos ativos no processo educacional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Projetos de automação industrial são avaliados financeiramente através dos métodos bastante utilizados de Valor Presente Líquido (VPL) e Taxa Interna de Retorno (TIR). Estudos recentes mostram uma tendência para a utilização de outros métodos para realizar esta avaliação. Este trabalho explora o método alternativo de Opções Reais para avaliação desses projetos que busca se aproximar mais do mundo real considerando maior incerteza e flexibilidade do que o VPL. Inicialmente será feita uma revisão de literatura focando o método binomial dentro de Opções Reais. A metodologia proposta é um estudo de caso de um projeto no mercado de cerveja no Brasil, utilizando como fonte uma empresa multinacional de grande porte fornecedora desse projeto. Posteriormente será feita uma análise financeira primeiramente utilizando somente o VPL e posteriormente incorporando o método binomial de Opções Reais, resultando no VPL estendido. O objetivo é precificar a flexibilidade das Opções Reais presentes no contrato de fornecimento do projeto em estudo que normalmente não são consideradas. Com isso pretende-se verificar se o método binomial de Opções Reais faz real diferença no projeto em estudo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na análise funcional de imagens do cérebro podem utilizar-se diferentes métodos na identificação de zonas de activação. Tem havido uma evolução desde o método de correlação [19], para outros métodos [9] [14] até o método baseado no modelo linear generalizado que é mais comum ser utilizado hoje e que levou ao pacote de software SPM [15]. Deve-se principalmente à versatilidade que o método tem em realizar testes com diferentes objectivos. Têm sido publicados alguns estudos comparativos. Poucos têm sido quantitativos [20] e quando o são, o número de métodos testados é reduzido[22]. Há muitos estudos comparativos do ponto de vista da estatística envolvida (da matemática) mas que têm em geral apenas ns académicos. Um objectivo deste estudo é comparar os resultados obtidos por diferentes métodos. É de particular interesse averiguar o comportamento de cada método na fronteira do local de activação. As diferenças serão avaliadas numericamente para os seguintes métodos clássicos: t de Student, coeficiente de correlação e o modelo linear generalizado. Três novos métodos são também propostos - o método de picos de Fourier, o método de sobreposição e o método de amplitude. O segundo pode ser aplicado para o melhoramento dos métodos de t de Student, coe ciente de correlação e modelo linear generalizado. Ele pode no entanto, também manter-se como um método de análise independente. A influência exercida em cada método pelos parâmetros pertinentes é também medida. É adoptado um conjunto de dados clínicos que está amplamente estudado e documentado. Desta forma elimina-se a possibilidade dos resultados obtidos serem interpretados como sendo específicos do caso em estudo. Há situações em que a influência do método utilizado na identificação das áreas de activação de imagens funcionais do cérebro é crucial. Tal acontece, por exemplo, quando um tumor desenvolve-se perto de uma zona de activação responsável por uma função importante . Para o cirurgião tornase indispensável avaliar se existe alguma sobreposição. A escolha de um dos métodos disponíveis poderá ter infuência sobre a decisão final. Se o método escolhido for mais conservador, pode verificar-se sobreposição e eliminar-se a possibilidade de cirurgia. Porém, se o método for mais restritivo a decisão final pode ser favorável à cirurgia. Artigos recentes têm suportado a ideia de que a ressonância magnética funcional é de facto muito útil no processo de decisão pré-operatório [12].O segundo objectivo do estudo é então avaliar a sobreposição entre um volume de activação e o volume do tumor. Os programas informáticos de análise funcional disponíveis são variados em vários aspectos: na plataforma em que funcionam (macintosh, linux, windows ou outras), na linguagem em que foram desenvolvidos (e.g. c+motif, c+matlab, matlab, etc.) no tratamento inicial dos dados (antes da aplicação do método de análise), no formato das imagens e no(s) método(s) de análise escolhido(s). Este facto di culta qualquer tentativa de comparação. À partida esta poderá apenas ser qualitativa. Uma comparação quantitativa implicaria a necessidade de ocorrerem três factos: o utilizador tem acesso ao código do programa, sabe programar nas diferentes linguagens e tem licença de utilização de software comercial (e.g. matlab). Sendo assim foi decidido adoptar uma estratégia unificadora. Ou seja, criar um novo programa desenvolvido numa linguagem independente da plataforma, que não utilize software comercial e que permita aplicar (e comparar quantitativamente) diferentes métodos de análise funcional. A linguagem escolhida foi o JAVA. O programa desenvolvido no âmbito desta tese chama-se Cérebro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Universidade do Algarve

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os escoamentos no interior de zonas urbanas, apresentam grande heterogeneidade, pelo que a sua caracterização, requer uma formulação que incorpore explicitamente essa variabilidade espacial. A caracterização, simulação (à escala) e modelação do escoamento em canais artificiais e a aplicação a um caso de estudo, no Laboratório de Hidráulica da UMa, representa o cerne desta dissertação. Os objetivos principais desta dissertação são: a caracterização e desenvolvimento de ferramentas de simulação do comportamento do escoamento em canais artificiais, no caso de uma variação súbita dos caudais afluentes, mecanismos de prevenção de cheia; o desenvolvimento de um modelo de simulação hidrodinâmico, considerando os escoamentos variáveis em superfície livre no caso de situações de cheia, na simulação entre as condições variáveis das afluências, das condições hidromorfológicas do canal e da instalação e operação dos sistemas e regulação dos escoamentos; e ainda a análise da viabilidade da simulação (modelo) na gestão e prevenção de cheias em canais artificiais. Numa primeira instância, procede-se à recolha de toda a informação bibliográfica disponível. Com recurso aos modelos digitais do terreno e ao programa ArcGis, é efetuada toda uma exaustiva caracterização da bacia hidrográfica, relativa ao caso de estudo (canal artificial), a partir da qual foi possível obter os dados inerentes às características geométricas, características de relevo e características de drenagem. Segue-se a análise da precipitação com recurso a folhas de cálculo e dados fornecidos pelas instituições pertinentes, de forma a obter valores de precipitação média diária e anual para aplicação de fórmulas, tanto para calcular valores de tempo de concentração, bem como caudais. O próximo passo é selecionar os troços relevantes do canal em estudo e com recurso ao equipamento disponível no Laboratório de Hidráulica da UMa, à folha de cálculo programada e ao programa HEC-RAS procede-se à simulação/modelação/análise desses troços, comparando o resultado/comportamento simulado, com o expectável e entre os vários métodos. Por fim, são expostas as conclusões, bem como algumas considerações finais e uma listagem de objetivos a manter ou alcançar nos próximos anos, onde se incluem, ações prioritárias e recomendações visando, não só melhorar o processo de caracterização do escoamento em canais artificiais, bem como simplificar a prevenção e gestão de cheias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A grande maioria das estruturas existentes atualmente contém aço na sua constituição, seja na forma de aço estrutural, seja na forma de armaduras de betão armado. A deterioração precoce do aço destas estruturas é um fenómeno muito comum e que tem acarretado grandes custos em reabilitações e reparações. O principal fator para essa deterioração precoce é o contacto de agentes agressivos, como os cloretos, com o aço que originam a sua corrosão. Na Ilha da Madeira alguns desses agentes agressivos estão presentes em grandes quantidades, promovendo a súbita corrosão do aço, fazendo com que os custos de manutenção sejam elevados. Uma das formas de evitar a corrosão do aço é através da utilização do aço inoxidável reduzindo assim os custos com manutenções ao longo da sua vida útil. Nesta dissertação pretende-se avaliar se a utilização do aço inoxidável em vez do aço carbono na Ilha da Madeira é economicamente mais vantajosa a longo prazo. Para esse fim foram elaboradas diversas tarefas. Numa fase inicial foi realizada uma análise comparativa entre o aço carbono e o aço inoxidável em termos de propriedades gerais, comportamento mecânico e regulamentação, mas também uma pesquisa sobre as aplicações e os tipos de aço inoxidável. Numa fase seguinte foram abordados mecanismos de degradação e métodos de reparação para a corrosão. Para além disso, foram determinados os tempos de vida útil de projeto, através de modelos de degradação, e estimados cenários de degradação e manutenção. Posteriormente foram dimensionados dois tipos de estruturas (betão armado e estrutura metálica) e para dois tipos de aço (aço carbono e aço inoxidável) por forma a determinar o peso dos materiais das estruturas para apurar o seu custo. Em seguida foram realizadas as análises económicas das estruturas mencionadas anteriormente face aos cenários de manutenção anteriormente realizados. As análises recaíram sobre os custos inicias das estruturas e os custos a longo prazo, para um período de vida útil de 50 anos. Em função da análise realizada pode concluir-se que na Ilha da Madeira a utilização do aço inoxidável nas estruturas metálicas, por enquanto, não é vantajosa em termos económicos. Para as estruturas de betão armado, verificou-se também que na maioria dos casos a utilização do aço carbono é a melhor opção económica a longo prazo, exceto nas estruturas perto do mar com cimentos do tipo CEM I ou CEM II/A, em que o aço inoxidável é a melhor opção, pois embora este apresente um custo inicial superior ao do aço carbono, o seu custo total a longo prazo incluindo as reparações é inferior.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior