924 resultados para Tolerância ao calor


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A corrosão da annadura é um dos principais problemas para um grande número de es1ruturas de concreto annado por causa da redução substancial da área de aço, da perda de aderência, da fonnação de fissuras e lascamento do concreto. O modelo tridimensional proposto por este trabalho é baseado no processo de corrosão iniciado por ataque de cloretos e propagado a partir de micropilhas de corrosão, utilizando o método dos elementos finitos. A influência da temperatura, da umidade relativa do concreto, da ligação dos cloretos com compostos do concreto, da fonnação de fissuras provenientes do carregamento e da resistência ôhmica do concreto são levados em consideração. O modelo é dividido em 4 módulos que interagem entre si, sendo eles: análise estrutural, transferência de calor, difusão de cloretos e corrosão eletroquímica. O modelo computacional para a análise estrutural utiliza dois procedimentos. No primeiro busca-se a resposta da estrutura para um carregamento instantâneo, considerando-se o material com comportamento elasto-viscoplástico, associado com modelos de annadura incorporada e fissuras distribuídas.No segundo, detennina-se a resposta da estrutura ao longo do tempo com a teoria da solidificação proposta por Bazant e Prasannan (1989), utilizando as cadeias Kelvin, apresentando ótimos resultados com uma grande economia computacional. O processo de transferência de calor é baseado na fonnulação tridimensional da equação de Helmholtz, com condições de contorno de fluxos provenientes da radiação solar, convecção e radiação, apresentando bons resultados em relação a fonnulações analíticas. Para análise de vigas com a variação da temperatura média diária, constatou-se que as mesmas se encontram em equilíbrio ténnico com o ambiente A análise de difusão de cloretos implementada apresentou um comportamento idêntico ao da segunda lei de Fick para casos unidimensionais. Para análises de vigas carregadas se constatou que as fissuras provenientes de cargas de serviço não influenciam o processo de difusão e que o coeficiente de difusão referencial é o principal parâmetro na análise. O modelo de corrosão eletroquímica é baseado na fonnulação proposta por Liu (1996), obtendo-se como resultado a taxa de corrosão em função do tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o Pó de Aciaria Elétrica (PAE) é um resíduo gerado em indústrias siderúrgicas que utilizam o Forno Elétrico a Arco (FEA) e a sucata como principal matéria-prima para a produção do aço. O PAE é composto por diferentes óxidos metálicos, entre eles o Zn, Cr, Pb e Cd. Devido às concentrações de Pb e Cdultrapassarem as pennitidas pela NBR 10004(1987), no ensaio de lixiviação, o PAE é classificado como resíduo perigoso Classe I. Este trabalho tem como objetivo o estudo da influência do PAEno desempenhomecânico e durabilidade de blocos de concreto para pavimentação. O programa experimental foi desenvolvido em duas etapas: a primeira. na qual foi fixada a relação água/cimento e a segunda, na qual foi fixado o índice de umidade, fator este relacionado com a capacidade de moldar os corpos-de-prova. Em ambas as etapas, o teor de adição do PAE empregado foi de 5%, 15% e 25% em relação à massa de cimento. Também foram moldados corpos-de-prova sem adição do resíduo (0%), utilizados como referência. Como ensaios complementares, foram detenninados o calor de hidratação, assim como a caracterização mineralógica e microestrutural de pastas de cimento com teores do PAE. Verificou-se que, nas duas etapas, os blocos contendo 15% de adição do PAE obtiveram melhor desempenho quanto à resistência à compressão axial. Para os ensaios de durabilidade, os blocos com o PAE mostraram-se com desempenho igual ou superior aos blocos que não o possuíam O PAE utilizado nos blocos de concreto, bem como em pastas de cimento, retardou os tempos de início e fim de pega. O cimento também pode agir como formador de uma matriz para encapsular os metais pesados contidos no pó de aciaria. Nos ensaios de caracterização ambiental, obselVou-seeste encapsulamento através da análise dos extratos lixiviados e solubilizados, onde as concentrações dos metais pesados, ao longo do tempo, diminuíram. Isto fez com que os blocos, contendo o resíduo em sua composição, fossem classificados neste trabalho como Classe II - não-inerte. Desta forma, a partir de um resíduo perigoso Classe L foi possível desenvolver, através do encapsulamento na matriz cimentante, um produto Classe 11.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de conclusão tem como tema a Qualidade Seis Sigma e a produção de tintas, com foco no parâmetro viscosidade. O objetivo principal é o estudo da variabilidade da viscosidade das tintas, com vistas à diminuição do número de desvios de viscosidade de lotes de produção e, conseqüentemente, do retrabalho e lead-time fabril. Inicialmente, foi realizada uma revisão bibliográfica sobre a metodologia Seis Sigma, suas principais ferramentas, e sobre os processos de produção de tintas, suas fontes de variabilidade e possibilidadesde melhoria.Na seqüência, foi conduzido o estudo de caso, realizado em uma tradicional fábrica de tintas da grande Porto Alegre. O estudo seguiu as etapas da metodologiaSeis Sigma:definição,mensuração,análise,aprimoramentoe controle. Dos lotes de tinta analisados, 78,5% necessitaram de algum tipo de ajuste de viscosidade.A viscosidadedas tintas, após a etapade completagem,foi, em média, 5,3 vezes maior que a semi-amplitude da tolerância. O tempo médio de ajuste de viscosidade foi de 20 minutos, o dobro do tempo gasto caso fosse feita somente a medição da viscosidade. Analisando-se a viscosidade em segundos, a diferença entre a medição já com o solvente previsto, e a medição logo após a completagem, foi, em média, de 28 segundos. A etapa de acertos de cor e brilho proporciona um aumento médio na viscosidade de cerca de 6 segundos Observou-se que os processos de fabricação não eram estáveis e nem capazes de atender as especificações, sem a etapa de ajustes, sendo o pior processo o em moinho pequeno (l,5P), e o melhor, em processo mistura. O sistema de medição contribuía para a variabilidade da viscosidade e foi melhorado. Outros fatores influentes na variabilidade da viscosidade foram: o fluxo de moagem, a sistemática de lavagem dos moinhos e a instabilidade (aumento) da viscosidade com o tempo. Como etapa final, foram sugeridas melhorias para o processo, na forma de um plano de ação, contemplando todos os fatores de variação identificados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho pretende, na visão de novas tecnologias, discutir o processo de forjamento das ligas de alumínio (ABNT 6061), buscando propor uma metodologia baseada na ciência da engenharia. Deseja-se minimizar os procedimentos de tentativa e erro no desenvolvimento de processos de conformação. Para tanto, novas tecnologias disponíveis atualmente, tais como o Projeto Assistido por Computador (CAD), a Fabricação Assistida por Computador (CAM) e a Simulação do Processo (CAE) são empregadas. Resultados experimentais mostrando o comportamento da liga ABNT 6061 através das curvas de escoamento bem como o estabelecimento da condição do atrito no processo de conformação, avaliando dois lubrificantes comerciais disponíveis (Deltaforge 31 e Oildag) para aplicações nas ligas de alumínio, são reportados neste trabalho. A comparação dos resultados obtidos de um experimento prático de forjamento com a simulação pelo "Método dos Elementos Finitos" usando o código "QForm" é apresentada para uma peça de simetria axial em liga de alumínio. Finalmente, os resultados obtidos no forjamento de um componente automotivo em liga de alumínio (ABNT 6061), desenvolvido em parceria com a empresa Dana, são analisados e comparados com as simulações computacionais realizadas usando o código "Superforge".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bancos de tubos ou de barras são encontrados nas indústrias nucleares e de processos, constituindo-se nos dispositivos mais comumente utilizados no desenvolvimento de trocadores de calor. O procedimento usual na análise de bancos de tubos considera o escoamento incidindo uniformemente no banco ao longo de toda a extensão dos tubos. Em aplicações reais de trocadores de calor este fato não é observado, pois o escoamento não é uniforme devido a presença de defletores e condições de entrada e saída. A proposta deste trabalho é apresentar um estudo experimental das flutuações de pressão e velocidade e sua interdependência do escoamento turbulento incidindo em arranjos de cilindros inclinados, com diferentes ângulos de incidência (30º, 45º, 60º e 90º) simulando bancos de tubos inclinados com arranjo quadrangular e razão de espaçamento P/D=1,26. A seção de testes é um canal retangular com 146 mm de altura e largura de 193 mm. O fluido de trabalho é o ar, impulsionado por um ventilador centrífugo, passando por uma câmara de tranquilização e um conjunto de grades e telas, que tem a finalidade de uniformizar o escoamento e reduzir a intensidade de turbulência para a ordem de 2%, antes de alcançar a seção onde são realizadas as medições. Medições da distribuição de pressão na parede e flutuações de velocidade e pressão em torno de um dos tubos no interior dos bancos foram realizadas para diferentes ângulos de incidência, utilizando a técnica de anemometria de fio quente e um transdutor de pressão. Os resultados experimentais são apresentados na forma adimensional A distribuição média de pressão em uma das paredes laterais do canal, com a presença do banco de tubos, mostrou que as linhas isobáricas não são paralelas ao eixo dos tubos, indicando que o gradiente de pressão não é perpendicular aos tubos, nem paralelo a direção principal do escoamento. As médias quadráticas das flutuações de pressão indicam uma distribuição mais uniforme das cargas dinâmicas em torno dos tubos do bancos com inclinações de 30º e 90º. A análise dos resultados dos espectros das flutuações de pressão mostra que conforme o ângulo de incidência do escoamento aumenta, picos aparecem para freqüência adimensionais cada vez menores. O comportamento dos espectros de flutuação de velocidade mostram um decaimento suave das curvas quando o ângulo de incidência do escoamento aumenta. A correlação cruzada entre as flutuações de velocidade e pressão indicam que, quando o ângulo de incidência do escoamento diminui, importantes efeitos tridimensionais aparecem. Esses efeitos, caracterizados pelas oscilações na correlação cruzada para o ângulo de incidência de 45º, parecem desaparecer se o ângulo de incidência continua-se a ser reduzido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma comparação entre resultados computacionais, obtidos através do "software" EnergyPlus e experimentais do comportamento térmico de um ambiente condicionado e não condicionado. Para tanto, monitoraram-se os dados climáticos de radiação, velocidade do vento e temperatura, no período de 11 a 20 de janeiro de 2002 e produziu-se um arquivo climático. Simultaneamente, fez-se a aquisição das temperaturas de uma sala-teste, localizada no terceiro pavimento de um prédio na cidade de Porto Alegre, bem como das salas adjacentes. As temperaturas do ar de insuflamento e de retorno dos condicionadores de ar, localizados na sala-teste, foram medidas durante o dia, em seis dias do período de monitoramento. Mediu-se também a velocidade do ar de retorno e determinou-se a potência sensível de refrigeração. Os ganhos de calor interno da sala também foram medidos e utilizaramse as formulações apresentadas pela ASHRAE, 2001, para determiná-los em relação às pessoas e à infiltração. Tais dados foram declarados ao programa como variáveis de entrada. As simulações do comportamento térmico da sala-teste foram implementadas informando-se ao programa a temperatura das salas ou os coeficientes de uma equação representativa das mesmas. Por considerar que a primeira representava melhor as condições térmicas das salas contíguas, utilizou-se esta modalidade para análise As simulações foram conduzidas, alterando-se opções fornecidas pelo programa: modelo de céu isotrópico e anisotrópico, coeficiente de convecção simples e detalhado. Os resultados da carga térmica e temperatura ambiente da sala-teste obtidos nas simulações foram comparados com os dados experimentais do período de monitoramento. A melhor concordância foi obtida para o modelo anisotrópico, coeficiente de convecção detalhado. Constatou-se uma grande discrepância entre as cargas térmicas, para o modelo de convecção simples. Assim, conclui-se que o "software" EnergyPlus representa bem o comportamento térmico de uma edificação "termicamente pesada" para coeficiente de convecção detalhado, necessitando pesquisa para as demais edificações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo foi desenvolvido dentro do projeto de pesquisa “Micrometeorologia da Mata Atlântica alagoana (MICROMA)” do Departamento de Meteorologia da Universidade Federal de Alagoas, que busca avaliar modificações no sistema solo-planta-atmosfera provocadas pela substituição da Mata Atlântica pela cultura da cana-de-açúcar, na Zona da Mata alagoana. O objetivo principal do presente estudo foi o ajuste do modelo de Penman-Monteith para o cálculo da evapotranspiração da cultura da cana-de-açúcar, na zona canavieira de Alagoas, a partir de determinações micrometeorológicas pelo método do balanço de energia, em diferentes estádios de desenvolvimento da cultura e em diferentes condições de demanda evaporativa atmosférica. A evapotranspiração foi estimada pelo método de Penman-Monteith e comparada com valores calculados através do balanço de energia, pela razão de Bowen, considerando este como método padrão. Medições micrometeorológicas foram feitas nos anos agrícolas de 1997/98 e 1998/99, em um área de 12,5ha de cultivo contínuo de cana-deaçúcar, cultivar SP 70-1143, sob condições de lavoura comercial, na Fazenda Vila Nova, município de Pilar, Alagoas (9o36´S, 35o53´W, 107m de altitude). Durante o período experimental, foram tomadas amostras quinzenais para determinar altura do dossel, comprimento de colmo, índice de área foliar e acúmulo de matéria seca (este apenas em 1998/99). Os parâmetros aerodinâmicos da cultura zo (comprimento de rugosidade) e d (deslocamento do plano zero) foram determinados a partir de perfis de vento, em condições de atmosfera neutra, e relacionados com a altura do dossel. Foram ajustados modelos para estimar o índice de área foliar e a altura do dossel da cultura em função do comprimento do colmo. O fracionamento do saldo de radiação no chamado “período potencial”, sem deficiência hídrica e com a cultura cobrindo completamente o solo, foi de 78% para o fluxo de calor latente de evaporação, 21% para o fluxo de calor sensível na atmosfera e aproximadamente 0,1% para o luxo de calor no solo. A estimativas pelo método de Penman-Monteith se ajustaram ao valores calculados pelo método do balanço de energia, tanto para médias qüinqüidiais (r = 0,93) como para valores diários (r = 0,91). Assim, dados confiáveis de evapotranspiração da cultura de cana-de-açúcar podem ser obtidos pelo método de Penman-Monteith ajustado neste trabalho, para a zona canavieira de Alagoas, em períodos sem deficiência hídrica e com cobertura completa do solo. O uso deste método apresenta a vantagem prática de requerer apenas dados meteorológicos, medidos em apenas um nível, em estações meteorológicas convencionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho é dedicado ao estudo de métodos de simulação para ciclos de Rankine. O trabalho é iniciado com a modelagem de um ciclo de Rankine simples e segue evoluindo para configurações mais complexas tal como o ciclo de Rankine com reaquecimento e regeneração. São adotadas as considerações mais convencionais da prática de projeto de centrais termelétricas cujos sistema térmicos baseiam-se no ciclo de Rankine, incluindo-se queda de pressão em tubulações do circuito além de outras perdas. Em seguida, são estabelecidas as expressões matemáticas que possibilitam a determinação das propriedades termodinâmicas da água em seus mais diversos estados ao longo do ciclo. Por último, são desenvolvidos métodos de simulação, chamados neste trabalho de Substituição Sucessiva e Bloco Único, que caracterizam-se pela resolução simultânea do conjunto de equações algébricas dos ciclos elaborados. As simulações são efetuadas através de programas escritos na linguagem Fortran. Os métodos de simulação são aplicados para a obtenção dos resultados considerados mais importantes na análise de sistemas térmicos de potência, tais como rendimento térmico do ciclo, título na saída da turbina, vazões mássicas pelo sistema, potência nas bombas e calor trocado no gerador de vapor e no condensador Na maioria das simulações, estes resultados apresentam-se como funções da: (1) potência elétrica requerida, eficiência isentrópica e pressões na turbina; (2) eficiência térmica, pressão e temperatura no gerador de vapor; (3) pressão e grau de subresfriamento do líquido saturado no condensador e (4) eficiência isentrópica das bombas. São obtidos os mesmos resultados para os métodos de simulação utilizados. O método da Substituição Sucessiva apresentou menor tempo computacional, principalmente para configurações de ciclo mais complexas. Uma aplicação alternativa do método de Bloco Único demonstrou ser inconveniente para ciclos de configurações mais complexas devido ao elevado tempo computacional, quando todas as equações de cálculo das propriedades termodinâmicas são incluídas no sistema de equações a ser resolvido. Melhores rendimentos térmicos e título na saída da turbina foram obtidos para configurações de ciclo de Rankine com reaquecimento e regeneração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foi desenvolvida uma câmara de alta pressão com janela de safira para processamento de filmes finos com pulsos de laser de alta potência, num regime de resfriamento ultra-rápido e geometria confinada. As amostras estudadas consistiram de filmes finos de carbono amorfo depositados sobre substratos de cobre. Os processamentos foram realizados com um laser pulsado Nd:YAG com energia de até 500 mJ por pulso, com duração de 8 ns, focalizada numa região de cerca de 1,5mm2, gerando uma região de elevada temperatura na superfície da amostra durante um intervalo de tempo bastante curto, da ordem do tempo de duração do pulso do laser. Para evitar a evaporação do filme de carbono, aplicava-se através da câmara, uma pressão de 0,5 a 1,0 GPa, confinando a amostra e eliminando o efeito da ablação. Este sistema tornou possível produzir taxas de resfriamento extremamente elevadas, com supressão da formação de uma pluma durante a incidência do laser, sendo o calor dissipado rapidamente pelo contato com os substratos de cobre e safira, ambos com elevada condutividade térmica. As amostras processadas foram analisadas por micro-espectroscopia Raman e os resultados revelaram a formação de estruturas com cadeias lineares de carbono, “carbynes”, caracterizadas pela presença de um pico Raman intenso na região de 2150 cm-1. Outro conjunto de picos Raman foi observado em 996 cm-1, 1116 cm-1 e 1498 cm-1 quando o filme fino de carbono amorfo foi processado dentro da câmara, com uma seqüência de mais de três pulsos consecutivos de laser. Várias tentativas foram feitas para investigar a natureza da fase que origina estes picos. Apesar da similaridade com o espectro Raman correspondente ao poliacetileno (CnHn), não foi possível constatar evidências experimentais sobre a presença de hidrogênio nos filmes de carbono processados. Estes picos Raman não foram observados quando o filme de carbono era depositado sobre outros substratos metálicos, a não ser em cobre. O conjunto de resultados experimentais obtidos indica que estes picos estariam relacionados a pequenos aglomerados lineares de átomos de carbono, diluídos numa matriz de átomos de cobre, formados durante os pulsos subseqüentes de laser e retidos durante o resfriamento ultra-rápido da amostra. A comparação dos resultados experimentais com a simulação do espectro Raman para diferentes configurações, permite propor que estes aglomerados seriam pequenas cadeias lineares, com poucos átomos, estabilizadas frente à formação de grafenos pela presença de átomos de cobre em abundância. Foram também realizados processamentos de materiais carbonáceos por pulsos de laser em meios líquidos, através de câmaras especialmente construídas para este fim. Os resultados, em diversos materiais e configurações, mostraram apenas a formação de estruturas grafíticas, sem evidência de outras fases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho trata do desempenho institucional através da comparação das prioridades apontadas pelos administradores públicos e sua adequação às expectativas da população. Avalia ainda a história das localidades e o “associativismo”, aspecto do “capital social” que evidencia a existência de regras de reciprocidade e de sistemas de participação, verificando então as possíveis correlações entre desempenho institucional e grau de associativismo. Em um recorte de doze anos, a partir de 1988, o estudo analisa três municípios do Litoral Norte do Rio Grande do Sul, representativos de realidades intraregionais distintas. Representantes dos executivos e dos legislativos, além das lideranças populares responderam a questões referentes a polarização esquerda-direita e a cultura política, desvendando pensamento e práticas políticas. A análise do desempenho institucional se faz através da comparação entre entrevistas realizadas com estes mesmos representantes, avaliando o quanto às expectativas dos líderes comunitários corresponde à visão das lideranças políticas. O trabalho permite um esboço da realidade sócio-política, do imaginário e da relação que cada comunidade estabelece com as administrações municipais, e, apesar de apresentar apenas parte das inúmeras correlações possíveis entre os diferentes dados coletados, conclui identificando, conforme Putnam (2001), estruturas sociais definidas e distintas entre si quanto ao capital e a tolerância social.