102 resultados para Conformação de alta energia


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Controvérsias existem sobre os benefícios da hemodiálise de alto fluxo e alta eficiência em relação a hemodiálise convencional. Este estudo compara, através de parâmetros clínicos, laboratoriais, avaliação do sistema nervoso periférico e autônomo, os pacientes em hemodiálise convencional(HDC) e, após, em hemodiálise de alto fluxo e alta eficiência(HDAF), usando os mesmos parâmetros da cinética da uréia, por um período de tempo de 4-8 meses em cada modalidade de tratamento hemodialitico. O sistema nervoso periférico foi avaliado através da miografia e da neurografia de membros superiores e inferiores. O estudo da variabilidade da freqüência cardíaca, através de seis índices no domínio do tempo, foi usado para avaliar o sistema nervoso autônomo nestes pacientes. Não houve diferença quanto às manifestações intradialíticas nos dois tipos de hemodiálise e nem alteração dos níveis tensionais no período de acompanhamento. Na avaliação laboratorial, verificou-se diferença estatisticamente significativa entre a HDC e HDAF nos seguintes parâmetros: creatinina(9,6mg/dl±2,3x10,9mg/dl±2,0;p<0,01),reserva alcalina (16,5mEq/l±2,5x18,2mEq/l±2,7; p<0,05), ácido úrico(6,3mg/dl±1,3x7,1mg/dl±1,64;p<0,01), fósforo(6,4mg/dl±1,3x7,2mg/dl ±1,4;p<0,01) e albumina(4,1mg/ml±0,5x3,8mg/ml±0,27;p<0,01). Observou-se melhora significativa da velocidade de condução sensitiva do nervo ulnar na HDAF(40,72m/s±5,11x48,01m/s±7,7;p<0,05). Houve redução significativa da variabilidade da freqüência cardíaca nos pacientes urêmicos em hemodiálise, comparativamente ao grupo de indivíduos normais. Concluiu-se que não houve diferença significativa nos parâmetros clínicos entre os dois tipos de hemodiálise. Observou-se redução significativa da albumina na HDAF, bem como aumento significativo da creatinina, reserva alcalina, fósforo e ácido úrico. Houve melhora significativa da velocidade de condução sensitiva do nervo ulnar nos pacientes em HDAF. Os pacientes em hemodiálise apresentam deterioração significativa do Sistema Nervoso Autônomo comparativamente ao grupo controle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho visa a disponibilização de um ambiente de alto desempenho, do tipo cluster de computadores, com alta exatidão, obtida através da utilização da biblioteca C–XSC. A alta exatidão na solução de um problema é obtida através da realização de cálculos intermediários sem arredondamentos como se fossem em precisão infinita. Ao final do cálculo, o resultado deve ser representado na máquina. O resultado exato real e o resultado representado diferem apenas por um único arredondamento. Esses cálculos em alta exatidão devem estar disponíveis para algumas operações aritméticas básicas, em especial as que possibilitam a realização de somatório e de produto escalar. Com isso, deseja-se utilizar o alto desempenho através de um ambiente de cluster onde se tem vários nodos executando tarefas ou cálculos. A comunicação será realizada por troca de mensagens usando a biblioteca de comunicação MPI. Para se obter a alta exatidão neste tipo de ambiente, extensões ou adaptações nos programas paralelos tiveram que ser disponibilizadas para garantir que a qualidade do resultado final realizado em um cluster, onde vários nodos colaboram para o resultado final do cálculo, mantivesse a mesma qualidade do resultado que é obtido em uma única máquina (ou nodo) de um ambiente de alta exatidão. Para validar o ambiente proposto foram realizados testes básicos abordando o cálculo do produto escalar, a multiplicação entre matrizes, a implementação de solvers intervalares para matrizes densas e bandas e a implementação de alguns métodos numéricos para a resolução de sistemas de equações lineares com a característica da alta exatidão. Destes testes foram realizadas análises e comparações a respeito do desempenho e da exatidão obtidos com e sem o uso da biblioteca C–XSC, tanto em programas seqüenciais como em programas paralelos. Com a conseqüente implementação dessas rotinas e métodos será aberto um vasto campo de pesquisa no que se refere ao estudo de aplicações reais de grande porte que necessitem durante a sua resolução (ou em parte dela) da realização de operações aritméticas com uma exatidão melhor do que a obtida usualmente pelas ferramentas computacionais tradicionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A energia solar esta sendo cada vez mais utilizada para o aquecimento de água, tanto para o uso industrial, comercial e residencial, apresentando, esta última, um crescimento muito expressivo nos últimos anos, devido às ações de marketing de algumas empresas do setor. Para manter a temperatura da água do reservatório nas condições estabelecidas para o uso é necessário à utilização de uma fonte de energia auxiliar. As duas fontes de energia auxiliar mais empregadas nos sistemas de aquecimento de água por energia solar são a eletricidade e o gás. A escolha do gás como fonte auxiliar de energia, apesar de apresentar um investimento inicial superior ao da energia elétrica, representa um menor custo operacional em longo prazo. Na presente dissertação foram realizadas simulações computacionais para a cidade de Porto Alegre - RS, através do aplicativo TERMOSIM, com a finalidade de analisar o comportamento energético de um sistema de aquecimento de água por energia solar, por circulação natural (termossifão), utilizando como fonte de energia auxiliar o gás. Esta análise foi desenvolvida com a variação de parâmetros construtivos, de parâmetros de utilização e dos parâmetros de qualidade dos materiais e, ainda, com a caracterização dos componentes da instalação. Para a execução do trabalho foram realizadas 3456 simulações. Considerando os resultados obtidos foram elaboradas tabelas e gráficos, por meio dos quais verificou-se a influência do número de coletores, do volume do reservatório, da altura do termostato, da razão de aspecto do reservatório, do consumo de água quente e da qualidade dos coletores sobre a eficiência do sistema. O aplicativo demonstrou coerência nos resultados gerados, motivo pelo qual foi possível identificar, por meio da análise dos mesmos, quais os parâmetros que exercem maior influência no desempenho do sistema de aquecimento de água. Combinando os resultados, foi desenvolvida uma equação para estimar a eficiência média mensal do sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação dedeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador dedeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador dedeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em plantas de polimerização, uma das principais propriedades relacionadas à qualidade do produto é o índice de fluidez, ou MI. Esta propriedade é geralmente medida em laboratório, em intervalos de algumas horas. Por outro lado, as variáveis de processo estão disponíveis continuamente e são controladas com o objetivo de atingir as propriedades desejadas do produto. O desenvolvimento de um analisador virtual, que permita a estimação do MI de forma contínua, com base nestas variáveis medidas, pode levar a um melhor controle da qualidade do produto final. Este trabalho desenvolve um analisador virtual de MI para uma planta de polietileno de alta densidade (PEAD). Existem vários tipos de modelos que podem ser utilizados na implementação de um analisador virtual, assim como várias formas de correção on-line das suas estimativas. Este trabalho direciona especial atenção aos modelos semi-empíricos, e ao uso de um filtro de Kalman estendido (EKF) na correção das estimativas e dos parâmetros do modelo. O objeto de estudo desse trabalho foi um conjunto de produtos, cuja produção é realizada em dois reatores em série. Foram usados 21 conjuntos de dados representando diferentes períodos de operação da planta. Estes conjuntos de dados continham as principais variáveis de planta e os resultados de MI medidos em laboratório. A partir destes dados, foram estimados os parâmetros do modelo para cada reator. Também foi proposta e testada uma metodologia para a sintonia dos parâmetros do EKF. De posse dos modelos, do filtro e de seus respectivos parâmetros, foram gerados os resultados do analisador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A qualidade SAE 1141 alia boas conformabilidade e usinabilidade em um mesmo aço – esta qualidade possui adição de teores de enxofre da ordem de 0,08 – 0,13% em peso. É largamente empregada no segmento de forjarias na confecção de componentes com relativa complexidade e exigência mecânica, tais como garfos e ponteiras para a indústria automotiva. Devido a esse fato, é imprescindível que a matéria-prima para a conformação destes componentes atenda às exigências impostas pelos esforços aplicados aos mesmos e, dado às solicitações que sofrem, apresente um desempenho satisfatório em sua forma final, principalmente no tocante à sanidade interna, visto que defeitos dessa natureza são extremamente deletérios à performance dos componentes conformados. Em função disso, o principal objetivo desta investigação é avaliar as causas potencialmente geradoras de defeitos denominados trincas internas centrais, as quais afetam fortemente a sanidade interna da matéria-prima, além de reduzir a sua incidência em barras de aço da qualidade SAE 1141. Para tanto, são apresentadas considerações sobre a avaliação destes defeitos, analisando-se as possíveis causas geradoras das trincas, as quais são caracterizadas sob o enfoque de bibliografia adequada. Através da realização de ensaios no lingotamento contínuo (LC) envolvendo a utilização do agitador eletromagnético final (FEMS), elaboração de curvas de ductilidade pelo emprego do simulador físico Gleeble para os materiais nas condições tarugo e barra laminada, experiências na laminação envolvendo análises de amostras após cada diferente grau de redução ou passe conferido ao material pelo processo e variação das taxas de resfriamento pós-processamento, busca-se reduzir as ocorrências destes defeitos, diminuindo conseqüentemente sucateamento e custos e melhorando o desempenho do material frente às expectativas dos componentes em serviço. A metodologia empregada para a detecção dos defeitos nas barras laminadas foi a submissão das mesmas ao ultra-som. Várias amostras tiveram os seus defeitos detectados através desse ensaio, os quais foram analisados e caracterizados previamente ao início da investigação das causas geradoras, balizando assim a tomada de decisão em relação aos experimentos a serem realizados. Os dados práticos foram obtidos na Gerdau Aços Especiais Piratini, onde a análise de defeitos internos gerados a partir do processo produtivo é um procedimento rotineiro. A interpretação dos resultados, bem como testes laboratoriais adicionais foram realizados na própria usina e no IAS – Instituto Argentino de Siderurgia. Em paralelo, realizou-se uma revisão na literatura aberta dos principais fundamentos e conceitos metalúrgicos referentes a trincas internas e causas de geração das mesmas, tais como, influência do FEMS na solidificação e na condição de segregação nos tarugos de LC, elementos de liga com caráter fragilizante e/ou deletério (por exemplo, hidrogênio, carbono, enxofre e manganês), influência das transformações de fase – velocidade de resfriamento pós-processamento e influência dos elementos de liga – na formação dos defeitos, entre outros. Os resultados obtidos permitiram concluir que a principal causa da geração das trincas internas do tipo centrais em barras laminadas está associada a uma combinação de variáveis. As transformações de fase, somadas a presença de altos teores de hidrogênio no aço – fato este de grande importância na geração dos defeitos detectado somente ao longo da realização do trabalho – fragilizam localmente o núcleo das barras, gerando trincas. Estas, por sua vez, têm a sua propagação facilitada através de cadeias ou redes de sulfeto de manganês, por vezes devido à alta incidência das mesmas nos aços da qualidade SAE 1141. Além disso, pode-se constatar que a geração dos defeitos é potencializada para barras de diâmetros superiores a 75,00 mm. Em barras de diâmetros menores, as falhas estão igualmente presentes e apresentam morfologia similar aos defeitos encontrados nas barras de maior diâmetro, porém, em escala não significativa, não sendo assim abordadas neste trabalho. Pode-se constatar ainda, que a redução da incidência dos defeitos do tipo trincas internas centrais em barras laminadas de diâmetros superiores a 75,00 mm – e conseqüente sucateamento – foi da ordem de mais de 95% desde o início do trabalho, reduzindo-se assim o sucateamento desta qualidade para níveis da ordem de, aproximadamente, 1,0%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação de mestrado considera a transferência de calor combinando convecção e radiação térmica no escoamento de gases participantes em dutos de seção circular. Partindo de uma metodologia geral, o trabalho enfoca principalmente os casos típicos de aplicação em geradores de vapor fumotubulares de pequeno e médio porte, em que gases em alta temperatura escoam através de um tubo mantido em temperatura uniforme. O escoamento é turbulento e o perfil de velocidade é plenamente desenvolvido desde a entrada do duto. A temperatura do gás, contudo, é uniforme na entrada, considerando-se a região de desenvolvimento térmico. Duas misturas de gases são tratadas, ambas constituídas por dióxido de carbono, vapor d’água e nitrogênio, correspondendo a produtos típicos da combustão estequiométrica de óleo combustível e metano. As propriedades físicas dos gases são admitidas uniformes em todo o duto e calculadas na temperatura de mistura média, enquanto que as propriedades radiantes são modeladas pela soma-ponderada-de-gases-cinzas. O campo de temperatura do gás é obtido a partir da solução da equação bidimensional da conservação da energia, sendo os termos advectivos discretizados através do método de volumes de controle com a função de interpolação Flux-Spline; as trocas de energia radiantes são avaliadas por meio do método das zonas, onde cada zona de radiação corresponde a um volume de controle. Em um primeiro passo, a metodologia é verificada pela comparação com resultados apresentados na literatura para a transferência de calor envolvendo apenas convecção e combinando convecção com radiação. Em seguida, discutem-se alguns efeitos da inclusão da radiação térmica, por exemplo, no número de Nusselt convectivo e na temperatura de mistura do gás. Finalmente, são propostas correlações para o número de Nusselt total, que leva em conta tanto a radiação quanto a convecção. Essa etapa exige inicialmente uma análise dos grupos adimensionais que governam o processo radiante para redução do número elevado de parâmetros independentes. As correlações, aplicáveis a situações encontradas em geradores de vapor fumotubulares de pequeno e médio porte, são validadas estatisticamente pela comparação com os resultados obtidos pela solução numérica.