146 resultados para simulação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O hipotireoidismo é uma doença que tem grande impacto sobre o metabolismo basal dos tecidos, reduzindo o consumo de O2 e geração de energia. Por essa razão, a sua relação com a produção de espécies ativas de oxigênio (EAO) é extremamente importante, uma vez que com a diminuição da utilização de O2, possivelmente, ocorra uma redução na geração das EAO. Portanto, trabalhamos com a hipótese de que havendo decréscimo na síntese de radicais livres, o dano oxidativo ficaria menos evidente nos diferentes tecidos de hipotireoideos. Foram utilizados ratos Wistar, pesando cerca de 170 g divididos em dois grupos distintos: hipotireoideos e eutireoideos. O hipotireoidismo foi induzido pelo procedimento cirúrgico denominado de tireoidectomia. Cabe salientar, que os animais eutireoideos foram submetidos somente à simulação da cirurgia (sham operated). Transcorridas quatro semanas da tireoidectomia, os ratos tiveram seu sangue coletado e seus órgãos (coração e fígado) removidos. Foram feitas análises bioquímicas do dano oxidativo através da medida da lipoperoxidação (TBA-RS e Quimiluminescência) e da oxidação das proteínas (dosagem das carbonilas). Medidas de defesas antioxidantes enzimáticas (atividade e concentração das enzimas catalase, superóxido dismutase, glutationa peroxidase e glutationa–S–transferase) e não enzimáticas (através da medida da capacidade antioxidante total -TRAP) também foram realizadas. Os resultados, da quantificação da lipoperoxidação, demonstraram a diminuição das cifras de TBA-RS e Quimiluminescência no sangue e tecido cardíaco dos ratos tireoidectomizados em relação ao grupo eutireoideo. No entanto, no tecido hepático não houve alteração deste parâmetro. A oxidação das proteínas também foi menor no plasma dos animais hipotireoideos. Por outro lado, o TRAP e a atividade das enzimas antioxidantes se apresentaram em declínio no grupo hipotireoideo em relação ao grupo eutireoideo, no miocárdio e nos eritrócitos. Todavia, no tecido hepático, somente a catalase demonstrou decréscimo da atividade catalítica nos hipotireoideos. As concentrações das enzimas antioxidantes superóxido dismutase e glutationa–S–transferase, medidas por Western Blott, foram menores no coração e sangue, e inalteradas no fígado. Esses resultados sugerem que o estado hipometabólico, causado pela deficiência dos hormônios da tireóide, pode levar à redução dos danos oxidativos aos lipídeos e às proteínas. Entretanto, não podemos afirmar que o estresse oxidativo dos animais hipotireoideos seja inferior aos eutireoideos, porque as defesas antioxidantes também estão reduzidas nestes animais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de conclusão investiga o efeito da geração de estoques intermediários nos indicadores principais empregados na Teoria das Restrições (Ganho, Despesa Operacional e Inventário) em uma unidade industrial de processo produtivo de Propriedade contínuo, que emprega embalagens, matérias-primas obtidas em larga escala e cadeias logísticas de longo curso. Este tipo de indústria produz bens de consumo imediato, com pouca variabilidade, de modo “empurrado”. A principal conseqüência é a perda do sincronismo na cadeia logística, resultando em uma grande quantidade de estoques intermediários e custos crescentes, relacionados principalmente ao custo de manutenção destes estoques. Através dos cinco passos de focalização e das ferramentas lógicas da Teoria das Restrições, propõe-se uma alternativa gerencial, que inclui o algoritmo Tambor-Pulmão-Corda e insere a organização em um processo de melhoria contínua, cujos impactos são avaliados por simulação computacional. Através de técnicas estatísticas e software apropriados, constrói-se um modelo de simulação computacional baseado em dados reais de uma planta produtora de cimento. A partir deste modelo, diferentes cenários são testados, descobrindo-se a condição ótima. Chega-se a uma conclusão, considerando a mudança na política de geração de estoques intermediários e seus impactos na redução de custos e riscos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O dimensionamento de pilares em mineração de carvão, no Brasil, sempre foi considerado conservativo em relação às metodologias e características das camadas que estava sendo lavrada. Torna-se necessário reverter o status-quo existente nesse tema para que a atividade de mineração em carvão se torne mais lucrativa e segura ao mesmo tempo. Problemas geomecânicos, que causaram acidentes fatais, diminuição das reservas de carvão, alto custo de extração e baixa recuperação na lavra são decorrentes ao baixo conhecimento do comportamento geomecânico do maciço rochoso e das metodologias de modelamento geomecânicos. Esse trabalho propõe uma nova técnologia de mapeamento geomecânico e caracterização geomecânica para determinar parâmetros geomecânicos das rochas que formam o sistema piso-pilarteto de uma camada de carvão. O dimensionamento de pilares, então, deve ser baseado nessas informações que alimentam um modelo geomecânico que utiliza métodos numéricos para solucionálos. Dentro do processo de aquisição de informações geomecânicas são propostos novos métodos de mapeamento geomecânico por janela amostral e o cálculo dos índices espaçamento médio e freqüência de descontinuidades. Baseado nas características quantitativas das descontinuidades é proposto o cálculo do RQD* (Rock Quality Designation teórico) para a camada de carvão com base na função de distribuição que se ajusta ao histograma de distribuição do espaçamento de descontinuidades. Esse procedimento refletiu melhor a qualidade do maciço rochoso, baseado no índice RMR (Rock Mass Rating). Considerando-se a qualidade do maciço rochoso e utilizando critérios de rupturas empíricos, foram estimados os parâmetros geomecânicos das rochas que alimentaram os modelos geomecânicos.(Continua)_ Foram gerados modelos numéricos para simular situações reais encontradas na camada Bonito em Santa Catarina e propor um novo paradigma para dimensionamento de pilares, baseado em simulação numérica, considerando todo o entorno do pilar, compreendendo o sistema piso-pilarteto. Os resultados desses modelos são comparados com o monitoramento das deformações dos pilares para confrontar as simulações numéricas com o comportamento geomecânico do maciço insitu. Os resultados apresentaram grande qualidade e concordância com o comportamento dos pilares apresentados no monitoramento das deformações, provando que a metodologia proposta aqui pode ser utilizada em futuros projetos de dimensionamento de pilares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma análise da solidificação unidirecional a partir de um estudo experimental e numérico. A fim de possibilitar a visualização do processo são evitadas as altas temperaturas. Desta forma, materiais com baixo ponto de fusão, abaixo de 50°C, translúcidos e transparentes, são fundidos e solidificados em um solidificador direcional de forma cilíndrica. Visando um processo de solidificação controlado por difusão pura, este solidificador é resfriado pela sua base. São obtidos no experimento os campos de temperatura, além da posição da interface sólido-líquido ao longo do tempo. Na simulação numérica do processo é resolvida a equação da energia, formulada em termos da entalpia usando uma malha fixa. Os resultados são comparados e analisados de modo a validar a simulação, que passa assim a servir para a investigação de outras situações de interesse no âmbito da fusão-solidificação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho apresenta-se um estudo numérico do escoamento de ar em um ambiente interno tridimensional típico, sujeito a um sistema de ventilação por deslocamento. O estudo numérico consiste na obtenção dos campos de velocidade e temperatura presentes no interior deste ambiente. A determinação dos campos de velocidade e temperatura é necessária na avaliação precisa das condições de conforto térmico, produzidas por um determinado sistema de climatização. Este tipo de estudo não serve somente para determinar a viabilidade da aplicação de um determinado sistema de distribuição de ar, mas através dele também se pode determinar as condições ótimas de uso deste sistema. De forma crescente observa-se o interesse dos projetistas de ar condicionado em aperfeiçoar as suas técnicas de cálculo, de modo que a simulação numérica poderá tornar-se uma técnica usual em pouco tempo. Atualmente duas técnicas estão disponíveis para o estudo do escoamento de ar em ambientes internos: investigação experimental e simulação numérica. Em princípio, medidas diretas dão informações mais realísticas relativas ao escoamento do ar interno, contudo, medições experimentais são muito caras e consomem muito tempo, inviabilizando a sua aplicação caso a caso. Devido às limitações da investigação experimental e à disponibilidade de computadores cada vez mais rápidos, o uso da simulação numérica surge como uma opção considerável nos dias de hoje O método de solução numérica, utilizado no presente trabalho, baseia-se na resolução das equações de conservação de massa, de quantidade de movimento e de energia, em um domínio de cálculo discretizado com o uso do Método dos Volumes Finitos. Os efeitos da turbulência são levados em conta através da utilização do modelo de turbulência K- ε e de um modelo de turbulência simplificado. Resultados bem convergidos para o problema abordado somente são obtidos com a utilização do modelo de turbulência simplificado. As simulações numéricas apresentadas no presente trabalho foram realizadas com o uso do código Fluent. Com base na comparação dos resultados numéricos obtidos no presente trabalho e os resultados experimentais de Yuan et al., 1999a, pode-se concluir que o modelo simplificado é adequado, ao menos provisoriamente, para determinar a distribuição de velocidade e de temperatura no escoamento de ar em ambientes internos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho pretende, na visão de novas tecnologias, discutir o processo de forjamento das ligas de alumínio (ABNT 6061), buscando propor uma metodologia baseada na ciência da engenharia. Deseja-se minimizar os procedimentos de tentativa e erro no desenvolvimento de processos de conformação. Para tanto, novas tecnologias disponíveis atualmente, tais como o Projeto Assistido por Computador (CAD), a Fabricação Assistida por Computador (CAM) e a Simulação do Processo (CAE) são empregadas. Resultados experimentais mostrando o comportamento da liga ABNT 6061 através das curvas de escoamento bem como o estabelecimento da condição do atrito no processo de conformação, avaliando dois lubrificantes comerciais disponíveis (Deltaforge 31 e Oildag) para aplicações nas ligas de alumínio, são reportados neste trabalho. A comparação dos resultados obtidos de um experimento prático de forjamento com a simulação pelo "Método dos Elementos Finitos" usando o código "QForm" é apresentada para uma peça de simetria axial em liga de alumínio. Finalmente, os resultados obtidos no forjamento de um componente automotivo em liga de alumínio (ABNT 6061), desenvolvido em parceria com a empresa Dana, são analisados e comparados com as simulações computacionais realizadas usando o código "Superforge".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de sistemas fotovoltaicos tem se intensificado bastante nos últimos anos. A medida que a demanda exigida do sistema aumenta, torna-se necessário associar uma certa quantidade de módulos fotovoltaicos em arranjos série e paralelo a fim de que se tenham níveis de tensões e intensidades de correntes adequados. Essas associações de módulos ocasionam perdas de potência pois os módulos não apresentam características idênticas. Essa não identicidade e eventuais desuniformidades de iluminamento entre os módulos do sistema também podem provocar o aparecimento de pontos quentes no sistema e fazer com que alguns módulos operem como carga e não como geradores de energia elétrica. Com a finalidade de analisar o comportamento de sistemas fotovoltaicos ao longo de seu funcionamento, foi montado um sistema fotovoltaico experimental nas dependências do Laboratório de Energia Solar da UFRGS. Os módulos que o compuseram foram caracterizados individualmente através do levantamento de suas curvas características I-V e foram associados em duas configurações diferentes. Durante os ensaios, as principais grandezas do sistema foram monitoradas e armazenadas em arquivos através de um programa de aquisição de dados especialmente implementado para este fim. Através do monitoramento do sistema ao longo do seu funcionamento, foi possível compreender melhor as causas das perdas de potência de sistemas fotovoltaicos Nesta Tese é analisado o comportamento deste sistema fotovoltaico, nas duas configurações, nas situações de circuito aberto, curto-circuito e em operação perto do ponto de máxima potência, com e sem sombreamento de módulos, incluindo a comparação entre os resultados experimentais e os previstos teoricamente. Esta análise permitiu estender a caracterização de efeitos possíveis para outros sistemas que venham a operar em situações similares. Além destas análises de comportamento do sistema, foi implementado um programa de simulação do desempenho de sistemas fotovoltaicos, o qual considera um grande número de fatores que influenciam no mesmo entre eles a temperatura dos módulos, a reflexão da radiação solar, a variação do espectro solar em função da massa de ar e a queda de tensão nos condutores do sistema. Os dados monitorados também foram utilizados para validar os resultados obtidos através deste programa, podendo ser observada uma ótima concordância.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de um programa computacional, elaborado através do método dos elementos finitos, para análise tridimensional de situações de punção em lajes de concreto armado com e sem armadura de cisalhamento. São utilizados modelos constitutivos elasto-viscoplásticos para representar o comportamento do concreto. Para a simulação do concreto submetido a um carregamento de longa duração, empregou-se o modelo de camadas superpostas. Este modelo admite que o concreto é constituído por um número conveniente de camadas com a mesma deformação, porém características materiais diferentes. A tensão total é obtida pela soma das contribuições de cada camada. A armadura é introduzida no modelo como uma linha de material mais rígido no interior do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Assim, os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Desta forma, a matriz de rigidez da armadura tem a mesma dimensão da matriz de rigidez do elemento de concreto, as quais são somadas para a obtenção da matriz de rigidez total Para representar o comportamento após à fissuração do concreto, é utilizado o modelo de fissuras distribuídas, onde apenas as propriedades dos materiais são modificadas e a malha de elementos finitos não necessita de atualização. Sugerem-se duas formulações para a consideração da contribuição do concreto entre fissuras e da redução na capacidade de transferência de corte devido ao aumento da abertura da fissura. Este último é incluído através de uma simplificação, que consiste em atribuir ao módulo de elasticidade transversal, correspondente ao plano fissurado, um valor reduzido. Para comprovar a validade do programa computacional desenvolvido, comparam-se os resultados numéricos com valores experimentais de ensaios realizados por Coelho (1999), Trautwein (2001) e Fusco (1988). Obtiveram-se boas aproximações para lajes com e sem armadura de cisalhamento. Desta forma, o programa computacional desenvolvido pode ser empregado para generalizar resultados experimentais em lajes cogumelo com variação na resistência do concreto, na bitola das barras de armadura, no espaçamento entre as barras e no número de camadas de armadura de cisalhamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho pretende, na visão de novas tecnologias, discutir o processo de forjamento das ligas de alumínio (ABNT 6061), buscando propor uma metodologia baseada na ciência da engenharia. Deseja-se minimizar os procedimentos de tentativa e erro no desenvolvimento de processos de conformação. Para tanto, novas tecnologias disponíveis atualmente, tais como o Projeto Assistido por Computador (CAD), a Fabricação Assistida por Computador (CAM) e a Simulação do Processo (CAE) são empregadas. Resultados experimentais mostrando o comportamento da liga ABNT 6061 através das curvas de escoamento bem como o estabelecimento da condição do atrito no processo de conformação, avaliando dois lubrificantes comerciais disponíveis (Deltaforge 31 e Oildag) para aplicações nas ligas de alumínio, são reportados neste trabalho. A comparação dos resultados obtidos de um experimento prático de forjamento com a simulação pelo “Método dos Elementos Finitos” usando o código “QForm” é apresentada para uma peça de simetria axial em liga de alumínio. Finalmente, os resultados obtidos no forjamento de um componente automotivo em liga de alumínio (ABNT 6061), desenvolvido em parceria com a empresa Dana, são analisados e comparados com as simulações computacionais realizadas usando o código “Superforge”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma comparação entre resultados computacionais, obtidos através do "software" EnergyPlus e experimentais do comportamento térmico de um ambiente condicionado e não condicionado. Para tanto, monitoraram-se os dados climáticos de radiação, velocidade do vento e temperatura, no período de 11 a 20 de janeiro de 2002 e produziu-se um arquivo climático. Simultaneamente, fez-se a aquisição das temperaturas de uma sala-teste, localizada no terceiro pavimento de um prédio na cidade de Porto Alegre, bem como das salas adjacentes. As temperaturas do ar de insuflamento e de retorno dos condicionadores de ar, localizados na sala-teste, foram medidas durante o dia, em seis dias do período de monitoramento. Mediu-se também a velocidade do ar de retorno e determinou-se a potência sensível de refrigeração. Os ganhos de calor interno da sala também foram medidos e utilizaramse as formulações apresentadas pela ASHRAE, 2001, para determiná-los em relação às pessoas e à infiltração. Tais dados foram declarados ao programa como variáveis de entrada. As simulações do comportamento térmico da sala-teste foram implementadas informando-se ao programa a temperatura das salas ou os coeficientes de uma equação representativa das mesmas. Por considerar que a primeira representava melhor as condições térmicas das salas contíguas, utilizou-se esta modalidade para análise As simulações foram conduzidas, alterando-se opções fornecidas pelo programa: modelo de céu isotrópico e anisotrópico, coeficiente de convecção simples e detalhado. Os resultados da carga térmica e temperatura ambiente da sala-teste obtidos nas simulações foram comparados com os dados experimentais do período de monitoramento. A melhor concordância foi obtida para o modelo anisotrópico, coeficiente de convecção detalhado. Constatou-se uma grande discrepância entre as cargas térmicas, para o modelo de convecção simples. Assim, conclui-se que o "software" EnergyPlus representa bem o comportamento térmico de uma edificação "termicamente pesada" para coeficiente de convecção detalhado, necessitando pesquisa para as demais edificações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.