902 resultados para simulação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de uma metodologia para a avaliação de critérios de outorga do uso da água na bacia do rio Santa Maria. A escolha da bacia do rio Santa Maria se deve ao fato da existência de conflitos pelo uso da água, principalmente durante o verão, quando surge a demanda de água para o cultivo do arroz. A carência de dados hidrológicos, a existência de um grande número de pequenos reservatórios e a sazonalidade das demandas fazem da bacia do rio Santa Maria um caso interessante de ser estudado. É comentado o processo de evolução da outorga através das legislações, a situação atual em que se encontra a implementação deste instrumento, quais as tendências e fica estabelecida uma forma de comparação de diferentes critérios. A análise é feita de forma sistêmica (admitindo a bacia hidrográfica como unidade de planejamento) com o uso de modelos matemáticos de avaliação e gestão, particularmente modelos de simulação hidrológica, em conjunto com dados experimentais sobre o efeito de água no rendimento das culturas. A avaliação de diversos valores de outorga levando em consideração bases econômicas como custos de plantio, preços de mercado dos produtos e recorrência das falhas de atendimento associada à probabilidade de ocorrência de rendimentos líquidos não negativos revela um modelo de utilização otimizado dos recursos hídricos superficiais da bacia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho faz uma análise da legislação sobre o parcelamento do solo nas diferentes instâncias de Governo. São analisadas as diversidades e contradições das leis municipais de parcelamento do solo de onze prefeituras estrategicamente distribuídas no Estado. A análise foca em particular o tratamento da hierarquia viária; as dimensões dos gabaritos viários; as rampas empregadas; o comprimento máximo dos quarteirões nos loteamentos residenciais em função da testada mínima dos lotes e a concordância vertical nas interseções. São analisados também os requisitos técnicos de projeto geométrico de vias urbanas estabelecidas por Órgãos federais e estaduais. A revisão bibliográfica aborda questões fundamentais na urbanização tais como os pedestres, as interseções e a capacidade das vias urbanas, com o propósito de sustentar a proposição de alterações nos requisitos técnicos preconizados pelas legislações sobre o parcelamento do solo urbano. Suprindo lacuna constatada na legislação municipal sobre o parcelamento do solo e, fundamentado em simulação gráfica com veículo de transporte coletivo urbano, o trabalho apresenta tabela com sugestões para o tratamento de curvas verticais nas interseções das vias urbanas nos loteamentos. Com as informações obtidas da análise da legislação, na pesquisa bibliográfica e dos requisitos técnicos constantes nas normas conhecidas, propõe-se dimensões para vias urbanas, comprimento ideal para quarteirões residenciais, valores de taxas de declividade urbana e formas de executar-se a concordância destas rampas nas interseções. Com os valores planimétricos sugeridos fez-se um parcelamento em gleba fictícia e comparou-se os resultados com outros loteamentos projetados na mesma gleba utilizando-se as prescrições das leis municipais estudadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O interesse de pesquisa da comunidade de Inteligência Artificial em Sistemas Multiagentes tem gerado o crescimento da utilização de técnicas de agentes nas mais diversas áreas da ciência da computação. Isso ocorre, principalmente, devido à variedade de aplicações em que esses sistemas podem ser usados, como por exemplo: jogos de computadores, interfaces adaptativas, simulação e controle de processos industriais. The Robot World Cup Initiative (RoboCup) é uma tentativa de estimular a área de Inteligência Artificial e, principalmente de Sistemas Multiagentes, por promover um problema padrão, jogar futebol, onde uma ampla cadeia de tecnologias podem ser integradas, examinadas e comparadas. A utilização do ambiente da RoboCup para a simulação de uma partida de futebol (simulador Soccerserver) permite a avaliação de diferentes técnicas de Sistemas Multiagentes (planejamento de estratégias, conhecimento em tempo real, colaboração de agentes, princípios de agentes autônomos, entre outros) e estimula as pesquisas, investigações e testes que possibilitem a construção gradativa de agentes avançados. O presente trabalho tem por objetivo o desenvolvimento de um time de futebol para o simulador Soccerserver. A idéia principal é desenvolver agentes jogadores que demonstrem um nível considerável de competência para a realização de suas tarefas, como percepção, ação, cooperação, estratégias pré-definidas, decisão e previsão. Inicialmente, apresenta-se uma visão geral sobre Inteligência Artificial Distribuída e sobre o simulador Soccerserver, pré-requisitos para o restante do trabalho. A seguir, é realizado um estudo sobre algumas arquiteturas de agentes (clientes) do Soccerserver. A arquitetura proposta na dissertação, suas principais características e a sua materialização em um protótipo desenvolvido correspondem à parte principal do trabalho. Finalmente são apresentados os testes realizados e as conclusões do trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estado dos recursos hídricos da bacia do rio Gramame, localizada no litoral sul do Estado da Paraíba, tem se revelado insustentável, principalmente nesses últimos anos. Tanto a escassez quantitativa quanto a qualitativa inserem-se no contexto da bacia, tornando frreqüentes os conflitos entre os principais usuários de água (abastecimento urbano, indústrias e irrigantes). Em virtude disso, surge a necessidade de implementação de um sistema de outorga na bacia, para uma alocação eficiente das disponibidades hídricas. Neste trabalho, foram abordados os principais problemas para essa implementação: (a) a definição da vazão m[axima outorgável; e (iii) a intrtodução dos aspectos qualitativos da água. Par ao primeiro problema, foram estabelecidos e avaliados como passíveis de emprego na bacia os seguintes critérios de outorga: (a) vazão excedente; (b) garantia de suprimento; (c) vazão de referência com probabilidade de superação de 90% (Q90); (d) 2 vazões de referência Q90 para as estações seca e chuviosa e (e) 12 vazões de referência Q90 referentes a cada mês do ano. No tocante à qualidade da água no processo de outorga, foi verificada a sensibilidade do sistema hídrico e suas demandas à consideração dos poluentes lançados nos cursos dágua da bacia como demanda para diluição da concentração de Demanda Bioquímica de Oxigênio (DBO). ALém disso, foi abordado, de forma simplificada, o processo de autodepuração da DBO, através de coeficientes de depuração, visando avaliar a relevância das vazões liberadas para novoo usos nas seções à jusante dos deesejos de efluentes. Através da comparação dos parâmetros de desempenho (garantia volumétrica, garantia temporal, garantia crítica temporal, garantia volumétrica mensal mínima, resiliência e vulnerabilidade) obtidos da simulação de cada cenário da bacia, de ocorrência em curto prazo, foram avaliados os critérios de outorga e a introdução da qualidade da água. Priorizando o atendimento das demandas para abastecimento urbano, em ordem crescente de redução do suprimento das demandas existentes na bacia, os critérios de determinação da vazão máxima outorgável puderam ser ordenados como: vazão excendente, vazões de referência mensais, vazões de referência das estações seca e chuvosa, vazão de referência única e garantia de suprimento. Quanto à consideração das demandas para diluição de despejos, verificou-se que, de modo geral, estas poucos reduziram o suprimento das demandas já instaladas na bacia e também não foram significativas as vazões liberadas pela autodepuração a ponto de melhorar o atendimento das seções por ela afetadas. Entretanto, excetuando a demanda para diluição dos efluentes domésticos do município do Conde, foi verificada a inviabilidade de suprimento dos atuais lançamentos de efluentes na bacia, cujo percentual de atendimento não atingiu 50% do volume requerido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é proposta uma biblioteca de classes para sistemas de manufatura que visa facilitar a construção de modelos de simulação, permitindo o reuso e a agilizando a modelagaem. A principal característica deste trabalho é sua abordagem que difere da maioria dos trabalhos correlatos na área. Ela baseia-se na utilização de conceitos de produção bastante conhecidos atualemnte, como os roteiros e atividades de produção. Isto permite a criação de novas simulações muito mais rapidamente do que em outras metodologias, já que não são necessárias traduções compelxas entre a realidade e as aplicações simuladas. A biblioteca desenvolvida foi validade com a aplicação dos conceitos à modelagem de uma linha de produção de pontas de eixo para tratores, produzidos pela empresa Pigozzi S/A. ALém disso, o trabalho discute a possibilidade de integração entre a biblioteca de classes proposta e a ferramente de simulação de sistemas de manufatura Automod. A simulação do estudo de caso da linha de produção de pontas de eixo, modelada tanto no Automod quanto na biblioteca de classes proposta, permitiu uma comparação quantitativa, o que viabilizou a validação este trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O hipotireoidismo é uma doença que tem grande impacto sobre o metabolismo basal dos tecidos, reduzindo o consumo de O2 e geração de energia. Por essa razão, a sua relação com a produção de espécies ativas de oxigênio (EAO) é extremamente importante, uma vez que com a diminuição da utilização de O2, possivelmente, ocorra uma redução na geração das EAO. Portanto, trabalhamos com a hipótese de que havendo decréscimo na síntese de radicais livres, o dano oxidativo ficaria menos evidente nos diferentes tecidos de hipotireoideos. Foram utilizados ratos Wistar, pesando cerca de 170 g divididos em dois grupos distintos: hipotireoideos e eutireoideos. O hipotireoidismo foi induzido pelo procedimento cirúrgico denominado de tireoidectomia. Cabe salientar, que os animais eutireoideos foram submetidos somente à simulação da cirurgia (sham operated). Transcorridas quatro semanas da tireoidectomia, os ratos tiveram seu sangue coletado e seus órgãos (coração e fígado) removidos. Foram feitas análises bioquímicas do dano oxidativo através da medida da lipoperoxidação (TBA-RS e Quimiluminescência) e da oxidação das proteínas (dosagem das carbonilas). Medidas de defesas antioxidantes enzimáticas (atividade e concentração das enzimas catalase, superóxido dismutase, glutationa peroxidase e glutationa–S–transferase) e não enzimáticas (através da medida da capacidade antioxidante total -TRAP) também foram realizadas. Os resultados, da quantificação da lipoperoxidação, demonstraram a diminuição das cifras de TBA-RS e Quimiluminescência no sangue e tecido cardíaco dos ratos tireoidectomizados em relação ao grupo eutireoideo. No entanto, no tecido hepático não houve alteração deste parâmetro. A oxidação das proteínas também foi menor no plasma dos animais hipotireoideos. Por outro lado, o TRAP e a atividade das enzimas antioxidantes se apresentaram em declínio no grupo hipotireoideo em relação ao grupo eutireoideo, no miocárdio e nos eritrócitos. Todavia, no tecido hepático, somente a catalase demonstrou decréscimo da atividade catalítica nos hipotireoideos. As concentrações das enzimas antioxidantes superóxido dismutase e glutationa–S–transferase, medidas por Western Blott, foram menores no coração e sangue, e inalteradas no fígado. Esses resultados sugerem que o estado hipometabólico, causado pela deficiência dos hormônios da tireóide, pode levar à redução dos danos oxidativos aos lipídeos e às proteínas. Entretanto, não podemos afirmar que o estresse oxidativo dos animais hipotireoideos seja inferior aos eutireoideos, porque as defesas antioxidantes também estão reduzidas nestes animais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de conclusão investiga o efeito da geração de estoques intermediários nos indicadores principais empregados na Teoria das Restrições (Ganho, Despesa Operacional e Inventário) em uma unidade industrial de processo produtivo de Propriedade contínuo, que emprega embalagens, matérias-primas obtidas em larga escala e cadeias logísticas de longo curso. Este tipo de indústria produz bens de consumo imediato, com pouca variabilidade, de modo “empurrado”. A principal conseqüência é a perda do sincronismo na cadeia logística, resultando em uma grande quantidade de estoques intermediários e custos crescentes, relacionados principalmente ao custo de manutenção destes estoques. Através dos cinco passos de focalização e das ferramentas lógicas da Teoria das Restrições, propõe-se uma alternativa gerencial, que inclui o algoritmo Tambor-Pulmão-Corda e insere a organização em um processo de melhoria contínua, cujos impactos são avaliados por simulação computacional. Através de técnicas estatísticas e software apropriados, constrói-se um modelo de simulação computacional baseado em dados reais de uma planta produtora de cimento. A partir deste modelo, diferentes cenários são testados, descobrindo-se a condição ótima. Chega-se a uma conclusão, considerando a mudança na política de geração de estoques intermediários e seus impactos na redução de custos e riscos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O dimensionamento de pilares em mineração de carvão, no Brasil, sempre foi considerado conservativo em relação às metodologias e características das camadas que estava sendo lavrada. Torna-se necessário reverter o status-quo existente nesse tema para que a atividade de mineração em carvão se torne mais lucrativa e segura ao mesmo tempo. Problemas geomecânicos, que causaram acidentes fatais, diminuição das reservas de carvão, alto custo de extração e baixa recuperação na lavra são decorrentes ao baixo conhecimento do comportamento geomecânico do maciço rochoso e das metodologias de modelamento geomecânicos. Esse trabalho propõe uma nova técnologia de mapeamento geomecânico e caracterização geomecânica para determinar parâmetros geomecânicos das rochas que formam o sistema piso-pilarteto de uma camada de carvão. O dimensionamento de pilares, então, deve ser baseado nessas informações que alimentam um modelo geomecânico que utiliza métodos numéricos para solucionálos. Dentro do processo de aquisição de informações geomecânicas são propostos novos métodos de mapeamento geomecânico por janela amostral e o cálculo dos índices espaçamento médio e freqüência de descontinuidades. Baseado nas características quantitativas das descontinuidades é proposto o cálculo do RQD* (Rock Quality Designation teórico) para a camada de carvão com base na função de distribuição que se ajusta ao histograma de distribuição do espaçamento de descontinuidades. Esse procedimento refletiu melhor a qualidade do maciço rochoso, baseado no índice RMR (Rock Mass Rating). Considerando-se a qualidade do maciço rochoso e utilizando critérios de rupturas empíricos, foram estimados os parâmetros geomecânicos das rochas que alimentaram os modelos geomecânicos.(Continua)_ Foram gerados modelos numéricos para simular situações reais encontradas na camada Bonito em Santa Catarina e propor um novo paradigma para dimensionamento de pilares, baseado em simulação numérica, considerando todo o entorno do pilar, compreendendo o sistema piso-pilarteto. Os resultados desses modelos são comparados com o monitoramento das deformações dos pilares para confrontar as simulações numéricas com o comportamento geomecânico do maciço insitu. Os resultados apresentaram grande qualidade e concordância com o comportamento dos pilares apresentados no monitoramento das deformações, provando que a metodologia proposta aqui pode ser utilizada em futuros projetos de dimensionamento de pilares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta uma análise da solidificação unidirecional a partir de um estudo experimental e numérico. A fim de possibilitar a visualização do processo são evitadas as altas temperaturas. Desta forma, materiais com baixo ponto de fusão, abaixo de 50°C, translúcidos e transparentes, são fundidos e solidificados em um solidificador direcional de forma cilíndrica. Visando um processo de solidificação controlado por difusão pura, este solidificador é resfriado pela sua base. São obtidos no experimento os campos de temperatura, além da posição da interface sólido-líquido ao longo do tempo. Na simulação numérica do processo é resolvida a equação da energia, formulada em termos da entalpia usando uma malha fixa. Os resultados são comparados e analisados de modo a validar a simulação, que passa assim a servir para a investigação de outras situações de interesse no âmbito da fusão-solidificação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho apresenta-se um estudo numérico do escoamento de ar em um ambiente interno tridimensional típico, sujeito a um sistema de ventilação por deslocamento. O estudo numérico consiste na obtenção dos campos de velocidade e temperatura presentes no interior deste ambiente. A determinação dos campos de velocidade e temperatura é necessária na avaliação precisa das condições de conforto térmico, produzidas por um determinado sistema de climatização. Este tipo de estudo não serve somente para determinar a viabilidade da aplicação de um determinado sistema de distribuição de ar, mas através dele também se pode determinar as condições ótimas de uso deste sistema. De forma crescente observa-se o interesse dos projetistas de ar condicionado em aperfeiçoar as suas técnicas de cálculo, de modo que a simulação numérica poderá tornar-se uma técnica usual em pouco tempo. Atualmente duas técnicas estão disponíveis para o estudo do escoamento de ar em ambientes internos: investigação experimental e simulação numérica. Em princípio, medidas diretas dão informações mais realísticas relativas ao escoamento do ar interno, contudo, medições experimentais são muito caras e consomem muito tempo, inviabilizando a sua aplicação caso a caso. Devido às limitações da investigação experimental e à disponibilidade de computadores cada vez mais rápidos, o uso da simulação numérica surge como uma opção considerável nos dias de hoje O método de solução numérica, utilizado no presente trabalho, baseia-se na resolução das equações de conservação de massa, de quantidade de movimento e de energia, em um domínio de cálculo discretizado com o uso do Método dos Volumes Finitos. Os efeitos da turbulência são levados em conta através da utilização do modelo de turbulência K- ε e de um modelo de turbulência simplificado. Resultados bem convergidos para o problema abordado somente são obtidos com a utilização do modelo de turbulência simplificado. As simulações numéricas apresentadas no presente trabalho foram realizadas com o uso do código Fluent. Com base na comparação dos resultados numéricos obtidos no presente trabalho e os resultados experimentais de Yuan et al., 1999a, pode-se concluir que o modelo simplificado é adequado, ao menos provisoriamente, para determinar a distribuição de velocidade e de temperatura no escoamento de ar em ambientes internos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho pretende, na visão de novas tecnologias, discutir o processo de forjamento das ligas de alumínio (ABNT 6061), buscando propor uma metodologia baseada na ciência da engenharia. Deseja-se minimizar os procedimentos de tentativa e erro no desenvolvimento de processos de conformação. Para tanto, novas tecnologias disponíveis atualmente, tais como o Projeto Assistido por Computador (CAD), a Fabricação Assistida por Computador (CAM) e a Simulação do Processo (CAE) são empregadas. Resultados experimentais mostrando o comportamento da liga ABNT 6061 através das curvas de escoamento bem como o estabelecimento da condição do atrito no processo de conformação, avaliando dois lubrificantes comerciais disponíveis (Deltaforge 31 e Oildag) para aplicações nas ligas de alumínio, são reportados neste trabalho. A comparação dos resultados obtidos de um experimento prático de forjamento com a simulação pelo "Método dos Elementos Finitos" usando o código "QForm" é apresentada para uma peça de simetria axial em liga de alumínio. Finalmente, os resultados obtidos no forjamento de um componente automotivo em liga de alumínio (ABNT 6061), desenvolvido em parceria com a empresa Dana, são analisados e comparados com as simulações computacionais realizadas usando o código "Superforge".