1000 resultados para simulacio computacional


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A corrosão da annadura é um dos principais problemas para um grande número de es1ruturas de concreto annado por causa da redução substancial da área de aço, da perda de aderência, da fonnação de fissuras e lascamento do concreto. O modelo tridimensional proposto por este trabalho é baseado no processo de corrosão iniciado por ataque de cloretos e propagado a partir de micropilhas de corrosão, utilizando o método dos elementos finitos. A influência da temperatura, da umidade relativa do concreto, da ligação dos cloretos com compostos do concreto, da fonnação de fissuras provenientes do carregamento e da resistência ôhmica do concreto são levados em consideração. O modelo é dividido em 4 módulos que interagem entre si, sendo eles: análise estrutural, transferência de calor, difusão de cloretos e corrosão eletroquímica. O modelo computacional para a análise estrutural utiliza dois procedimentos. No primeiro busca-se a resposta da estrutura para um carregamento instantâneo, considerando-se o material com comportamento elasto-viscoplástico, associado com modelos de annadura incorporada e fissuras distribuídas.No segundo, detennina-se a resposta da estrutura ao longo do tempo com a teoria da solidificação proposta por Bazant e Prasannan (1989), utilizando as cadeias Kelvin, apresentando ótimos resultados com uma grande economia computacional. O processo de transferência de calor é baseado na fonnulação tridimensional da equação de Helmholtz, com condições de contorno de fluxos provenientes da radiação solar, convecção e radiação, apresentando bons resultados em relação a fonnulações analíticas. Para análise de vigas com a variação da temperatura média diária, constatou-se que as mesmas se encontram em equilíbrio ténnico com o ambiente A análise de difusão de cloretos implementada apresentou um comportamento idêntico ao da segunda lei de Fick para casos unidimensionais. Para análises de vigas carregadas se constatou que as fissuras provenientes de cargas de serviço não influenciam o processo de difusão e que o coeficiente de difusão referencial é o principal parâmetro na análise. O modelo de corrosão eletroquímica é baseado na fonnulação proposta por Liu (1996), obtendo-se como resultado a taxa de corrosão em função do tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um método para detectar falhas no funcionamento de máquinas rotativas baseado em alterações no padrão de vibração do sistema e no diagnóstico da condição de operação, por Lógica Fuzzy. As modificações ocorridas são analisadas e servem como parâmetros para predizer falhas incipientes bem como a evolução destas na condição de operação, possibilitando tarefas de manutenção preditiva. Utiliza-se uma estrutura mecânica denominada de Sistema Rotativo (Figura 1), apropriada para as simulações das falhas. Faz-se a aquisição de dados de vibração da máquina usando-se um acelerômetro em chip biaxial de baixa potência. As saídas são lidas diretamente por um contador microprocessador não requerendo um conversor A/D. Um sistema de desenvolvimento para processamento digital de sinais, baseado no microprocessador TMS320C25, o Psi25, é empregado na aquisição dos sinais de vibração (*.dat), do Sistema Rotativo. Os arquivos *.dat são processados através da ferramenta matemática computacional Matlab 5 e do programa SPTOOL. Estabelece-se o padrão de vibração, denominado assinatura espectral do Sistema Rotativo (Figura 2) Os dados são analisados pelo sistema especialista Fuzzy, devidamente calibrado para o processo em questão. São considerados, como parâmetros para a diferenciação e tomada de decisão no diagnóstico do estado de funcionamento pelo sistema especialista, a freqüência de rotação do eixo-volante e as amplitudes de vibração inerentes a cada situação de avaria. As falhas inseridas neste trabalho são desbalanceamentos no eixovolante (Figura 1), através da inserção de elementos desbalanceadores. A relação de massa entre o volante e o menor elemento desbalanceador é de 1:10000. Tomando-se como alusão o conhecimento de especialistas no que se refere a situações normais de funcionamento e conseqüências danosas, utilizam-se elementos de diferentes massas para inserir falhas e diagnosticar o estado de funcionamento pelo sistema fuzzy, que apresenta o diagnóstico de formas qualitativa: normal; falha incipiente; manutenção e perigo e quantitativa, sendo desta maneira possível a detecção e o acompanhamento da evolução da falha.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação situa-se no projeto de pesquisa intitulado "Um Modelo Computacional de Aprendizagem a Distância Baseada na Concepção Sócio- Interacionista". Este projeto se enquadra na visão de aprendizagem situada, isto é, na concepção de cognição como uma prática social baseada na utilização de linguagem, símbolos e signos. O objetivo é a construção de um ambiente de Educação a Distância, implementado como um sistema multiagente composto por agentes artificiais e agentes humanos, inspirando-se na teoria sócio-interacionista de Vygotsky. Nesta sociedade, todos os personagens (aprendizes e agentes artificiais) são modelados como agentes sociais integrados em um ambiente de ensino-aprendizagem. A arquitetura deste sistema é formada pelos seguintes agentes artificiais: agente diagnóstico, agente mediador, agente colaborativo, agente semiótico e agente social. Os agentes humanos que interagem com o sistema desempenham o papel de tutores, aprendizes ou ambos. Esta dissertação visa à concepção e à implementação de um dos agentes desta arquitetura: o agente semiótico. Esta concepção foi baseada na Engenharia Semiótica, em particular para a apresentação do material instrucional utilizado no processo de ensinoaprendizagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo computacional para análise tridimensional de peças de concreto armado, utilizando o método dos elementos finitos. São utilizados modelos constitutivos elasto-viscoplásticos para representar o comportamento dos materiais, quando submetidos a cargas de curta ou longa duração. Se a estrutura está submetida a cargas de curta duração, o modelo desenvolvido fornece, quando alcançado o estado estável, a solução do problema elastoplástico. Em contrapartida, se a estrutura está submetida a cargas de longa duração, o modelo pode representar o comportamento viscoelástico com envelhecimento do concreto. Foi utilizado um modelo de camadas superpostas para assegurar uma representação adequada do comportamento real do concreto ao longo do tempo. Deste modo, admite-se que o concreto é constituído por um número conveniente de camadas, que apresentam a mesma deformação. Para a fissuração do concreto, utilizou-se um modelo de fissuras distribuídas, que leva em consideração a contribuição do concreto entre fissuras O objetivo deste estudo é a modelagem da armadura e do reforço nas peças de concreto armado, através de um modelo de aderência entre o concreto e o material adjacente. A armadura é introduzida no modelo como uma linha de material mais rígido dentro do elemento de concreto. E, a consideração da degradação da aderência é realizada através de um modelo onde os efeitos da aderência imperfeita são incluídos pela introdução de graus de liberdade para os deslocamentos relativos entre os materiais. Os resultados obtidos com este programa computacional são comparados com valores experimentais disponíveis na literatura, visando validar o modelo matemático e a metodologia numérica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta uma abordagem para inserção e aplicação da técnica de Simulação Computacional como ferramenta de apoio a análise de decisão no setor hospitalar. Um grupo de onze hospitais foi contemplado diretamente no estudo. O processo de inserção da ferramenta foi implementado em quatro macro etapas. As duas primeiras etapas envolveram a totalidade do grupo de hospitais e objetivaram a divulgação da ferramenta; foram elas: (i) Pesquisa para diagnosticar o conhecimento e interesse do grupo na técnica, e (ii) realização de seminários para divulgação da técnica. As duas macro etapas finais caracterizam um estudo de caso, tendo sido desenvolvidas em um hospital; foram elas: (iii) Estudo-Piloto com desenvolvimento de um modelo computacional utilizando um software dedicado, no qual o grupo do hospital foi treinado, e (iv) utilização do modelo na definição das características de um novo serviço de atendimento. Durante todo o processo onze hospitais participaram da pesquisa realizada, aproximadamente cem pessoas assistiram a pelo menos um dos seminários e um hospital desenvolveu um estudo aplicado de simulação. Neste estudo a simulação foi utilizada para analisar alternativas para uma situação específica no hospital e um novo serviço alternativo foi criado a partir da análise realizada e do modelo desenvolvido. O resultado decorrente da simulação foi implementado na prática. Pode-se constatar neste trabalho o grande interesse dos hospitais em técnicas que auxiliem a tomada de decisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese buscou averiguar quais foram os efeitos, os impactos e modificações que ocorreram na dinâmica de funcionamento de fóruns do orçamento participativo, quando a este processo decisório de grupo em larga escala e com repercussões imediatas nas próprias comunidades decisoras se agregou um apoio computacional de pequena sofisticação, com o perfil de um sistema de apoio à decisão para grupos. Estas intervenções, talhadas sob a perspectiva quaseexperimental, levaram ao ambiente real de decisão um apoio derivado de modelos baseados em critérios e atributos para a hierarquização de demandas por obras de perfil público-social. A metodologia empregada, um esboço multimétodo com técnicas distintas de atuação por grupo trabalhado, incluindo nestas distinções o papel do pesquisador, foi levada a cabo em três regiões distintas do orçamento participativo. O pesquisador, enquanto ser observante, valeu-se de um diário de campo que ao lado dos tradicionais questionários usados em quaseexperimentos, funcionou como um coletor de dados, os quais foram suplementados com igual valia por entrevistas semi-estruturadas com os atores do processo. Técnicas elementares de estatística aliadas à interpretação dos dados qualitativos a partir de codificações sugeridas por técnicas de análise de conteúdo, forjaram um grande painel de dados, que permitiu apurar os impactos da adoção da tecnologia, bem como enquadrar os efeitos nas posturas dos grupos e dos atores participantes do processo. Como idéia conclusiva, o estudo permitiu estatuir que várias das situações em apoio à decisão em grupo ocorreram, alguns outros resultados foram inesperados e quiçá contraditórios em relação à história de pesquisa do tema apoio à decisão em grupo por computador e outros se revelaram promissores para futuras pesquisas. Por fim, argüi-se a necessidade de averiguar, em ambientes como o estudado, a relação real existente entre as conotações política e racional de tomada de decisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de um programa computacional, elaborado através do método dos elementos finitos, para análise tridimensional de situações de punção em lajes de concreto armado com e sem armadura de cisalhamento. São utilizados modelos constitutivos elasto-viscoplásticos para representar o comportamento do concreto. Para a simulação do concreto submetido a um carregamento de longa duração, empregou-se o modelo de camadas superpostas. Este modelo admite que o concreto é constituído por um número conveniente de camadas com a mesma deformação, porém características materiais diferentes. A tensão total é obtida pela soma das contribuições de cada camada. A armadura é introduzida no modelo como uma linha de material mais rígido no interior do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Assim, os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Desta forma, a matriz de rigidez da armadura tem a mesma dimensão da matriz de rigidez do elemento de concreto, as quais são somadas para a obtenção da matriz de rigidez total Para representar o comportamento após à fissuração do concreto, é utilizado o modelo de fissuras distribuídas, onde apenas as propriedades dos materiais são modificadas e a malha de elementos finitos não necessita de atualização. Sugerem-se duas formulações para a consideração da contribuição do concreto entre fissuras e da redução na capacidade de transferência de corte devido ao aumento da abertura da fissura. Este último é incluído através de uma simplificação, que consiste em atribuir ao módulo de elasticidade transversal, correspondente ao plano fissurado, um valor reduzido. Para comprovar a validade do programa computacional desenvolvido, comparam-se os resultados numéricos com valores experimentais de ensaios realizados por Coelho (1999), Trautwein (2001) e Fusco (1988). Obtiveram-se boas aproximações para lajes com e sem armadura de cisalhamento. Desta forma, o programa computacional desenvolvido pode ser empregado para generalizar resultados experimentais em lajes cogumelo com variação na resistência do concreto, na bitola das barras de armadura, no espaçamento entre as barras e no número de camadas de armadura de cisalhamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente Dissertação propõe uma biblioteca de comunicação de alto desempenho, baseada em troca de mensagens, especificamente projetada para explorar eficientemente as potencialidades da tecnologia SCI (Scalable Coherent Interface). No âmago da referida biblioteca, a qual se denominou DECK/SCI, acham-se três protocolos de comunicação distintos: um protocolo de baixa latência e mínimo overhead, especializado na troca de mensagens pequenas; um protocolo de propósito geral; e um protocolo de comunicação que emprega uma técnica de zero-copy, também idealizada neste Trabalho, no intuito de elevar a máxima largura de banda alcançável durante a transmissão de mensagens grandes. As pesquisas desenvolvidas no decurso da Dissertação que se lhe apresenta têm por mister proporcionar um ambiente para o desenvolvimento de aplicações paralelas, que demandam alto desempenho computacional, em clusters que se utilizam da tecnologia SCI como rede de comunicação. A grande motivação para os esforços envidados reside na consolidação dos clusters como arquiteturas, a um só tempo, tecnologicamente comparáveis às máquinas paralelas dedicadas, e economicamente viáveis. A interface de programação exportada pelo DECK/SCI aos usuários abarca o mesmo conjunto de primitivas da biblioteca DECK (Distributed Execution Communication Kernel), concebida originalmente com vistas à consecução de alto desempenho sobre a tecnologia Myrinet. Os resultados auferidos com o uso do DECK/SCI revelam a eficiência dos mecanismos projetados, e a utilização profícua das características de alto desempenho intrínsecas da rede SCI, haja visto que se obteve uma performance muito próxima dos limites tecnológicos impostos pela arquitetura subjacente. Outrossim, a execução de uma clássica aplicação paralela, para fins de validação, testemunha que as primitivas e abstrações fornecidas pelo DECK/SCI mantêm estritamente a mesma semântica da interface de programação do original DECK.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é realizar a concepção de um sistema para a aprendizagem de demonstrações da Geometria Euclidiana Plana e a implementação de um protótipo deste sistema, denominado LEEG - Learning Environment on Euclidean Geometry, desenvolvido para validar as idéias utilizadas em sua especificação. Nos últimos anos, tem-se observado uma crescente evolução dos sistemas de ensino e aprendizagem informatizados. A preocupação com o desenvolvimento de ambientes cada vez mais eficientes, tanto do ponto de vista computacional quanto pedagógico, tem repercutido em um salto de qualidade dos software educacionais. Tais sistemas visam promover, auxiliar e motivar a aprendizagem das mais diversas áreas do conhecimento, utilizando técnicas de Inteligência Artificial para se aproximarem ao máximo do comportamento de um tutor humano que se adapte e atenda às necessidades de cada aluno. A Geometria pode ser vista sob dois aspectos principais: considerada como uma ciência que estuda as representações do plano e do espaço e considerada como uma estrutura lógica, onde a estrutura matemática é representada e tratada no mais alto nível de rigor e formalismo. Entretanto, o ensino da Geometria, nos últimos anos, abandonou quase que totalmente sua abordagem dedutiva. Demonstrações de teoremas geométricos não são mais trabalhadas na maioria das escolas brasileiras, o que repercute em um ensino falho da Matemática, que não valoriza o desenvolvimento de habilidades e competências relacionadas à experimentação, observação e percepção, realização de conjecturas, desenvolvimento de argumentações convincentes, entre outras. Levando-se em conta este cenário, desenvolveu-se o LEEG, um sistema para a aprendizagem de demonstrações geométricas que tem como objetivo auxiliar um aprendiz humano na construção de demonstrações da Geometria Euclidiana Plana. O sistema foi modelado sobre uma adaptação do protocolo de aprendizagem MOSCA, desenvolvido para suportar ambientes de ensino informatizados, cuja aprendizagem é baseada na utilização de exemplos e contra-exemplos. Este protocolo propõe um ambiente de aprendizagem composto por cinco agentes, dentre os quais um deles é o aprendiz e os demais assumem papéis distintos e específicos que completam um quadro de ensino-aprendizagem consistente. A base de conhecimento do sistema, que guarda a estrutura lógica-dedutiva de todas as demonstrações que podem ser submetidas ao Aprendiz, foi implementada através do modelo de autômatos finitos com saída. A utilização de autômatos com saída na aplicação de modelagem de demonstrações dedutivas foi extremamente útil por permitir estruturar os diferentes raciocínios que levam da hipótese à tese da proposição de forma lógica, organizada e direta. As demonstrações oferecidas pelo sistema são as mesmas desenvolvidas por Euclides e referem-se aos Fundamentos da Geometria Plana. São demonstrações que priorizam e valorizam a utilização de objetos geométricos no seu desenvolvimento, fugindo das demonstrações que apelam para a simples manipulação algébrica e que não oferecem uma construção significativa do ponto de vista da Geometria. Porém, mesmo sendo consideradas apenas as demonstrações contidas em Elements, todos os diferentes raciocínios para uma mesma demonstração são aceitos pelo sistema, dando liberdade ao aprendiz no processo de construção da demonstração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar o desenvolvimento de um modelo computacional, baseado no método dos elementos finitos, para o estudo de estruturas de concreto armado e protendido, sob estados planos de tensão. O modelo computacional utiliza dois procedimentos distintos, baseados em um modelo elasto-viscoplástico. No primeiro, determina-se a resposta da estrutura ao longo do tempo. Considera-se, nesta etapa, que o material possui comportamento viscoelástico. No segundo, busca-se a resposta da estrutura para um carregamento instantâneo, considerando-se o material com um comportamento elastoplástico. Um modelo de camadas superpostas é adotado para melhor representar o comportamento viscoelástico do concreto e da armadura protendida, onde estes materiais são compostos de diversas camadas que sofrem a mesma deformação. Cada camada possui diferentes propriedades mecânicas e a tensão total é obtida pela soma das diferentes contribuições de cada camada. Para representar o concreto fissurado, utiliza-se um modelo de fissuras distribuídas, que leva em conta a contribuição do concreto entre fissuras. Tanto a armadura passiva quanto a armadura de protensão são introduzidas no modelo como uma linha de material mais rígido dentro do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Desta forma, as matrizes de rigidez das armaduras têm as mesmas dimensões das matrizes de rigidez dos elementos de concreto e ambas são somadas para a obtenção das matrizes de rigidez totais. Para verificar a precisão do modelo computacional, compararam-se resultados numéricos com valores experimentais disponíveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho é dedicado ao estudo de métodos de simulação para ciclos de Rankine. O trabalho é iniciado com a modelagem de um ciclo de Rankine simples e segue evoluindo para configurações mais complexas tal como o ciclo de Rankine com reaquecimento e regeneração. São adotadas as considerações mais convencionais da prática de projeto de centrais termelétricas cujos sistema térmicos baseiam-se no ciclo de Rankine, incluindo-se queda de pressão em tubulações do circuito além de outras perdas. Em seguida, são estabelecidas as expressões matemáticas que possibilitam a determinação das propriedades termodinâmicas da água em seus mais diversos estados ao longo do ciclo. Por último, são desenvolvidos métodos de simulação, chamados neste trabalho de Substituição Sucessiva e Bloco Único, que caracterizam-se pela resolução simultânea do conjunto de equações algébricas dos ciclos elaborados. As simulações são efetuadas através de programas escritos na linguagem Fortran. Os métodos de simulação são aplicados para a obtenção dos resultados considerados mais importantes na análise de sistemas térmicos de potência, tais como rendimento térmico do ciclo, título na saída da turbina, vazões mássicas pelo sistema, potência nas bombas e calor trocado no gerador de vapor e no condensador Na maioria das simulações, estes resultados apresentam-se como funções da: (1) potência elétrica requerida, eficiência isentrópica e pressões na turbina; (2) eficiência térmica, pressão e temperatura no gerador de vapor; (3) pressão e grau de subresfriamento do líquido saturado no condensador e (4) eficiência isentrópica das bombas. São obtidos os mesmos resultados para os métodos de simulação utilizados. O método da Substituição Sucessiva apresentou menor tempo computacional, principalmente para configurações de ciclo mais complexas. Uma aplicação alternativa do método de Bloco Único demonstrou ser inconveniente para ciclos de configurações mais complexas devido ao elevado tempo computacional, quando todas as equações de cálculo das propriedades termodinâmicas são incluídas no sistema de equações a ser resolvido. Melhores rendimentos térmicos e título na saída da turbina foram obtidos para configurações de ciclo de Rankine com reaquecimento e regeneração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.