126 resultados para TERCEIRA DIMENSÃO (MODELAGEM COMPUTACIONAL) $$2larpcal


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta Tese apresenta uma análise do comportamento térmico de um sistema de aquecimento solar operando por termossifão. Neste tipo de sistema o fluido no coletor solar é circulado por convecção natural, que acontece devido à diferença de massa específica da água ao longo circuito. Nestes sistemas a vazão mássica varia ao longo do dia e do ano, dependendo, dentre outros fatores, da irradiância solar absorvida, do perfil de temperaturas da água no sistema, da geometria, do volume e do perfil de demanda de água quente. Para uma avaliação detalhada do comportamento térmico de aquecedores solares operando por termossifão foram realizados ensaios experimentais e cálculos teóricos. Os resultados dos experimentos concordaram com aqueles apresentados na literatura e sua análise fundamentou o desenvolvimento do aplicativo TermoSim, um programa de simulação computacional do comportamento térmico de sistemas de aquecimento de água com energia solar. O tratamento matemático adotado no TermoSim compreende a modelagem dos coletores solares de acordo com a teoria de Hottel-Bliss-Whillier. O reservatório térmico é modelado com estratificação térmica, convecção e condução entre as camadas. A vazão mássica é obtida a partir do balanço da quantidade de movimento no circuito. Os modelos matemáticos empregados na construção do aplicativo TermoSim foram validados através do confronto dos resultados simulados com medidas experimentais. Foi demonstrado que a utilização destes modelos é adequada e permite reproduzir com precisão o comportamento térmico dos coletores solares e do reservatório térmico. Além do programa TermoSim, foi também desenvolvido o programa TermoDim, que é uma ferramenta para o dimensionamento de sistemas de aquecimento solar, que requer apenas o conhecimento dos parâmetros geométricos do sistema, dados meteorológicos em média mensal e informação a respeito do volume de demanda. O TermoDim é apropriado para estimar o desempenho de aquecedores solares operando por termossifão com tanques verticais e horizontais. O método de dimensionamento do TermoDim é baseado na correlação para a eficiência média mensal obtida neste trabalho a partir de um grande número de simulações.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho é parte integrante de um projeto multidisciplinar cujo objetivo é construir uma ferramenta computacional capaz de simular a operação de uma Usina Termoelétrica tratando, especificamente, da câmara de reação (local da caldeira onde se desenvolve a queima do combustível). Foi desenvolvido um modelo matemático dinâmico, pseudo-homogêneo, unidimensional e, com propriedades físicas variáveis, com o objetivo de descrever a conversão do calor gerado pela combust em energia térmica, que está baseado em balanços de massa e energia. Este modelo foi implementado no simulador gPROMS e seus parâmetros foram estimados utilizando o módulo gEST deste software (método da máxima verossimilhança), com base em dados de operação da Usina e dados cinéticos de literatura. Para a simulação dinâmica da câmara de reação foi utilizado um método de integração implícita de passos múltiplos com ordem e passo variáveis. A câmara de combustão foi dividida em três zonas, sendo realizados, em cada zona, os balanços de massa e energia, adotando-se a hipótese de mistura perfeita. O modelo desenvolvido prevê o perfil de temperatura ao longo da câmara, as correntes de saída e a composição dos gases de combustão em cada zona; incluindo uma previsão aproximada da concentração dos poluentes formados, principalmente monóxido de nitrogênio e dióxido de enxofre. Os resultados apresentados mostraram que o modelo prediz satisfatoriamente a composição do gás de combustão na saída da câmara de reação e que a divisão da câmara em diferentes zonas de combustão é apropriada para avaliar a geração e o aproveitamento energético na caldeira.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A competição entre as empresas pela busca de mercado tem levado ao aprimoramento de suas atividades e melhorias em seus processos produtivos. Este trabalho apresenta a análise do processo produtivo de uma empresa produtora de embalagens de papelão ondulado através da técnica da simulação computacional. O simulador ProModel foi utilizado no desenvolvimento do estudo e se mostrou adequado para a modelagem do processo produtivo e geração de resultados. Com a sua capacidade de animação, criação de macros e geração de relatórios, ficou facilitado o desenvolvimento e analise de cenários. Isto permitiu que o foco do estudo ficasse sobre a análise dos resultados e simulação de cenários e não na programação para criação e rodagem do modelo de simulação. A partir da modelagem do processo real de trabalho foi possível identificar restrições de capacidades no sistema, o que levou à criação de cenários onde oportunidades de melhoria pudessem ser avaliadas. A revelação de que a parcial utilização do equipamento denominado Onduladeira, o qual gerava perdas por ociosidade nas impressoras, acabou se mostrando como o gargalo do processo produtivo é o mais indicado ponto de melhoria. Com o incremento de produtividade sobre este equipamento, definido a partir de análises dos cenários, obteve-se como resultado a utilização de 100% dos demais equipamentos do processo produtivo. Análises e comparações de resultados entre os cenários e as conclusões do estudo são apresentadas no final do trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A popularização da Internet e o crescimento da educação à distância tornaram possível a criação de softwares e cursos à distância, disponíveis na WWW. Atualmente, a Inteligência Artificial (IA) vem sendo utilizada para aumentar a capacidade de ambientes de educação à distância, diminuindo a desistência pela falta de estímulos externos e de interação entre colegas e professores. Este trabalho encontra-se inserido no ambiente colaborativo suportado por computador, definido no projeto “Uma Proposta de Modelo Computacional de Aprendizagem à Distância Baseada na Concepção Sócio-Interacionista de Vygotsky” chamado MACES (Multiagent Architecture for an Collaborative Educational System). Sua principal proposta, como parte do projeto do grupo, é desenvolver e implementar a interface animada do personagem para os agentes pedagógicos animados Colaborativo e Mediador que operam no ambiente de aprendizado colaborativo proposto pelo grupo. O personagem desenvolvido chama-se PAT (Pedagogical and Affective Tutor). A interface do personagem foi desenvolvida em Java, JavaScript e usa o Microsoft Agent para a movimentação. O Resin 2.1.6 (semelhante ao Tomcat que também foi usado de teste) é o compilador de servlet usado na execução de Java Servlet’s e tecnologias jsp – que monta páginas HTML dinamicamente. Esta montagem é feita no servidor e enviada para o browser do usuário. Para definir a aparência do personagem foram feitas entrevistas com pedagogas, psicólogas, psicopedagogas e idéias tiradas de entrevistas informais com profissionais que trabalham com desenho industrial, propaganda, cartoon e desenho animado. A PAT faz parte da interface do MACES e promove a comunicação entre esse ambiente e o usuário. Portanto, acredita-se que a PAT e os recursos da Inteligência artificial poderão aumentar a capacidade de ambientes de educação à distância, tornando-os mais agradáveis, assim como diminuir a desistência pela falta de estímulos externos e de interação com colegas e professores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A elaboração de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas desenvolvendo, simultaneamente, suas opções e decisões com relação ao mesmo. É necessário considerar a qualidade do processo de elaboração do projeto dependente de uma efetiva comunicação entre os membros da equipe. A indústria da construção civil está sendo beneficiada pelos recursos oferecidos pela tecnologia da informação como, por exemplo, os sistemas colaborativos (extranets de projeto). Estes sistemas corroboram na integração e comunicação entre os membros de um projeto. O objetivo da presente pesquisa foi a apresentação do desenvolvimento de modelo validado de ferramenta computacional projetada para complementar um sistema colaborativo pré-existente. Esta ferramenta foi denominada Sistema de Programação e Controle do Processo de Projeto (SIPROCON/PP). A finalidade do SIPROCON/PP é auxiliar no processo de tomada de decisão dos coordenadores através do monitoramento do cronograma e do fluxo do intercâmbio de informações das atividades geradoras de informações neste processo. O processo de desenvolvimento da ferramenta foi delineado em harmonia com a organização da pesquisa. Neste sentido, é assinalado o uso da prototipação e da simulação como estratégias de pesquisa, utilizados respectivamente na construção e validação do modelo da ferramenta. Ante a necessidade do experimento, foi criada uma atividade lúdica através da qual foi reproduzido o intercâmbio de informações de um processo de projeto denominada Sistemática de Simulação do Processo de Projeto (SS/PP) para validação do modelo da ferramenta. Logo, por meio do uso das simulações foram obtidos os dados correspondentes a validação da modelagem e aplicação do SIPROCON/PP e, ao mesmo tempo, necessários à conclusão da pesquisa. Diante disso, a partir da análise dos dados coletados é apontada a melhoria na qualidade do processo de elaboração do projeto considerando a formação de uma equipe equilibrada de projeto. Isso, fruto do conhecimento mais acurado do coordenador sobre o desempenho de cada projetista.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A atual tendência que se apresenta no cenário construtivo mundial compreende a exploração cada vez mais intensa dos espaços urbanos, através de edificações que buscam maximizar a relação área construída / espaço urbano disponível. Desta forma, a dimensão vertical dos edifícios vem tornando-se cada vez mais pronunciada. Associados a isto, o desenvolvimento de materiais mais resistentes e de peso específico reduzido, bem como o uso de técnicas construtivas mais eficientes, conduzem mais e mais a estruturas leves e flexíveis, sujeitas aos efeitos dinâmicos do vento. A eficiência, a segurança e os custos da construção estão diretamente atrelados à exatidão com que estes efeitos dinâmicos do vento são estimados e considerados no momento do projeto destas edificações. As técnicas analíticas para a sua avaliação, quando verificadas através de medições em escala real, têm se mostrado antieconômicas, uma vez que superestimam o valor das respostas, a favor da segurança. Por outro lado, o uso de técnicas experimentais, através da condução de ensaios em túnel de vento com modelos reduzidos, pode-se mostrar bastante eficiente, em termos de previsão de resultados. Essas técnicas precisam ser ainda melhoradas, de modo a incorporar o conhecimento que vem sendo gerado, acompanhando as mudanças pelas quais a Engenharia Civil vem passando. Neste contexto este trabalho se insere. Utilizando como base de conhecimento o trabalho desenvolvimento por outros pesquisadores, um dispositivo aeroelástico para ensaios de edifícios altos frente à ação dinâmica do vento é proposto, construído e testado. Os resultados dos ensaios são aqui comparados com outros estudos realizados sobre o mesmo protótipo, bem como com os procedimentos indicados pela Norma Brasileira NBR-6123/88 e pelo Supplement to the NBCC/85 do Canadá. Indicam a coerência e a viabilidade de utilização das técnicas de modelagem aqui propostas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A superfamília das fosfolipases A2 (FLA2) é composta por proteínas dotadas de propriedades diferenciadas que as tornam capazes de apresentar distintas atividades biológicas, além de sua atividade catalítica. Esta diversidade funcional é intrigante devido à alta similaridade de seqüência primária e de estrutura entre essas proteínas. O principal objetivo deste trabalho é o desenvolvimento de uma metodologia para a predição de atividades biológicas específicas em FLA2 de peçonha de serpentes a partir da análise de seqüências primárias. A metodologia desenvolvida compreende: a) seleção de seqüências anotadas quanto à função ou atividade biológica que desempenham; b) detecção e validação estatística de motivos de seqüência relacionados à atividade estudada; e c) construção de Modelos Ocultos de Markov (MOMs) representando cada motivo. MOM consiste em uma modelagem estatística que tem sido aplicada com sucesso em diversas áreas onde se faz necessária a detecção e representação de padrões de informação; por sua base matemática robusta e formal, pode ser utilizada na automação deste tipo de processo. A metodologia foi testada para duas atividades de FLA2 de peçonha de serpente: neurotoxicidade e miotoxicidade. Para as FLA2 neurotóxicas, foram detectados seis motivos conservados, dos quais três foram validados estatisticamente como sendo adequados na discriminação de seqüências neurotóxicas de não neurotóxicas. Para as FLA2 miotóxicas, foram detectados seis motivos conservados, dos quais quatro foram validados. Os MOMs dos motivos validados podem ser usados na predição de atividade neurotóxica e miotóxica. As relações entre seqüência, estrutura, função e evolução das FLA2s são discutidas. Os dados obtidos foram coerentes com a hipótese apresentada por Kini (2003), da existência de diferentes sítios farmacológicos na superfície das FLA2, interagindo independente ou cooperativamente com diferentes receptores, para gerar as diversas funções biológicas observadas. Por não haver, até o momento, qualquer ferramenta automatizada para a predição de função biológica de FLA2, os resultados deste trabalho foram a base para a construção de uma ferramenta (disponível em www.cbiot.ufrgs.br/bioinfo/phospholipase) para a identificação de miotoxicidade e neurotoxicidade em FLA2.