57 resultados para matemática computacional


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste início de década, observa-se a transformação das áreas de Computação em Grade (Grid Computing) e Computação Móvel (Mobile Computing) de uma conotação de interesse emergente para outra caracterizada por uma demanda real e qualificada de produtos, serviços e pesquisas. Esta tese tem como pressuposto a identificação de que os problemas hoje abordados isoladamente nas pesquisas relativas às computações em grade, consciente do contexto e móvel, estão presentes quando da disponibilização de uma infra-estrutura de software para o cenário da Computação Pervasiva. Neste sentido, como aspecto central da sua contribuição, propõe uma solução integrada para suporte à Computação Pervasiva, implementada na forma de um middleware que visa criar e gerenciar um ambiente pervasivo, bem como promover a execução, sob este ambiente, das aplicações que expressam a semântica siga-me. Estas aplicações são, por natureza, distribuídas, móveis e adaptativas ao contexto em que seu processamento ocorre, estando disponíveis a partir de qualquer lugar, todo o tempo. O middleware proposto, denominado EXEHDA (Execution Environment for Highly Distributed Applications), é adaptativo ao contexto e baseado em serviços, sendo chamado de ISAMpe o ambiente por este disponibilizado. O EXEHDA faz parte dos esforços de pesquisa do Projeto ISAM (Infra-Estrutura de Suporte às Aplicações Móveis Distribuídas), em andamento na UFRGS. Para atender a elevada flutuação na disponibilidade dos recursos, inerente à Computação Pervasiva, o EXEHDA é estruturado em um núcleo mínimo e em serviços carregados sob demanda. Os principais serviços fornecidos estão organizados em subsistemas que gerenciam: (a) a execução distribuída; (b) a comunicação; (c) o reconhecimento do contexto; (d) a adaptação; (e) o acesso pervasivo aos recursos e serviços; (f) a descoberta e (g) o gerenciamento de recursos No EXEHDA, as condições de contexto são pró-ativamente monitoradas e o suporte à execução deve permitir que tanto a aplicação como ele próprio utilizem essas informações na gerência da adaptação de seus aspectos funcionais e não-funcionais. O mecanismo de adaptação proposto para o EXEHDA emprega uma estratégia colaborativa entre aplicação e ambiente de execução, através da qual é facultado ao programador individualizar políticas de adaptação para reger o comportamento de cada um dos componentes que constituem o software da aplicação. Aplicações tanto do domínio da Computação em Grade, quanto da Computação Pervasiva podem ser programadas e executadas sob gerenciamento do middleware proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A competição entre as empresas pela busca de mercado tem levado ao aprimoramento de suas atividades e melhorias em seus processos produtivos. Este trabalho apresenta a análise do processo produtivo de uma empresa produtora de embalagens de papelão ondulado através da técnica da simulação computacional. O simulador ProModel foi utilizado no desenvolvimento do estudo e se mostrou adequado para a modelagem do processo produtivo e geração de resultados. Com a sua capacidade de animação, criação de macros e geração de relatórios, ficou facilitado o desenvolvimento e analise de cenários. Isto permitiu que o foco do estudo ficasse sobre a análise dos resultados e simulação de cenários e não na programação para criação e rodagem do modelo de simulação. A partir da modelagem do processo real de trabalho foi possível identificar restrições de capacidades no sistema, o que levou à criação de cenários onde oportunidades de melhoria pudessem ser avaliadas. A revelação de que a parcial utilização do equipamento denominado Onduladeira, o qual gerava perdas por ociosidade nas impressoras, acabou se mostrando como o gargalo do processo produtivo é o mais indicado ponto de melhoria. Com o incremento de produtividade sobre este equipamento, definido a partir de análises dos cenários, obteve-se como resultado a utilização de 100% dos demais equipamentos do processo produtivo. Análises e comparações de resultados entre os cenários e as conclusões do estudo são apresentadas no final do trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sob a premissa de que a geometria do perfil deposicional das clinoformas pode conter informações sobre a composição textural dos sedimentos que as compõem, bem como sobre a energia da coluna d’água, foi desenvolvido um modelo computacional para a análise teórica dos fatores controladores do tipo de curvatura dos foresets das clinoformas, e, por extensão dos taludes submarinos. Um modelo análogo de suspensão dinâmica foi implementado experimentalmente com um programa em código Matlab, denominado MAXWELL, e é classificado como um modelo estratigráfico, bidimensional, analítico, determinístico, dinâmico, parcialmente dedutivo e parcialmente baseado em regras. Contém um modelo de escoamento de fluido em linhas de corrente, e trata indiretamente a tensão de cisalhamento no domínio de um sistema fechado bifásico líquido-vapor análogo, a partir a proposta de analogias entre os processos de evaporação e de suspensão de sedimentos. É uma abordagem baseada na competência de transporte do fluxo d’água, pois considera temperatura e velocidade de fluxo combinado onda-corrente como variáveis controladoras análogas da intensidade de transferência de energia. Os processos deposicionais marinhos são reduzidos a um fenômeno da superfície deposicional, que é considerada análoga a uma interface líquidovapor dentro de um sistema fechado. A equação de distribuição estatística de velocidades moleculares de Maxwell é usada para calcular a proporção de moléculas na fase líquida, considerada análoga à proporção de sedimentos depositados, bem como a proporção na fase vapor, tomada como análoga à proporção de sedimentos em suspensão. O estado energético do sistema é parametrizado por três potenciais: energia interna, como função do tamanho de grão (areia, silte ou argila); energia térmica do meio, como função da energia hidrodinâmica, e energia gravitacional, como função do declive topográfico As simulações indicam que os principais fatores controladores do perfil deposicional das clinoformas, e por extensão, dos taludes submarinos em geral, são a energia hidrodinâmica da coluna d’água e a granulometria (ou coesão) do sedimento, que podem ser consideradas dois parâmetros comutáveis, isto é, grãos grossos ou coesos podem produzir sobre a geometria das clinoformas o mesmo efeito da baixa energia hidrodinâmica, e vice-versa. Com base no fator de decaimento da energia hidrodinâmica com o aumento da batimetria, foram definidas três ordens de grandeza da intensidade da energia da coluna d’água: baixa energia (10–1), alta x energia (10-2) e muito alta energia (10-3). Com base nesse critério, foram caracterizados quatro tipos de perfis deposicionais de clinoformas: dois tipos sigmoidais e dois tipos exponenciais. Os tipos sigmoidais podem ser de alta energia ou de muito alta energia, e distinguem-se pela granulometria do sedimento e pela distribuição de declividades em relação à dimensão na direção horizontal. Os perfis de tipo exponencial podem ser tanto de baixa energia, quanto de alta energia. A subida relativa do nível do mar afeta o tipo geométrico do perfil deposicional apenas de forma indireta, a partir da retenção da fração grossa do influxo sedimentar na plataforma ou topset. Os principais fatores controladores do ângulo de declividade do perfil das clinoformas são a granulometria do sedimento, a energia hidrodinâmica, a profundidade d’água da bacia e o desvio lateral da corrente de fundo. A dedução da litofácies a partir da geometria das clinoformas parece promissora apenas para os tipos teóricos sigmoidais, que são distintos na forma e no conteúdo sedimentar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os materiais compósitos reforçados por fibras apresentam vantagens quando comparados aos materiais de construção mais tradicionais como concreto e aço. Por outro lado, devido ao fato destes materiais serem relativamente recentes no mercado, questões a respeito de sua durabilidade são ainda objeto de discussão e faz-se necessária intensa pesquisa sobre o envelhecimento dos compósitos. Como conseqüência, recentemente têm surgido inúmeros trabalhos à respeito da degradação dos compósitos considerando efeitos como temperatura, oxidação, radiação UV, condições de carregamento, etc. A maioria destas pesquisas, no entanto, são realizadas a nível de material e não são diretamente aplicáveis à situações de projeto. Desta forma, existe grande demanda por novos estudos e dados compatíveis com aplicações estruturais. Neste trabalho apresenta-se um modelo analítico-numérico adequado para, interpretação e aplicação destes dados experimentais em análise e projeto de estrutural. A formulação proposta inclui relações constitutivas elásticas anisotrópicas com envelhecimento, relações constitutivas viscoelásticas anisotrópicas com envelhecimento em termos de variáveis de estado, análise de falhas com critério de degradação ajustado à idade do material e considera-se grandes deslocamentos e pequenas deformações. As diferenças essenciais entre os processos de envelhecimento em endurecimento e amolecimento são descritos juntamente com as relações constitutivas para cada caso. Estas equações são deduzidas na forma adequada para análise numérica via método dos elementos finitos usando uma solução incremental-iterativa com consideração de efeitos pos-críticos. Vários exemplos são apresentados, incluindo análises elásticas, viscoelásticas e de falha com envelhecimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os estudos realizados sobre Unidades de Conservação, e a relação destas Unidades com a população que as habita, trataram em sua maioria dos aspectos antropo-sociológicos da questão. Visto que um aspecto essencial para uma melhor compreensão da questão das populações tradicionais e Unidades de Conservação, contudo pouco explorado, é o processo de mudanças de uso do solo nas regiões em que se inserem estas Unidades, esta pesquisa teve como pretensão preencher esta lacuna. Para tal, são analisadas as transformações de uso do solo em regiões com Unidades de Conservação ambiental e comunidades tradicionais nelas inseridas dentro da realidade brasileira, a fim de melhor compreender suas inter-relações, assim como as implicações de políticas de preservação ambiental incidentes nestas áreas. Esta análise se dá através de modelos de mudança de uso do solo, que são artifícios científicos com estrutura matemática e computacional para apoio ao Planejamento e Gestão Urbana e Regional, e que permitem a análise das causas e das conseqüências da dinâmica dos usos do solo, e quando cenários são utilizados, podem ainda dar suporte ao estabelecimento de políticas e ações de planejamento. Optou-se pela utilização de um sistema de modelagem espaço-temporal integrando um sistema de informações geográficas e um modelo de autômatos celulares como ferramenta de análise das mudanças de uso do solo, incrementado pela análise de demandas pela cadeia de Markov, e com cálculo de preferências de alocação de usos do solo através da Regressão Logística. Procede-se nesta pesquisa a uma avaliação das tendências de uso do solo no Parque Nacional do Superagui, localizado no litoral norte do Estado do Paraná, enquanto estudo de caso. As tendências de uso apresentadas entre os períodos de 1980 e 1990, período anterior à implementação da lei que transformou a área em Parque Nacional, e que poderia ser traduzida como a tendência natural destas comunidades sem a interferência das políticas, são trabalhadas com vista a demonstrar o papel da modelagem na compreensão de realidades, e fornecer embasamento para intervenções pretendidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estuda o movimento de renovação do ensino da matemática conhecido como o "movimento da matemática moderna",surgido no Brasil no inicio dos anos 60. Através do estudo da ação, do discurso e do pensamento dos protagonistas em relação com o contexto histórico em que foram produzidos e com o movimento da matemática moderna de âmbito internacional, procura explicar o alcance e as limitações desse movimento, em sua dinâmica e elaboração pedagógica. A abordagem adotada considera tanto os aspectos do movimento que o identificam com um processo mais amplo e de âmbito mundial de crescente valorização do ensino das ciências naturais e da matemática no período que sucedeu à Segunda Guerra Mundial, no qual o movimento da matemática se insere, como as especificidades do movimento relacionadas com a ação dos protagonistas e a realidade do pais. A análise do movimento como ocorreu no Brasil é feita fundamentalmente a partir da leitura de documentos produzidos durante o periodo de sua existência e de depoimentos obtidos através de entrevistas semi-estruturadas com participantes do movimento. O contexto no qual é situada essa análise inclui uma descrição breve da realidade politica, econômica e social do pais, com ênfase na realidade educacional - em particular, do ensino secundário e nos debates pedagógicos produzidos no período As modificações nas relações entre ciência e produção material no âmbito da economia capitalista são tratadas como elemento decisivo para a explicação da combinação entre esforços de governos e de educadores para a renovação e melhoria do ensino da matemática, desde os anos 50, em vários paises. O trabalho apresenta, em suas conclusões, conexões que contribuem para a clarificação de como o movimento foi marcado pelo contexto histórico em que surgiu e se desenvolveu. São enfatizadas as relações entre: o crescimento e a modernização da economia brasileira e o otimismo acerca das consequências sociais da melhoria do ensino e do desenvolvimento da ciência no pais; a expansão do ensino secundário desde os anos 30, acelerada nos anos 60, e as preocupações dos educadores acerca da eficiência e da deselitização desse ensino. O trabalho aponta, também, as conexães entre o movimento da matemática moderna e os debates sobre ensino de matemática realizados no pais antes e depois do movimento, situando-o como momento de um processo iniciado nos anos 50, anos 80, de iniciativa dos professores de matemática em torno da reflexão e renovação de sua própria prática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas, sistemas de suprimento de energia que utilizam recursos renováveis têm sido estudados e empregados como opção para o fornecimento de energia elétrica em comunidades isoladas em áreas remotas. Devido aos avanços da tecnologia fotovoltaica associada à diminuição de custos e maior conhecimento de seu desempenho, os sistemas fotovoltaicos apresentam-se como uma opção promissora. Neste trabalho apresenta-se o desenvolvimento de um programa computacional de dimensionamento e simulação de sistemas fotovoltaicos autônomos na linguagem de programação Visual Basic 5.0, chamado PVSize, capaz de propor, para uma certa configuração de sistema, o número de baterias e módulos com seu risco de déficit de energia. Este programa tem como finalidade facilitar a interação com o usuário, e poderá ser utilizado como uma ferramenta auxiliar no processo de escolha dos elementos do sistema e estabelecer a melhor configuração através de um acompanhamento anual com base horária dos parâmetros envolvidos. Estes elementos são caracterizados através da implementação de modelos matemáticos propostos por diferentes autores que descrevem o seu desempenho individual. A integração destes modelos através de uma metodologia apropriada levou ao desenvolvimento de um programa completo de dimensionamento e simulação de sistemas fotovoltaicos autônomos. O potencial energético solar é obtido a partir de informações das características climatológicas locais, utilizadas para gerar séries de dados de radiação a partir de modelos estatísticos O programa permite projetar sistemas de suprimento de energia elétrica que atenderão cargas comunitárias (iluminação pública e de escolas, bombeamento de água, refrigeração em centros de saúde, irrigação, telecomunicações, e mais) e cargas residenciais (iluminação, refrigeração, lazer, etc.) tornando-se uma ferramenta importante para o projeto de sistemas fotovoltaicos autônomos. A comparação dos valores obtidos através de PVSize e outros programas computacionais desenvolvidos por estabelecimentos conceituados na área apresentou uma ótima concordância. Desta forma fica demonstrada a adequação do PVSize para o dimensionamento e simulação de sistemas fotovoltaicos autônomos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivo: métodos antropométricos que quantifiquem as curvas da coluna vertebral e a avaliação postural a fim de realizar investigações epidemiológicas sobre o papel da postura na ocorrência das dores lombares. O propósito do estudo foi avaliar acurácia e reprodutibilidade do Sistema de Avaliação Postural Digitalizado (SAPD) para medir lordose lombar comparando com raio-x. Delineamento: transversal, com amostra consecutiva. Participantes: para medida da acurácia no grupo 1 ( T12,L3,L5) n = 16 e grupo 2 (L1,L3,L5) n= 17. Na reprodutibilidade intra e inter-avaliador n= 80. Principais Medidas: marcadores externos nos processos espinhosos das vértebras T12, L1, L3 e L5. Raio-x de perfil da coluna lombar e foto digital em perfil direito. Medida da lordose lombar no raio-x com métodos de Cobb,Centróide (CLL) e Processos Espinhosos (PE) e com o SAPD. Resultados: grupo 1, correlação entre SAPD e Cobb foi 0,803 (p<0,001), entre SAPD e CLL foi 0,642 (p=0,024), entre SAPD e a medida dos PE a correlação foi 0,917, com R2 = 0,842. No grupo 2, correlação entre SAPD e Cobb foi 0,559 (p=0,020), entre SAPD e CLL de 0,325 (p=0,302), com correlação significativa somente entre SAPD e Cobb. Entre SAPD e PE a correlação foi 0,763, com R2 = 0,583. Para reprodutibilidade interavaliador a correlação foi 0,981 (p < 0,001) e para reprodutibilidade intra-avaliador de 0.978 (p < 0,001) referente às mesmas fotografias. Reprodutibilidade intraavaliador de 0.872 (p < 0.001) e 0.956 (p<0,001) para inter-avaliador referente à fotos diferentes de um mesmo indivíduo com recolocação dos marcadores sobre a pele . Considerações Finais: O SAPD mostrou-se acurado e reprodutível para a medida da lordose lombar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A elaboração de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas desenvolvendo, simultaneamente, suas opções e decisões com relação ao mesmo. É necessário considerar a qualidade do processo de elaboração do projeto dependente de uma efetiva comunicação entre os membros da equipe. A indústria da construção civil está sendo beneficiada pelos recursos oferecidos pela tecnologia da informação como, por exemplo, os sistemas colaborativos (extranets de projeto). Estes sistemas corroboram na integração e comunicação entre os membros de um projeto. O objetivo da presente pesquisa foi a apresentação do desenvolvimento de modelo validado de ferramenta computacional projetada para complementar um sistema colaborativo pré-existente. Esta ferramenta foi denominada Sistema de Programação e Controle do Processo de Projeto (SIPROCON/PP). A finalidade do SIPROCON/PP é auxiliar no processo de tomada de decisão dos coordenadores através do monitoramento do cronograma e do fluxo do intercâmbio de informações das atividades geradoras de informações neste processo. O processo de desenvolvimento da ferramenta foi delineado em harmonia com a organização da pesquisa. Neste sentido, é assinalado o uso da prototipação e da simulação como estratégias de pesquisa, utilizados respectivamente na construção e validação do modelo da ferramenta. Ante a necessidade do experimento, foi criada uma atividade lúdica através da qual foi reproduzido o intercâmbio de informações de um processo de projeto denominada Sistemática de Simulação do Processo de Projeto (SS/PP) para validação do modelo da ferramenta. Logo, por meio do uso das simulações foram obtidos os dados correspondentes a validação da modelagem e aplicação do SIPROCON/PP e, ao mesmo tempo, necessários à conclusão da pesquisa. Diante disso, a partir da análise dos dados coletados é apontada a melhoria na qualidade do processo de elaboração do projeto considerando a formação de uma equipe equilibrada de projeto. Isso, fruto do conhecimento mais acurado do coordenador sobre o desempenho de cada projetista.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho trata do emprego do modelo de dano dúctil de Gurson e de alguns aspectos relativos a sua implementação computacional. Emprega-se como ponto de partida o programa Metafor, código de elementos finitos voltado para a simulação de problemas de conformação mecânica, contemplando portanto grandes deformações plásticas. Estudam-se alguns casos simples procurando identificar a influência de cada parâmetro do modelo de Gurson na resposta. É discutida a aplicação dos modelos de nucleação de vazios usualmente empregados em conjunto com a superfície de escoamento de Gurson em situações onde há reversão de solicitação. São propostas alterações nos modelos usuais de nucleação de forma a minorar resultados incoerentes verificados. Apresenta-se um algoritmo alternativo ao método de Newton-Raphson para a solução do sistema de equações associado à forma fraca das equações de equilíbrio, em situações onde a rigidez fica muito pequena. Tal algoritmo é implementado e testado. Um algoritmo de integração de tensões é apresentado e implementado, mostrando-se sua vantagem do ponto de vista de robustez, ou seja, obtenção da resposta correta a despeito do tamanho de incremento empregado. Também é discutido um procedimento para desconsiderar elementos que apresentem ruptura local Estudam-se problemas envolvendo geração de calor por deformação plástica em conjunto com a formulação do modelo de Gurson, mostrando que a consideração de acoplamento termo-mecânico com dano traz vantagens em algumas simulações. É discutida a implementação do modelo de Gurson sobre a versão tridimensional do Metafor, que contempla a formulação lagrangiana-euleriana arbitrária (LEA). Ao final, é feita uma simulação inicial do comportamento de espumas metálicas.