883 resultados para Viscosidade e simulação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O perfeito entendimento de deslizamentos de terra tem sido objeto de grande interesse na engenharia geotécnica há muitos anos. Encostas naturais representam um desafio constante para os engenheiros, mais do que os taludes artificiais. Não é incomum que os escorregamentos causam perdas de vidas humanas e também danos materiais. As informações obtidas a partir de retro-análise de casos históricos, têm servido como uma ferramenta valiosa para a compreensão da estabilidade de taludes. Vale a pena notar que o primeiro método de cálculo de estabilidade de taludes, usando divisão de fatia, foi desenvolvido após um acidente na Noruega. Métodos de estabilidade por Equilíbrio Limite, desenvolvidos no século passado são atualmente utilizados na prática da engenharia. Apesar de suas deficiências, eles provaram ser confiáveis na determinação do Fator de Segurança. A geometria 2D e a abordagem completa da condição saturada são provavelmente as questões mais relevantes dos métodos atuais. A condição do solo não saturado está geralmente presente em taludes naturais e os métodos ignoram a influência da sucção do solo sobre a estabilidade do talude. O desenvolvimento de computadores no meio do século passado, tornaram os cálculos Equilíbrio Limite fáceis de serem executados. Por outro lado, eles não podem explicar a natureza do problema ou prever o comportamento do solo antes da ruptura. A década de 1960 marcou o início do desenvolvimento de programas de computador baseados em métodos numéricos que, entre outros, destaca-se, em geotecnia, a aplicação dos métodos de Elementos Finitos (FEM). Este método é ideal para muitos fins, uma vez que permite a simulação da sequência de construção e também a incorporação de diferentes modelos constitutivos. Este trabalho mostra a influência da sucção sobre a estabilidade de encostas naturais. Uma retroanálise de um escorregamento no Morro dos Cabritos, no Rio de Janeiro, foi feita através de um programa de análise de tensão (Plaxis 2D). Os resultados foram comparados com o FS obtido por programa de Equilíbrio Limite (Slide v5). O efeito de sucção do solo foi incorporada nas análises, através de sua influência sobre os parâmetros de resistência do solo e por diferentes possibilidades de infiltração de água na encosta. Este caso histórico foi estudado anteriormente por Gerscovich (1994), que na época, fez analise de fluxo e estabilidade utilizando um abordagem de Equilíbrio Limite 3D. Os resultados mostraram boa concordância entre a análise de Elementos Finitos e a simulação de Equilíbrio Limite, sem a presença de nível de água. Os resultados confirmaram que foi necessário haver pressões positivas para explicar a ruptura do talude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo a análise do comportamento dos aterros instrumentados que compõem a obra do Arco Metropolitano do Rio de Janeiro. Os resultados da instrumentação de campo serão discutidos e retroanalisados, juntamente com dados disponíveis na literatura, buscando-se a definição de parâmetros confiáveis, representativos do comportamento da argila compressível da região em estudo. O Arco Metropolitano do Rio de Janeiro é uma rodovia projetada que servirá como ligação entre as 5 principais rodovias que cortam o município do Rio de Janeiro. Dada a magnitude da obra e a ocorrência de significativas espessuras de solos moles em alguns trechos da região, determinados aterros que compõem a rodovia foram instrumentados com placas de recalque e inclinômetros, instalados em diferentes estações de monitoramento, no intuito de avaliar os deslocamentos verticais e horizontais dos aterros durante o processo construtivo. De posse de parâmetros confiáveis, procede-se à simulação numérica do processo construtivo de um dos aterros, a partir do programa PLAXIS, de elementos finitos. Os resultados numéricos são confrontados com a instrumentação de campo (fornecida por placas de recalque) e com os resultados de previsões teóricas (teoria de adensamento unidimensional). Em projetos de aterros sobre solos compressíveis, a instrumentação geotécnica é de grande importância, pois permite acompanhar o desenvolvimento de todo o processo construtivo, e as deformações decorrentes da sobrecarga imposta pelo lançamento de camadas de aterro. A imposição de um carregamento sobre solos de alta compressibilidade e baixa resistência pode acarretar em grandes deformações ao longo do tempo, além de rupturas indesejáveis do solo de fundação. Os resultados comprovaram que a modelagem numérica mostrou-se uma ferramenta adequada para a previsão dos recalques totais e tempos de adensamento. A definição de parâmetros representativos, com base em ensaios executados em amostras de boa qualidade, é o primeiro passo para a previsão coerente da evolução dos recalques com o tempo. A retroanálise do comportamento de aterros sobre solos moles permite a reavaliação das premissas de projeto, uma vez que as limitações das teorias de análise e a dificuldade na seleção de parâmetros, muitas vezes acarretam em estimativas de recalque incoerentes com as observações de campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo tem como objetivo geral avaliar a razão de custo-utilidade do tratamento da infecção pelo vírus da hepatite C (VHC) em pacientes dialisados, candidatos a transplante renal, tendo como esquemas terapêuticos alternativos o interferon-_ em monoterapia; o interferon peguilado em monoterapia; o interferon-_ em terapia combinada com ribavirina e o interferon peguilado em terapia combinada com ribavirina, comparando-os com o nãotratamento. A perspectiva do estudo foi a do Sistema Único de Saúde(SUS), que também serviu de base para estimar o impacto orçamentário da estratégia de tratamento mais custo efetiva. Para o alcance dos objetivos, foi construído um modelo de Makov para simulação de custos e resultados de cada estratégia avaliada. Para subsidiar o modelo, foi realizada uma revisão de literatura, a fim de definir os estados de saúde relacionados à infecção pelo vírus da hepatite C em transplantados e a probabilidade de transição entre os estados. Medidas de utilidade foram derivadas de consultas a especialistas. Os custos foram derivados da tabela de procedimentos do SUS. Os resultados do estudo demonstraram que o tratamento da infecção pelo VHC antes do transplante renal é mais custo-efetivo que o não tratamento, apontando o interferon-a como a melhor opção. O impacto orçamentário para adoção dessa estratégia pelo SUS corresponde a 0,3% do valor despendido pelo SUS com terapia renal substitutiva ao longo do ano de 2007.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Adaptada dos conceitos da produção enxuta, a construção enxuta é uma filosofia de gestão da produção voltada à construção civil. Dos cinco princípios enxutos em que se baseia, o que mais tem se estudado desde a publicação do Relatório Técnico n72 Aplicação da Nova Filosofia de Produção à Construção (publicado pelo CIFE Center for Integrated Facility Engineering, ligado à Universidade de Stanford, EUA) é o Fluxo Contínuo. A idéia de manter o fluxo contínuo está diretamente ligada à continuidade da produtividade, ou seja, manter a produtividade em uma taxa constante. Aplicar o conceito enxuto de fluxo contínuo através da manutenção das taxas de produtividade significa gerenciar o empreendimento de modo que a execução das atividades se mantenha de acordo com os parâmetros estabelecidos durante a fase de planejamento. Por meio de ferramentas enxutas de gerenciamento é feita a simulação em Excel de três atividades pertencentes ao processo de execução de lajes prediais de edifícios construídos em estruturas metálicas: steel deck, armação e concretagem. A elaboração da planilha possibilita a avaliação das perdas ocorridas durante a execução das atividades sob a ótica do conceito de atrasos e esperas. A soma destas perdas resulta ainda em dois efeitos distintos considerados como perdas acumuladas e perdas compensadas, proporcionando ao gerente do empreendimento dados consistentes para traçar estratégicas para eliminação do desperdício ou uma antevisão dos desperdícios que podem estar associados à execução das atividades se estas forem mal planejadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma modelagem matemática para o processo de aquecimento de um corpo exposto a uma fonte pontual de radiação térmica. O resultado original que permite a solução exata de uma equação diferencial parcial não linear a partir de uma seqüência de problemas lineares também é apresentado. Gráficos gerados com resultados obtidos pelo método de diferenças finitas ilustram a solução do problema proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é a aplicação de um Planejamento Fatorial Completo, ferramenta estatística que auxiliará a obter dados empíricos para otimizar um tratamento termoquímico, a cementação. Partindo-se de um levantamento da profundidade de camada cementada e da dureza de uma corrente de aço de baixo teor de carbono, usada para amarração, e para resistir à abrasão reproduziu-se uma nova cementação, variando-se seus parâmetros de influência, para se alcançar o ponto ótimo, definindo o melhor aço e o melhor processo. Foram realizados dois planejamentos, um fatorial 2 e dois 2, comparando o comportamento do processo na prática em relação aos resultados teóricos de uma simulação computacional, que permite a obtenção das curvas de enriquecimento de carbono, baseado na segunda Lei de Fick, para várias condições de contorno. Os perfis teóricos de cementação apresentaram valores de profundidade efetiva próximos aos valores obtidos experimentalmente, evidenciando o planejamento realizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As mudanças nos hábitos alimentares têm causado efeitos impressionantes na saúde pública, diretamente relacionados ao aumento da ingestão de refeições ricas em gorduras, principalmente gorduras saturadas. A principal consequência desse consumo é o estado prolongado e excessivo da lipemia pós-prandial (LPP), considerada um dos fatores relacionados às anormalidades metabólicas e aos danos vasculares. O objetivo do estudo foiavaliar o efeito da sobrecarga lipídica na reatividade microvascular em mulheres obesas. Das 41 participantes deste estudo, 21 apresentavam o diagnóstico de obesidade, com IMC de 32,41,6 kg/m2 (média SD) e idade 31,65 anos e 20 mulheres saudáveis, com IMC de 21,91,7 kg/m2 e idade 27,25,5 anos. Após a avaliação clínica e laboratorial, as participantes tiveram a microcirculação examinada por dois métodos: a dinâmica do leito periungueal, para avaliação da densidade capilar funcional (DCF), velocidade de deslocamento das hemácias no basal (VDH) e após uma isquemia de 1 min (VDHmax) e tempo de reperfusão (TVDHmax). A segunda técnica foi a do dorso do dedo para avaliação da DCF no repouso, durante a hiperemia reativa e após oclusão venosa. Foi feita a coleta de sangue para avaliação do colesterol total (CT), triglicerídeos (TG), HDL-c e ácidos graxos livres (AGL), glicose, insulina e viscosidade plasmática em 30 e 50 rotações por minuto (rpm). Também foram medidas a pressão arterial sistólica (PAS), diastólica (PAD) e frequência cardíaca (FC). Após essas análises no repouso, todas as participantes receberam uma refeição rica em lipídios, e após 30, 60, 120 e 180 minutos da ingestão da refeição, os exames de videocapilaroscopia e a coleta de sangue foram novamente realizados.As participantes com obesidade apresentaram, após a sobrecarga lipídica, valores significativamente menores do que no jejum para: DCF basal do dorso do dedo (p=0,02); DCF durante hiperemia reativa (p=0,02), DCF pós-oclusão venosa (p=0,02), HDL-c (p<0,0001), LDL-C (p<0,0001) e AGL (p<0,0001) e valores elevados para: VDH (p<0,0001), VDHmax(p=0,003), TVDHmax (p=0,004), glicose (p<0,0001), insulina (p<0,001), CT (p=0,03), TG (p<0,0001) e FC (p=0,03). Alterações na viscosidade não foram observadas no grupo OB após a refeição quando comparado aos seus valores basais em 30 e 50 rpm (p=0,87 e p=0,42, respectivamente). A PAS foi elevada nas participantes OB após a sobrecarga quando comparada às saudáveis em todo tempo de estudo. Concluímos que alimentos ricos em lipídios podem aumentar ainda mais a disfunção microcirculatória e as alterações metabólicas já presentes em mulheres obesas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O zoneamento agroecológico (ZAE) pode ser um instrumento efetivo de ordenamento territorial setorial rural. Suas diretrizes e suas orientações técnicas podem compor os fatores exploratórios de modelos de mudança de uso e cobertura da terra. No Brasil, via de regra, utiliza-se o zoneamento econômico-ecológico (ZEE) como um instrumento de ordenamento territorial e o ZAE é aplicado com o objetivo de fornecer subsídios para o planejamento do uso agrícola das terras, limitando-se, grosso modo, à indicação de sistemas agrícolas e agropecuários potenciais e sustentáveis adaptados ao clima e ao solo. Um ZAE que fomentou políticas de ordenamento territorial setorial rural foi o Zoneamento Agroecológico da Cana-de-açúcar (ZAE-Cana), de 2009, ordenando a expansão da área plantada com cana-de-açúcar para a indústria sucroalcooleira no território brasileiro. Esta tese discute as diferenças de método na elaboração de suas diretrizes e de suas orientações técnicas que permitiram considerar as dimensões social e política e verifica se esse ZAE extrapolou a aplicação de indicativo de áreas potenciais e passou a fomentar políticas públicas de ordenamento da expansão da área plantada com cana-de-açúcar para a indústria sucroalcooleira no território brasileiro. O estudo permitiu concluir que o ZAE-Cana é utilizado como um instrumento efetivo de ordenamento territorial para setor rural por ter incluído as dimensões social e política nas etapas de definição das diretrizes, na validação das análises e na elaboração das orientações técnicas, ou seja, em todas as fases do zoneamento. Em um segundo momento elaborou-se um estudo da aplicação das diretrizes e das orientações técnicas do ZAE como parâmetros para a modelagem de uso e cobertura da terra. Observou-se a correlação das variáveis advindas do ZAE-Cana com os usos e coberturas da terra de 2003 e de 2009 para os estados de Goiás e de São Paulo e aplicou-se o modelo Conversion of Land Use and its Effects at Small regional extent (CLUE-S) no estado de Goiás de 2003 a 2009 (validação) e de 2009 a 2025 (simulação) para verificar o uso dessas variáveis no processo de modelagem, o que permitiu concluir que é viável a aplicação das diretrizes, das orientações técnicas e de outras informações conseguidas durante a elaboração dos zoneamentos agroecológicos em modelos de mudança de uso e cobertura da terra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem matemática e computacional é uma ferramenta que tem sido bastante utilizada no campo da Biologia e das Ciências Biomédicas. Nos dias de hoje, uma quantidade significativa de dados experimentais nessa área pode ser encontrada na literatura, tornando possível o desenvolvimento de modelos que combinem a experimentação e hipóteses teóricas. O objetivo do presente projeto é implementar um modelo matemático de transmissão sináptica conectando neurônios em um circuito de descargas repetitivas ou reverberativo, a fim de investigar o seu comportamento diante de variações paramétricas. Através de simulações computacionais, utilizando um programa desenvolvido em linguagem C++, pretende-se utilizá-lo para simular um circuito de memória imediata. Afora o considerável avanço da Neurofisiologia e Neurociência computacional no sentido do entendimento das características fisiológicas e comportamentais das habilidades do Sistema Nervoso Central, muitos mecanismos neuronais ainda permanecem completamente obscuros. Ainda não se conhece definitivamente o mecanismo pelo qual o cérebro adquire, armazena e evoca as informações. Porém, o postulado de Hebb referente às redes reverberantes, onde a idéia de que redes de reverberação facilitariam a associação de dados coincidentes entre informações sensoriais, temporalmente divergentes, tem sido aceito para explicar a formação de memória imediata (Johnson et al., 2009). Assim, com base no postulado de Hebb, os resultados observados no modelo neuromatemático-computacional adotado possuem características de um circuito de memória imediata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação propõe uma abordagem alternativa na simulação matemática de um cenário preocupante em ecologia: o controle de pragas nocivas a uma dada lavoura de soja em uma específica região geográfica. O instrumental teórico empregado é a teoria dos jogos, de forma a acoplar ferramentas da matemática discreta à análise e solução de problemas de valor inicial em equações diferenciais, mais especificamente, as chamadas equações de dinâmica populacional de Lotka-Volterra com competição. Essas equações, que modelam o comportamento predador-presa, possuem, com os parâmetros inicialmente utilizados, um ponto de equilíbrio mais alto que o desejado no contexto agrícola sob exame, resultando na necessidade de utilização da teoria do controle ótimo. O esquema desenvolvido neste trabalho conduz a ferramentas suficientemente simples, de forma a tornar viável o seu uso em situações reais. Os dados utilizados para o tratamento do problema que conduziu a esta pesquisa interdisciplinar foram coletados de material bibliográfico da Empresa Brasileira de Pesquisa Agropecuária EMBRAPA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura