965 resultados para dinâmica dos fluidos computacional
Resumo:
O presente trabalho relata a parametrização do modelo de contínuo IEF-PCM para o estudo da solvatação de ânions monovalentes em acetonitrila e N,N-dimetilformamida. Nós propomos duas metodologias de parametrização do modelo de contínuo polarizável para este estudo teórico. A primeira proposta é baseada unicamente no cálculo do termo eletrostático da energia livre e na equiparação deste termo com a energia livre de solvatação experimental. Na segunda proposta de metodologia, a parametrização do modelo de contínuo polarizável foi realizada com o auxílio das simulações de dinâmica molecular e dentro desta segunda proposta nós calculamos todos os termos que contribuem para a energia livre de solvatação, a energia de cavitação. a energia eletrostática e a energia de van der Waals. Com a aplicação da primeira metodologia, é obtido um erro médio absoluto de 2,1 kcal/mol nas energias de solvatação dos ânions em acetonitrila enquanto que o erro médio absoluto calculado para energias de solvatação dos ânions em N,N-dimetilformamida é 2,8 kcal/mol. A aplicação da segunda metodologia resulta num erro médio absoluto de 1,4 kcal/mol nas energias de solvatação dos ânions em acetonitrila e um erro médio absoluto de 1,2 kcal/mol nas energias de solvatação calculadas para os ânions em N,N-dimetilformamida. Estes resultados indicam que o modelo de contínuo polarizável IEF-PCM é adequado para o estudo dos efeitos termodinâmicos nas soluções de ânions nos solventes acetonitrila e N,N-dimetilformamida.
Resumo:
Este estudo tem por objetivo verificar a evolução da abertura de agências bancárias no Brasil e em específico de dois grandes bancos privados brasileiros ao longo dos anos de 1991 a 2012 e entender sua relação, seja ela de curto, médio e/ou longo prazo, com a evolução tecnológica no país, a fim de observar a correlação entre esses dois ritmos, por meio de uma regressão entre as variáveis em estudo. O que se espera inferir aqui é uma relação crescente, porém em velocidades distintas tendo em vista o grande avanço tecnológico vivenciado nos últimos 10 anos. Ao olhar as séries dos dois grandes bancos em específico, pretende-se, por meio de um teste de cointegração em séries de tempos, caracterizar um modelo explicativo da competição por posições no mercado e consequente disputa pela liderança em participação de agências. Por fim, com base nos dados de quantitativo de agências e lucratividade do Sistema Financeiro Nacional e dos dois grandes bancos estudados, pretende-se observar a relação desse ritmo (taxa de crescimento da abertura de agências) com o retorno obtido em termos de lucro por agência, seu principal ponto de venda. Ao criar estes indicadores comparativos espera-se verificar evidências a respeito de lucratividade em bancos para a configuração sugerida no Paradigma da Eficiência . O crescente uso de internet está modificando um importante traço de comportamento dos clientes potenciais que influencia sua maneira de se relacionar com os serviços financeiros e, essa dinâmica estratégica, pode servir de referência para o desenvolvimento de um novo padrão de “estabelecimento bancário”.
Resumo:
Conhecer melhor alguns dos condicionantes do processo de urbanização, seu ritmo sua natureza, é instrumento básico para a atuação do administrador e planejador urbano. Cabe a este conjunto de profissionais, a tarefa de compatibilizar as diretrizes de desenvolvimento físico-espacial com a estratégica econômica dominante, a fim de poder instrumentar e implementar as intervenções sobre o meio urbano. O objetivo geral do trabalho é buscar uma melhor compreensão do funcionamento do mercado imobiliário e do processo de valorização fundiária, face a introdução de um fator polarizador de atração do investimento público na forma de um serviço.
Resumo:
A presente dissertação estabelece paralelos entre a Teoria Administrativa e as instituições financeiras. Aborda a evolução do Sistema Financeiro Nacional, destacando relações de causa e efeito que contribuíram para o seu perfil atual. Identifica, descreve e relaciona políticas monetárias, produtos bancários e comportamentos adaptativos e/ ou estratégias de diversas instituições do sistema financeiro do País. Indica perspectivas e tendências para as instituições financeiras.
Resumo:
A crescente valorização imobiliária das áreas urbanas, que força acréscimos na altura dos edifícios, associada ao desenvolvimento de materiais mais resistentes e técnicas construtivas modernas, que promovem uma tendência ao projeto de estruturas mais esbeltas e flexíveis, formam um cenário propício à ocorrência de problemas associados à resposta dinâmica frente à ação do vento, principalmente à parte flutuante decorrente da turbulência atmosférica.A experiência tem mostrado que o engenheiro estruturalista comum tem pouco ou nenhum conhecimento sobre os efeitos dinâmicos do vento e as conseqüências da vizinhança sobre este carregamento. Por estas razões justifica-se todo o esforço feito no sentido de se estudar, divulgar e tornar mais acessíveis os métodos disponíveis para análise da resposta estrutura à ação dinâmica do vento e os efeitos de vizinhança. Este é o objetivo central do trabalho de dissertação aqui proposto, consiste no estudo crítico, na aplicação prática e na comparação de métodos disponíveis de análise, quais sejam: a Norma Brasileira NBR – 6123, a sua análise estática e dinâmica (Capítulo 9), a Norma Canadense NBCC (1985). Como parte do trabalho foram realizadas análises estruturais detalhadas com programas de elementos finitos, bem como práticas experimentais sobre modelos rígidos no Túnel de Vento Prof. Joaquim Blessmann (TV-2) da UFRGS. Os resultados obtidos através da instrumentação dos modelos ensaiados em túnel de vento foram aplicados às prescrições das normas aqui estudadas. As respostas assim obtidas comparadas com as oriundas da aplicação das recomendações padrão destas normas foram avaliadas comparativamente. Sendo possível concluir que os resultados determinados através das prescrições da norma brasileira de vento apresentaram-se mais consistentes que os da norma canadense. Mesmo assim, alguns pontos necessitam de um estudo maior e mais aprofundado principalmente as considerações referentes à torção, que se mostraram na maioria das vezes contra a segurança, além do efeito da vizinhança que, muitas vezes, causa efeitos imprevisíveis sobre a edificação.
Resumo:
As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.
Resumo:
O trabalho foi conduzido na EEA/UFRGS em 2003. O objetivo foi avaliar a eficiência do disco medidor de forragem, do bastão graduado e do medidor de capacitância em predizer a massa de forragem de azevém bem como o de avaliar as diferenças nas variáveis morfogênicas (taxa de elongação de folhas, taxa de surgimento de folhas, tempo de vida da folha) e estruturais da pastagem (numero de folhas verdes, comprimento de folhas e densidade de perfilhos) pela técnica de perfilhos marcados em função dos tratamentos adotados (intensidades e métodos de pastejo). Para determinar a eficiência dos instrumentos foram realizados dois experimentos: o experimento 1 avaliandose a eficiência do disco, bastão e medidor de capacitância em predizer a massa de forragem da pastagem na fase de estabelecimento num delineamento completamente casualizado com 32 repetições e três tratamentos e o experimento 2 avaliando-se a eficiência do disco medidor e do bastão graduado como preditores da massa de forragem sob lotação rotacionada em duas intensidades de pastejo (baixa e moderada) definidas por ofertas de forragem representando, respectivamente, 2,5 ou 5,0 vezes o potencial de consumo dos cordeiros num delineamento em blocos casualizados em arranjo fatorial com quatro repetições. Para determinar as variáveis morfogênicas, estruturais e o fluxo de tecidos os tratamentos foram duas intensidades (baixa e moderada) e dois métodos de pastejo (pastejo com lotação contínua e rotacionada). No experimento 1 o bastão graduado apresentou a melhor correlação com a massa de forragem (r2=0,65). No 2 as melhores correlações foram obtidas quando avaliadas as faixas de pós-pastejo para o disco medidor (r2=0,47) e as de pré-pastejo para o bastão graduado (r2=0,36). Para as variáveis morfogênicas e estruturais as intensidades de pastejo foram responsáveis por diferenças na taxa de elongação de folhas (intensidade baixa resultou em maior taxa de elongação) e nas características estruturais (intensidade baixa resultou em menor densidade de perfilhos, maior comprimento e número de folhas vivas). Os métodos de pastejo influenciaram as características morfogênicas (lotação contínua resultou em maior taxa de elongação de folhas, maior taxa de surgimento e tempo de vida das folhas no ciclo de observação I) e estruturais (lotação contínua resultou em maior densidade de perfilhos); bem como foi obtida interação com as intensidades e com os ciclos de avaliação. O fluxo de crescimento (favorecido por lotação rotacionada a baixa intensidade) e de senescência (favorecido por lotação contínua a baixa intensidade) foram afetados pelos tratamentos, enquanto que o fluxo de consumo não foi alterado pelos tratamentos.
Resumo:
Essa dissertação tem como objetivo a modelagem, implementação e a simulação de um mercado de leilão duplo artificial utilizando a abordagem multiagente. Mercado de leilão duplo permite que ofertas de compra e de venda possam ser feitas a qualquer momento e de forma contínua. As bolsas de Nova Iorque (NYSE) e de Chicago (CME) são exemplos deste tipo de leilão. Mercados artificiais são modelos que têm o objetivo de capturar as propriedades dos mercados reais para reproduzir e analisar a dinâmica do mercado através de experimentos computacionais. Assim como no mercado real, o modelo propõe que os agentes interagem entre si assincronamente em sessões de negociações contínuos. Estas últimas características do modelo são viabilizadas através do uso de técnicas e arcabouços tecnológicos que são atualmente utilizados nos mercados reais. Neste trabalho, são investigados os comportamentos do mercado artificial para diferentes grupos de agentes e parâmetros. Ao longo dos experimentos foram constatados que o volume de negociação e a volatilidade dos preços, por exemplo, são diretamente proporcionais ao orçamento dos agentes. Também foram identificados alguns fatos estilizados nas séries de preços geradas a partir do mercado artificial.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
O presente trabalho consiste na aplicação da simulação computacional como método de aprofundamento do estudo de mecanismos de leilões aplicados na alocação do direito de exploração das reservas de petróleo da camada do pré-sal. A camada do pré-sal está localizada na costa brasileira e apresenta um grande potencial em termos de reserva de óleo e gás. A função lance aplicada para os participantes criados computacionalmente foi estimada com base em dados experimentais e segue uma função exponencial. A simulação possibilita reproduzir o modelo de leilão considerando todas as características e parâmetros dos experimentos sem incorrer no custo da realização de novas sessões de leilão com participantes reais. Os leilões estudados foram o leilão de valores privados de 1° preço e o leilão de valores privados de 2° preço. Através dos resultados obtidos identificou-se que o leilão de valores privados de 1° preço é menos arriscado que o leilão de valores privados de 2° preço; no leilão com simetria, o Princípio de Equivalência de Receita é válido; a eficiência observada é menor em leilões assimétricos; o leilão de 2° preço comparado com o de 1° preço apresenta um tradeoff entre a eficiência e a receita do governo; e que considerando o aprendizado dos participantes, não se observam alterações significativas nas estatísticas analisadas à medida que os participantes se tornam mais experientes.
Resumo:
Nesta tese realizamos três trabalhos que envolvem diferentes aspectos da espectroscopia resolvida no tempo. No primeiro discutimos brevemente a teoria e as principais técnicas para a caracterização de pulsos curtos. Analisamos detalhamente uma destas técnicas e propusemos modi cações que possibilitaram o barateamento dos custos da montagem e, além disso, introduziram novas características que sanaram alguns problemas que a montagem original apresentava e que também possibilitaram uma melhor caracterização da própria técnica. Descrevemos cuidadosamente as condições que devem ser satisfeitas pela geometria dos feixes e pelos componentes da montagem para obter uma caracterização correta dos pulsos curtos. Também apresentamos o procedimento de calibração do sistema. Pulsos com diferentes tempos e funções de fase foram caracterizados e os resultados foram validados por testes de con abilidade da informação recuperada. O trabalho seguinte foi o estudo da dinâmica molecular em líquidos puros e em misturas através da técnica efeito Kerr óptico resolvido no tempo, que é uma técnica do tipo bombeio e prova não ressonante, usando um sistema laser Ti:Sa ra com pulsos de 170 fs, centrados em 800 nm. As moléculas estudadas foram o dissulfeto de carbono (CS2), benzeno (C6H6), alilbenzeno (C9H10) e o poliestireno (PS). A teoria necessária para descrever os resultados medidos foi desenvolvida no regime temporal. O modelo de Debye para a relaxação difusiva da anisotropia orientacional descreve a componente de tempos longa, acima de um picosegundo. Partindo do Hamiltoniano de interação, desenvolvemos a teoria da função resposta linear, chegando a uma expressão para a relaxação da polarizabilidade anisotrópica, necessária para descrever os tempos curtos (subpicosegundos). Além disso, a passagem para o regime espectral utilizando somente dados experimentais, ou seja, sem a necessidade de levar em conta modelos especí cos, também foi discutida. Os resultados mostram que os tempos difusivos tanto nos líquidos puros quanto nas misturas seguem a equação de Debye-Stokes-Einstein que prevê um aumento deste tempo para viscosidades maiores. Os tempos curtos são analisados em termos da componente não difusiva da resposta espectral associada à dinâmica molecular. As alterações do espectro foram quanti cadas e a explicação para as mudanças observadas foi dada em termos das con gurações estruturais de interação que levam a uma alteração do potencial intermolecular dentro do qual as moléculas executam movimentos libracionais. Por último, investigamos a questão do modelamento de pulsos de luz incoerente. Para isto trabalhamos com um laser de corante banda larga sem elemento de seleção espectral intracavidade. A técnica utilizada foi o espalhamento forçado de luz ao qual foi acoplado um modelador composto por uma grade, uma lente e uma máscara que alterava a função de fase espectral relativa entre os feixes formadores da grade transiente na amostra de interesse. Realizamos uma análise detalhada desta montagem e obtivemos expressões para ajustar os dados medidos. Os resultados mostram que a função de correlação pode ser alterada de forma especí ca através da escolha de determinadas funções de fase espectrais.
Resumo:
Este trabalho analisa a importância dos fatores comuns na evolução recente dos preços dos metais no período entre 1995 e 2013. Para isso, estimam-se modelos cointegrados de VAR e também um modelo de fator dinâmico bayesiano. Dado o efeito da financeirização das commodities, DFM pode capturar efeitos dinâmicos comuns a todas as commodities. Além disso, os dados em painel são aplicados para usar toda a heterogeneidade entre as commodities durante o período de análise. Nossos resultados mostram que a taxa de juros, taxa efetiva do dólar americano e também os dados de consumo têm efeito permanente nos preços das commodities. Observa-se ainda a existência de um fator dinâmico comum significativo para a maioria dos preços das commodities metálicas, que tornou-se recentemente mais importante na evolução dos preços das commodities.
Resumo:
As técnicas de fluorimetria, condutometria, viscosimetria, turbidimetria, espalhamento de luz e espalhamento de raios-X a baixo ângulo (SAXS) foram empregadas no estudo da agregação de diferentes surfactantes aniônicos em presença de soluções aquosas diluídas de (hidroxipropil)celulose (HPC) 0,25% m/m, (hidroxipropilmetil)celulose (HPMC) 0,20% m/m e HPMC 0,10% m/m / NaCl 0,10 mol L-1. Também foram investigadas através de SAXS soluções concentradas de HPC (30, 40 e 50% m/m). Admitindo-se uma faixa geral de concentração, entre 10-4 e 10-1 mol L-1, foram utilizados neste estudo os surfactantes colato de sódio (CS), deoxicolato de sódio (DC), derivados dos sais biliares, e o alquilsintético dodecilsulafato de sódio (SDS). Observou-se que os polímeros contribuem diferentemente no processo de agregação de cada surfactante, evidenciado pela mudança dos valores da concentração de agregação crítica (CAC) em relação à concentração micelar crítica (CMC). Os resultados condutométricos confirmaram a interação éteres de celulose/sais biliares, embora a mesma tenha se mostrado mais fraca em relação a éteres de celulose/SDS. Os dados termodinâmicos demonstraram que a formação de agregados polímero/surfactante apresenta maior estabilidade do que as próprias micelas livres. Os resultados de viscosimetria e turbidimetria evidenciaram as diferenças estruturais entre HPC e HPMC, assim como entre os surfactantes. Através do espalhamento de luz dinâmico, verificou-se a existência de dois modos de correlação, rápido e lento. O primeiro é atribuído à cadeia polimérica isolada, agregados polímero/surfactante intramoleculares ou mesmo a micelas livres. Por sua vez, o modo lento relaciona-se a clusters poliméricos ou agregados polímero/surfactante intermoleculares. Adicionalmente, as curvas de distribuição dos tempos de relaxação demonstraram a influência de cada surfactante sobre a dinâmica dos polímeros. Tal influência é percebida antes mesmo da CAC, contrariando o modelo da interação polímero/surfactante proposto por Cabane. Os resultados de SAXS acusaram a formação de domínios líquido-cristalinos em xx soluções concentradas de HPC, assim como confirmaram a presença de micelas livres a altas concentrações de surfactantes nos sistemas diluídos. Em linhas gerais, os resultados indicaram a interação dos polímeros com SDS mais efetiva do que os mesmos polímeros e os sais biliares. No que tange à natureza do polímero, a HPC mostrou uma maior estabilidade na sua interação com os surfactantes do que a HPMC.
Resumo:
Os ácaros ectoparasitas Varroa destructor, que parasitam as abelhas tornaram-se um problema global. Embora seja pouco provável que estes ácaros, por si só, provoquem a mortalidade das colmeias, eles desempenham um importante papel como vetor de muitas doenças virais. E estas doenças são identificados como algumas das mais importantes razões para a Desordem do Colapso das Colônias. Os efeitos da infestação do V.destructor são distintas em diferentes partes do mundo. Maiores mortalidades de colônias têm sido relatadas em colônias de abelhas européias (AE) em países da Europa, Ásia e América do Norte. No entanto, este ácaro está presente no Brasil já por muitos anos e não existem relatos de perdas em colônias das abelhas africanizadas (AA). Estudos realizados no México mostraram que alguns comportamentos de resistência ao ácaro Varroa - especialmente o grooming e o comportamento higiênico - são diferentes em cada uma das subespécie. Poderiam então esses mecanismos explicar por que as abelhas africanizadas são menos suscetíveis à Desordem do Colapso das Colônias? A fim de responder a esta pergunta, propomos um modelo matemático baseado em equações diferenciais, com o objetivo de analisar o papel desses mecanismos de resistência na saúde geral da colônia e na capacidade da colônia para enfrentar desafios ambientais.
Resumo:
A superfamília das fosfolipases A2 (FLA2) é composta por proteínas dotadas de propriedades diferenciadas que as tornam capazes de apresentar distintas atividades biológicas, além de sua atividade catalítica. Esta diversidade funcional é intrigante devido à alta similaridade de seqüência primária e de estrutura entre essas proteínas. O principal objetivo deste trabalho é o desenvolvimento de uma metodologia para a predição de atividades biológicas específicas em FLA2 de peçonha de serpentes a partir da análise de seqüências primárias. A metodologia desenvolvida compreende: a) seleção de seqüências anotadas quanto à função ou atividade biológica que desempenham; b) detecção e validação estatística de motivos de seqüência relacionados à atividade estudada; e c) construção de Modelos Ocultos de Markov (MOMs) representando cada motivo. MOM consiste em uma modelagem estatística que tem sido aplicada com sucesso em diversas áreas onde se faz necessária a detecção e representação de padrões de informação; por sua base matemática robusta e formal, pode ser utilizada na automação deste tipo de processo. A metodologia foi testada para duas atividades de FLA2 de peçonha de serpente: neurotoxicidade e miotoxicidade. Para as FLA2 neurotóxicas, foram detectados seis motivos conservados, dos quais três foram validados estatisticamente como sendo adequados na discriminação de seqüências neurotóxicas de não neurotóxicas. Para as FLA2 miotóxicas, foram detectados seis motivos conservados, dos quais quatro foram validados. Os MOMs dos motivos validados podem ser usados na predição de atividade neurotóxica e miotóxica. As relações entre seqüência, estrutura, função e evolução das FLA2s são discutidas. Os dados obtidos foram coerentes com a hipótese apresentada por Kini (2003), da existência de diferentes sítios farmacológicos na superfície das FLA2, interagindo independente ou cooperativamente com diferentes receptores, para gerar as diversas funções biológicas observadas. Por não haver, até o momento, qualquer ferramenta automatizada para a predição de função biológica de FLA2, os resultados deste trabalho foram a base para a construção de uma ferramenta (disponível em www.cbiot.ufrgs.br/bioinfo/phospholipase) para a identificação de miotoxicidade e neurotoxicidade em FLA2.