984 resultados para Dinâmica de carbono
Resumo:
No presente trabalho descrevemos nossos resultados relativos à investigação da dinâmica de solvatação mecânica por meio de simulações por dinâmica molecular, respeitando o regime da resposta linear, em sistemas-modelo de argônio líquido com um soluto monoatômico ou diatômico dissolvido. Estudamos sistematicamente a influência dos parâmetros moleculares dos solutos (tamanho, polarizabilidade) e da densidade frente a vários modelos de solvatação. Funções de Correlação Temporal da Energia de Solvatação foram calculadas com relação à correlações de n-corpos (n = 2; 3) distinguindo interações repulsivas e atrativas para ambos os sistemas líquidos. Também obtivemos segundas derivadas temporais dessas funções referindo-se à parcelas translacionais, rotacionais e roto-translacionais na solução do diatômico. Encontramos que funções de correlação temporal coletivas podem ser razoavelmente bem aproximadas por correlações binárias a densidades baixas e, a densidades altas, correlações ternárias tornam-se mais importantes produzindo um descorrelacionamento mais rápido das funções coletivas devido a efeitos de cancelamento parciais. As funções de correlação para interações repulsivas e atrativas exibem comportamentos dinâmicos independentes do modelo de solvatação devido a fatores de escalonamento linear que afetam apenas as amplitudes das dessas funções de correlação temporal. Em geral, os sistemas com grau de liberdade rotacional apresentam tempos de correlação mais curtos para a dinâmica coletiva e tempos de correlação mais longos para as funções binárias e ternárias. Finalmente, esse estudo mostra que os sistemas contendo o diatômico relaxam-se predominantemente por mecanismos translacionais binários em modelos de solvatação envolvendo alterações apenas na polarizabilidade do soluto, e por mecanismos rotacionais atrativos binários em modelos envolvendo alterações no comprimento de ligação.
Resumo:
A atual tendência que se apresenta no cenário construtivo mundial compreende a exploração cada vez mais intensa dos espaços urbanos, através de edificações que buscam maximizar a relação área construída / espaço urbano disponível. Desta forma, a dimensão vertical dos edifícios vem tornando-se cada vez mais pronunciada. Associados a isto, o desenvolvimento de materiais mais resistentes e de peso específico reduzido, bem como o uso de técnicas construtivas mais eficientes, conduzem mais e mais a estruturas leves e flexíveis, sujeitas aos efeitos dinâmicos do vento. A eficiência, a segurança e os custos da construção estão diretamente atrelados à exatidão com que estes efeitos dinâmicos do vento são estimados e considerados no momento do projeto destas edificações. As técnicas analíticas para a sua avaliação, quando verificadas através de medições em escala real, têm se mostrado antieconômicas, uma vez que superestimam o valor das respostas, a favor da segurança. Por outro lado, o uso de técnicas experimentais, através da condução de ensaios em túnel de vento com modelos reduzidos, pode-se mostrar bastante eficiente, em termos de previsão de resultados. Essas técnicas precisam ser ainda melhoradas, de modo a incorporar o conhecimento que vem sendo gerado, acompanhando as mudanças pelas quais a Engenharia Civil vem passando. Neste contexto este trabalho se insere. Utilizando como base de conhecimento o trabalho desenvolvimento por outros pesquisadores, um dispositivo aeroelástico para ensaios de edifícios altos frente à ação dinâmica do vento é proposto, construído e testado. Os resultados dos ensaios são aqui comparados com outros estudos realizados sobre o mesmo protótipo, bem como com os procedimentos indicados pela Norma Brasileira NBR-6123/88 e pelo Supplement to the NBCC/85 do Canadá. Indicam a coerência e a viabilidade de utilização das técnicas de modelagem aqui propostas.
Resumo:
Essa dissertação investiga como as empresas brasileiras ajustaram o nível de cash holdings durante o período da crise 2008-2009 em que o crédito de curto prazo é escasso. Utilizamos um modelo dinâmico de caixa para avaliar os principais determinantes da velocidade de ajuste do nível de cash holdings em direção ao nível ótimo, principalmente em períodos de crise quando há um aumento dos custos de ajustes em decorrência da dificuldade de acesso ao crédito bancário. Encontramos evidências empíricas que: a) o comportamento dinâmico de caixa é significativo e os custos de ajustes das empresas brasileiras são altos, impedindo o ajuste imediato para o nível ideal de caixa; b) a baixa velocidade de ajuste da estrutura de caixa é decorrente da pouca disponibilidade de crédito e do alto custo da dívida bancária; c) durante a crise, o capital de giro está positivamente relacionado ao nível de cash holdings, mas como esse recurso é escasso, há retração no capital de giro líquido; d) A falta de linha de crédito bancário que financie o crescimento das empresas, estimula a utilização da dívida de longo prazo para reter caixa e implica em uma relação negativa entre investimentos e cash holdings.
Resumo:
A realidade econômico e política brasileira e mundial, na atual década de 1980, vem apresentando uma dinâmica distinta daquela do período pós-segunda guerra mundial, entre as décadas de 1950 e 1970. No âmbito político, para citar uma única questão, temos o processo de redemocratização que ocorre na Argentina e no Brasil, trazendo incertezas e grandes disputas por parte dos vários grupos sociais, que se rearticulam em luta por maior participação e maior controle nas estruturas de poder. No âmbito técnico produtivo, a rápida evolução das novas tecnologias, como a informática, provocando mudanças nos sistemas de produção, nas relações trabalhistas e nos padrões de competição das empresas. No âmbito sócio-cultural, emergem os movimentos sociais reivindicatórios, os novos valores na esfera do trabalho, da família, da cultura e das relações sociais
Resumo:
Abordagens teóricas dominantes no campo da estratégia empresarial (PORTER, 1980; BARNEY, 1991; PISANO e TEECE, 1997), de modo geral, não consideram explicitamente o comportamento corporativo político como um componente do amplo conjunto de elementos que compõem a estrutura dos processos de formulação e implementação estratégica. A pouca ênfase dada ao papel das firmas na seara política resulta em limitações para compreensão do ambiente competitivo e, consequentemente reduz o poder explicativo de estudos que se propõem a desvendar as razões do desempenho diferenciado das organizações. Salorio, Boddewyn e Dahan (2005) reforçam tal perspectiva ao observarem que firmas são organizações econômicas na medida em que em suas transações ponderam custos, benefícios, lucros, market share, mas também, enquanto organizações precisam definir e gerenciar fronteiras, bem como diferenciar e integrar seus membros, os stakerolders e suas operações. Esse envolvimento em um mix de comportamento político-econômico de barganha e não barganha leva à definição das firmas também como organizações políticas. Apesar de tal linha de pensamento ainda ter conotação de novidade para alguns, de reciclagem de antigas ideias para outros, ou, mesmo, parecer se pautar pela tentativa de retomar questões que sempre foram tratadas de forma lateral, Salorio, Boddewyn e Dahan (2005) enfatizam que “the political is always there”. O presente projeto teve objetivo central modelar ambiente simulado para testar antecedentes da atividade política corporativa (HILLMAN, KEIM e SCHULER, 2004), e como objetivos específicos: Modelar um simulador dos ambientes de negócio e político das empresas; aplicar o simulador para gerar dados sobre os antecedentes da participação política; testar antecedentes da participação política como alternativa estratégica em resposta ao baixo desempenho das firmas, a disponibilidade de recursos e a atividade política de concorrentes; testar a interação entre antecedentes de market e nonmarket para explicar a participação política. Com relação aos objetivos, o estudo pode ser caracterizado como explicativo, e quanto aos procedimentos técnicos adotados como de laboratório. O tipo de pesquisa adotado foi o de verificação de hipóteses causais assentada em uma abordagem metodológica quantitativa, cujos dados foram coletados por meio de 12 simulações, estruturadas no formato de um business game, com nove empresas em cada simulação, totalizando 108 unidades de análise. Configuram-se como sujeitos da pesquisa alunos do último ano dos cursos de graduação em administração e economia da Universidade Estadual de Londrina. As análises dos dados foram efetuadas utilizando-se o software STATA para desenvolvimento das regressões, sendo considerado como modelo estatístico a técnica de dados em painel com efeito fixo (WOOLDRIDGE, 2003), visto que o foco do estudo é a análise das informações (decisões/desempenho) das empresas ao longo do tempo. Os resultados indicam que: a) a ineficiência da firma afeta positivamente o investimento em financiamento eleitoral; b) o investimento em ações políticas corporativas ocorre no sentido de complementação às ações de market e não em contraposição, c) a maior propensão em investir em nonmarket está relacionada com desempenho inferior ao da concorrência; d) o aumento do investimento em nonmarket não está relacionado com a ação política mais ativa por parte da concorrência. Não foram encontradas evidências de que firmas com maiores sobras de recursos são mais ativas politicamente.
Resumo:
Parâmetros renais quantitativos como depuração de Tc99m-MAG3, captação relativa, razão 20 minutos/máximo, razão 20 minutos/2-3 minutos, tempo de atividade máxima e tempo de eliminação decorrido até metade da atividade inicial são freqüentemente obtidos com a cintilografia renal dinâmica com Tc99m-MAG3 e diurético. No entanto, em raras situações estes parâmetros foram testados para avaliar sua utilidade clínica. O objetivo deste estudo foi avaliar se o fornecimento de dados qualitativos (curvas e imagens) e quantitativos a médicos nuclearistas com diferentes graus de experiência e treinamento melhora a acurácia diagnóstica da interpretação da cintilografia renal dinâmica com Tc99m-MAG3 e diurético quando comparada à interpretação do estudo baseada somente nos dados qualitativos. Métodos: Uma equipe de três especialistas em medicina nuclear renal revisou as cintilografias renais completas com Tc99m-MAG3 de 108 pacientes e classificou o estado funcional de cada rim em uma escala de 5 pontos (0 = definitivamente normal, 1 = provavelmente normal, 2 = equívoco, 3 = provavelmente anormal, 4 = definitivamente anormal). Cada rim foi avaliado para a presença ou ausência de obstrução em uma escala similar. O escore final dos especialistas se baseou em unanimidade ou maioria; se houvesse desacordo ≥ 2 pontos entre 2 especialistas, o escore final era determinado por uma leitura de consenso. O escore dos especialistas foi usado como padrão-ouro. Quatro grupos de 3 médicos com diferentes níveis de experiência e treinamento em medicina nuclear revisou cada um os 108 estudos (imagens e curvas) e classificou-os em uma escala de 5 pontos em relação à função e obstrução. Após um período de pelo menos uma semana, eles revisaram as mesmas 108 cintilografias em ordem randomizada com a adição dos dados quantitativos e novamente as classificou de acordo com uma escala de 5 pontos. Os escores dos médicos foram comparados ao padrão-ouro. A concordância dos médicos nuclearistas em relação ao consenso dos especialistas foi calculada através do coeficiente kappa ponderado. Resultados: Duzentos e dez rins foram avaliados. O coeficiente kappa ponderado entre os especialistas mostrou uma concordância excelente para função e obstrução. Para a avaliação de função, o kappa ponderado melhorou com a adição de dados quantitativos em todos os grupos, sendo mais evidente para os grupos 3 e 4. Com e sem dados quantitativos, o grupo mais experiente apresentou um valor de kappa ponderado mais elevado do que os grupos com menos experiência. Para a questão de obstrução, os dados quantitativos não melhoraram o desempenho dos médicos experientes (grupos 1 e 2), ao passo que melhoraram o desempenho geral dos médicos menos experientes (grupos 3 e 4). Conclusão: Dados quantitativos não auxiliaram em casos de diagnósticos complexos como obstrução quando o médico que estava interpretando não tinha experiência com o protocolo e com o uso de variáveis quantitativas. Para a avaliação de obstrução, houve uma variabilidade de 15 a 25% na interpretação, dependendo do médico que estava avaliando a cintilografia. Para os diagnósticos menos complexos, como função, os dados quantitativos melhoraram o desempenho dos médicos. Enfim, a análise do kappa ponderado mostrou, principalmente, que existe ainda uma diferença substancial entre a interpretação dos especialistas e a interpretação dos médicos nuclearistas com maior e menor experiência.
Resumo:
Este trabalho trata basicamente de investigar a estrutura de polarização da cidade de Porto Alegre. É proposto que a cidade constitui um sistema de diferenciação espacial primário, no qual emergem centros de comércio e serviços em espaços-chave da malha urbana - trechos lineares pertencentes às vias estruturadoras - à medida que esta cresce e se consolida, equilibrando permanentemente a equação entre núcleos de concentração e tecidos recorrentes. Os centros são definidos conceitualmente e seu processo formativo é brevemente analisado. Critérios são elencados para sua seleção e inclusão no corpo de estudo. Níveis intermediários de diferenciação interno à categoria das centralidades são então trabalhados, com base na quantificação das características da forma e das propriedades do arranjo espacial e na leitura qualitativa da dinâmica funcional. Finalmente é construído um nível final de diferenciação entre os centros, combinando os atributos espaciais quantificados, as variáveis funcionais e a própria mecânica de relacionamento entre essas duas esferas. O resultado desta combinação é denominado personalidade urbana, a qual é confrontada com um parâmetro definidor do seu caráter e papel no sistema evolutivo da cidade: o Espaço Urbano Espesso. As referências conceituais e metodológicas situam-se no campo dos estudos configuracionais urbanos, especificamente a Sintaxe Espacial, que trata de investigar a realidade urbana a partir do entendimento de que a forma física e os padrões espaciais interferem ou influenciam os demais fenômenos que manifestam-se na cidade.
Resumo:
As operações de alta frequência (High-Frequency Trading - HFT) estão crescendo cada vez mais na BOVESPA (Bolsa de Valores de São Paulo), porém seu volume ainda se encontra muito atrás do volume de operações similares realizadas em outras bolsas de relevância internacional. Este trabalho pretende criar oportunidades para futuras aplicações e pesquisas nesta área. Visando aplicações práticas, este trabalho foca na aplicação de um modelo que rege a dinâmica do livro de ordens a dados do mercado brasileiro. Tal modelo é construído com base em informações do próprio livro de ordens, apenas. Depois de construído o modelo, o mesmo é utilizado em uma simulação de uma estratégia de arbitragem estatística de alta frequência. A base de dados utilizada para a realização deste trabalho é constituída pelas ordens lançadas na BOVESPA para a ação PETR4.
Resumo:
Este estudo tem por objetivo verificar a evolução da abertura de agências bancárias no Brasil e em específico de dois grandes bancos privados brasileiros ao longo dos anos de 1991 a 2012 e entender sua relação, seja ela de curto, médio e/ou longo prazo, com a evolução tecnológica no país, a fim de observar a correlação entre esses dois ritmos, por meio de uma regressão entre as variáveis em estudo. O que se espera inferir aqui é uma relação crescente, porém em velocidades distintas tendo em vista o grande avanço tecnológico vivenciado nos últimos 10 anos. Ao olhar as séries dos dois grandes bancos em específico, pretende-se, por meio de um teste de cointegração em séries de tempos, caracterizar um modelo explicativo da competição por posições no mercado e consequente disputa pela liderança em participação de agências. Por fim, com base nos dados de quantitativo de agências e lucratividade do Sistema Financeiro Nacional e dos dois grandes bancos estudados, pretende-se observar a relação desse ritmo (taxa de crescimento da abertura de agências) com o retorno obtido em termos de lucro por agência, seu principal ponto de venda. Ao criar estes indicadores comparativos espera-se verificar evidências a respeito de lucratividade em bancos para a configuração sugerida no Paradigma da Eficiência . O crescente uso de internet está modificando um importante traço de comportamento dos clientes potenciais que influencia sua maneira de se relacionar com os serviços financeiros e, essa dinâmica estratégica, pode servir de referência para o desenvolvimento de um novo padrão de “estabelecimento bancário”.
Resumo:
Conhecer melhor alguns dos condicionantes do processo de urbanização, seu ritmo sua natureza, é instrumento básico para a atuação do administrador e planejador urbano. Cabe a este conjunto de profissionais, a tarefa de compatibilizar as diretrizes de desenvolvimento físico-espacial com a estratégica econômica dominante, a fim de poder instrumentar e implementar as intervenções sobre o meio urbano. O objetivo geral do trabalho é buscar uma melhor compreensão do funcionamento do mercado imobiliário e do processo de valorização fundiária, face a introdução de um fator polarizador de atração do investimento público na forma de um serviço.
Resumo:
A presente dissertação estabelece paralelos entre a Teoria Administrativa e as instituições financeiras. Aborda a evolução do Sistema Financeiro Nacional, destacando relações de causa e efeito que contribuíram para o seu perfil atual. Identifica, descreve e relaciona políticas monetárias, produtos bancários e comportamentos adaptativos e/ ou estratégias de diversas instituições do sistema financeiro do País. Indica perspectivas e tendências para as instituições financeiras.
Resumo:
A crescente valorização imobiliária das áreas urbanas, que força acréscimos na altura dos edifícios, associada ao desenvolvimento de materiais mais resistentes e técnicas construtivas modernas, que promovem uma tendência ao projeto de estruturas mais esbeltas e flexíveis, formam um cenário propício à ocorrência de problemas associados à resposta dinâmica frente à ação do vento, principalmente à parte flutuante decorrente da turbulência atmosférica.A experiência tem mostrado que o engenheiro estruturalista comum tem pouco ou nenhum conhecimento sobre os efeitos dinâmicos do vento e as conseqüências da vizinhança sobre este carregamento. Por estas razões justifica-se todo o esforço feito no sentido de se estudar, divulgar e tornar mais acessíveis os métodos disponíveis para análise da resposta estrutura à ação dinâmica do vento e os efeitos de vizinhança. Este é o objetivo central do trabalho de dissertação aqui proposto, consiste no estudo crítico, na aplicação prática e na comparação de métodos disponíveis de análise, quais sejam: a Norma Brasileira NBR – 6123, a sua análise estática e dinâmica (Capítulo 9), a Norma Canadense NBCC (1985). Como parte do trabalho foram realizadas análises estruturais detalhadas com programas de elementos finitos, bem como práticas experimentais sobre modelos rígidos no Túnel de Vento Prof. Joaquim Blessmann (TV-2) da UFRGS. Os resultados obtidos através da instrumentação dos modelos ensaiados em túnel de vento foram aplicados às prescrições das normas aqui estudadas. As respostas assim obtidas comparadas com as oriundas da aplicação das recomendações padrão destas normas foram avaliadas comparativamente. Sendo possível concluir que os resultados determinados através das prescrições da norma brasileira de vento apresentaram-se mais consistentes que os da norma canadense. Mesmo assim, alguns pontos necessitam de um estudo maior e mais aprofundado principalmente as considerações referentes à torção, que se mostraram na maioria das vezes contra a segurança, além do efeito da vizinhança que, muitas vezes, causa efeitos imprevisíveis sobre a edificação.
Resumo:
As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.
Resumo:
O trabalho foi conduzido na EEA/UFRGS em 2003. O objetivo foi avaliar a eficiência do disco medidor de forragem, do bastão graduado e do medidor de capacitância em predizer a massa de forragem de azevém bem como o de avaliar as diferenças nas variáveis morfogênicas (taxa de elongação de folhas, taxa de surgimento de folhas, tempo de vida da folha) e estruturais da pastagem (numero de folhas verdes, comprimento de folhas e densidade de perfilhos) pela técnica de perfilhos marcados em função dos tratamentos adotados (intensidades e métodos de pastejo). Para determinar a eficiência dos instrumentos foram realizados dois experimentos: o experimento 1 avaliandose a eficiência do disco, bastão e medidor de capacitância em predizer a massa de forragem da pastagem na fase de estabelecimento num delineamento completamente casualizado com 32 repetições e três tratamentos e o experimento 2 avaliando-se a eficiência do disco medidor e do bastão graduado como preditores da massa de forragem sob lotação rotacionada em duas intensidades de pastejo (baixa e moderada) definidas por ofertas de forragem representando, respectivamente, 2,5 ou 5,0 vezes o potencial de consumo dos cordeiros num delineamento em blocos casualizados em arranjo fatorial com quatro repetições. Para determinar as variáveis morfogênicas, estruturais e o fluxo de tecidos os tratamentos foram duas intensidades (baixa e moderada) e dois métodos de pastejo (pastejo com lotação contínua e rotacionada). No experimento 1 o bastão graduado apresentou a melhor correlação com a massa de forragem (r2=0,65). No 2 as melhores correlações foram obtidas quando avaliadas as faixas de pós-pastejo para o disco medidor (r2=0,47) e as de pré-pastejo para o bastão graduado (r2=0,36). Para as variáveis morfogênicas e estruturais as intensidades de pastejo foram responsáveis por diferenças na taxa de elongação de folhas (intensidade baixa resultou em maior taxa de elongação) e nas características estruturais (intensidade baixa resultou em menor densidade de perfilhos, maior comprimento e número de folhas vivas). Os métodos de pastejo influenciaram as características morfogênicas (lotação contínua resultou em maior taxa de elongação de folhas, maior taxa de surgimento e tempo de vida das folhas no ciclo de observação I) e estruturais (lotação contínua resultou em maior densidade de perfilhos); bem como foi obtida interação com as intensidades e com os ciclos de avaliação. O fluxo de crescimento (favorecido por lotação rotacionada a baixa intensidade) e de senescência (favorecido por lotação contínua a baixa intensidade) foram afetados pelos tratamentos, enquanto que o fluxo de consumo não foi alterado pelos tratamentos.
Resumo:
Essa dissertação tem como objetivo a modelagem, implementação e a simulação de um mercado de leilão duplo artificial utilizando a abordagem multiagente. Mercado de leilão duplo permite que ofertas de compra e de venda possam ser feitas a qualquer momento e de forma contínua. As bolsas de Nova Iorque (NYSE) e de Chicago (CME) são exemplos deste tipo de leilão. Mercados artificiais são modelos que têm o objetivo de capturar as propriedades dos mercados reais para reproduzir e analisar a dinâmica do mercado através de experimentos computacionais. Assim como no mercado real, o modelo propõe que os agentes interagem entre si assincronamente em sessões de negociações contínuos. Estas últimas características do modelo são viabilizadas através do uso de técnicas e arcabouços tecnológicos que são atualmente utilizados nos mercados reais. Neste trabalho, são investigados os comportamentos do mercado artificial para diferentes grupos de agentes e parâmetros. Ao longo dos experimentos foram constatados que o volume de negociação e a volatilidade dos preços, por exemplo, são diretamente proporcionais ao orçamento dos agentes. Também foram identificados alguns fatos estilizados nas séries de preços geradas a partir do mercado artificial.