952 resultados para Simulações numéricas
Resumo:
O presente trabalho relata a parametrização do modelo de contínuo IEF-PCM para o estudo da solvatação de ânions monovalentes em acetonitrila e N,N-dimetilformamida. Nós propomos duas metodologias de parametrização do modelo de contínuo polarizável para este estudo teórico. A primeira proposta é baseada unicamente no cálculo do termo eletrostático da energia livre e na equiparação deste termo com a energia livre de solvatação experimental. Na segunda proposta de metodologia, a parametrização do modelo de contínuo polarizável foi realizada com o auxílio das simulações de dinâmica molecular e dentro desta segunda proposta nós calculamos todos os termos que contribuem para a energia livre de solvatação, a energia de cavitação. a energia eletrostática e a energia de van der Waals. Com a aplicação da primeira metodologia, é obtido um erro médio absoluto de 2,1 kcal/mol nas energias de solvatação dos ânions em acetonitrila enquanto que o erro médio absoluto calculado para energias de solvatação dos ânions em N,N-dimetilformamida é 2,8 kcal/mol. A aplicação da segunda metodologia resulta num erro médio absoluto de 1,4 kcal/mol nas energias de solvatação dos ânions em acetonitrila e um erro médio absoluto de 1,2 kcal/mol nas energias de solvatação calculadas para os ânions em N,N-dimetilformamida. Estes resultados indicam que o modelo de contínuo polarizável IEF-PCM é adequado para o estudo dos efeitos termodinâmicos nas soluções de ânions nos solventes acetonitrila e N,N-dimetilformamida.
Resumo:
O comportamento dinâmico de um sistema é tradicionalmente descrito por um modelo, em geral associado a um conjunto de equações diferenciais ou de equações de diferenças, onde as variáveis representam grandezas físicas. Sistemas complexos, principalmente na indústria de processos, incorporam elementos com comportamento dinâmico lógico, tais como atuadores e sensores ON-OFF (estados aberto/fechado) ou proposições lógicas (estados verdadeiro/falso). Estes sistemas são denominados “Sistemas Híbridos”, “Sistemas Mistos Lógicos-dinâmicos” ou, simplesmente, “Sistemas Mistos”. Neste trabalho, são apresentadas técnicas que, associando variáveis lógicas a estes elementos, e mediante a incorporação de restrições sobre as variáveis, permitem obter um modelo matemático do sistema misto. Neste caso, técnicas clássicas de controle não permitem a incorporação destas novas variáves e restrições. Como opção de controle de sistemas mistos, é então proposta e estudada uma técnica de controle preditivo baseado em modelo. São apresentados tanto a formulação teórica do problema de controle, quanto exemplos e simulações bem como um estudo de caso de sua aplicação sobre um sistema de equalização de uma planta de tratamento de efluentes.
Resumo:
Esse artigo apresenta um modelo dinâmico de competição em precos que incorpora tanto custos de procura quanto custos de switching e onde que as decisões do consumidor e das firmas são simultâneas. Dadas as hipóteses feitas n ós veremos que este modelo possui equilí brio. As principais propriedades do equil íbrio deste modelo são: Se os custos de procura forem baixos o suficiente, em equilí brio o consumidor vai procurar todas as firmas no mercado enquanto que o aumento dos custos de procura vai reduzir a propor cão de firmas que o consumidor busca. Um resultado contraintuitivo e que os pre cos esperados pagos pelo consumidor normalmente decresce em nossas computa cões numéricas do equil íbrio quando os custos de procura aumentam. Enquanto que aumentar os custos de switching tamb ém vai produzir o resultado contraituitivo que as firmas unmatched vão diminuir suas ofertas de modo a atrair o consumidor.
Resumo:
Este trabalho contribui a discussão de diversificação internacional no contexto de investidores brasileiros com referência na moeda local (Reais). O trabalho testa as seguintes hipóteses: (1) se a adição de ativos internacionais não aumenta a eficiência (melhora na relação retorno/risco) de carteiras somente com ativos brasileiros, (2) se carteiras de menor risco exigem mais alocações internacionais e, (3) se alocação de ativos é parecida para investidores com referências em dólar ou em reais. Esse trabalho utiliza modelos já conhecidos de fronteiras eficientes com aplicação de técnicas que utilizam rotinas de Monte Carlo para suavizar possíveis erros na estimação dos retornos das classes de ativos, que incorporam ainda incertezas sobre o câmbio. Nas simulações são utilizadas uma cesta de ativos locais e uma cesta de ativos que melhor representa o mercado internacional. Apesar da grande maioria dos investidores brasileiros utilizarem muito pouco ativos internacionais em suas carteiras, seja por motivos de Home Bias, fatores históricos macroeconômicos evidenciados pelas altas taxas de juros ou limitações regulatórias, os resultados empíricos demonstram que existem ganhos de eficiência para as carteiras de investidores brasileiros ao se incluir ativos internacionais na alocação de ativos. Esses ganhos de eficiência são evidenciados para todos os perfis de risco, desde os mais conservadores até os perfis mais agressivos. Os resultados mostram que quanto maior o perfil de risco da carteira, maior é a alocação internacional que maximiza a eficiência da carteira. E por último, a referência da moeda muda significativamente a alocação eficiente de carteiras, carteiras com referência em dólar exigem menos diversificação com ativos em reais do que carteiras com referência em Reais exigem diversificação com ativos internacionais.
Resumo:
A energia solar esta sendo cada vez mais utilizada para o aquecimento de água, tanto para o uso industrial, comercial e residencial, apresentando, esta última, um crescimento muito expressivo nos últimos anos, devido às ações de marketing de algumas empresas do setor. Para manter a temperatura da água do reservatório nas condições estabelecidas para o uso é necessário à utilização de uma fonte de energia auxiliar. As duas fontes de energia auxiliar mais empregadas nos sistemas de aquecimento de água por energia solar são a eletricidade e o gás. A escolha do gás como fonte auxiliar de energia, apesar de apresentar um investimento inicial superior ao da energia elétrica, representa um menor custo operacional em longo prazo. Na presente dissertação foram realizadas simulações computacionais para a cidade de Porto Alegre - RS, através do aplicativo TERMOSIM, com a finalidade de analisar o comportamento energético de um sistema de aquecimento de água por energia solar, por circulação natural (termossifão), utilizando como fonte de energia auxiliar o gás. Esta análise foi desenvolvida com a variação de parâmetros construtivos, de parâmetros de utilização e dos parâmetros de qualidade dos materiais e, ainda, com a caracterização dos componentes da instalação. Para a execução do trabalho foram realizadas 3456 simulações. Considerando os resultados obtidos foram elaboradas tabelas e gráficos, por meio dos quais verificou-se a influência do número de coletores, do volume do reservatório, da altura do termostato, da razão de aspecto do reservatório, do consumo de água quente e da qualidade dos coletores sobre a eficiência do sistema. O aplicativo demonstrou coerência nos resultados gerados, motivo pelo qual foi possível identificar, por meio da análise dos mesmos, quais os parâmetros que exercem maior influência no desempenho do sistema de aquecimento de água. Combinando os resultados, foi desenvolvida uma equação para estimar a eficiência média mensal do sistema.
Resumo:
O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.
Resumo:
O conhecimento da física de semicondutores foi usado para desenvolver e otimizar um sensor ótico de silício capaz de determinar com precisão a posição bidimensional de incidência de um feixe de luz em sua superfície. O sensor usa o efeito de fototensão lateral para gerar um sinal elétrico de saída que é função da posição de incidência da luz. Tecnologia planar do silício foi usada na fabricação do dispositivo, incluindo implantação iônica, difusão, fotolitografia, deposição de filmes metálicos e crescimento de dielétricos. A caracterização elétrica do sensor inclui medidas estáticas, com a distribuição de portadores em regime estacionário, medidas dinâmicas, onde é analisado o transiente do sinal elétrico e medidas espectroscópicas para analisar a resposta do sensor em função do comprimento de onda da luz incidente. Simulações dos processos de fabricação, parâmetros dos passos tecnológicos, distribuição dos portadores e do potencial elétrico bidimensional no sensor foram usadas para a otimização das características do sensor.
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.
Resumo:
Apesar da diversidade de suas estratégias, os retornos dos fundos de investimentos multimercado geralmente exibem correlação positiva com índices de bolsa. Por outro lado, fundos de categorias distintas tendem a ser menos correlacionados entre si se comparados a fundos de mesma categoria. A ideia de diversificação entre fundos de baixa correlação é discutida recorrentemente pela literatura. Na prática, porém, poucos alocadores de portfólios otimizam suas carteiras através das linhas de Markowitz (1953) por exemplo. O objetivo deste estudo é buscar identificar o ponto ótimo de diversificação de ativos (fundos de investimentos) dentro de uma mesma categoria. Como metodologia, buscaremos a minimização do risco idiossincrático dos fundos de investimentos através de simulações com outros fundos de mesma categoria. O estudo contém análises para a escolha do número ideal de ativos em um dado portfólio. Esses resultados beneficiariam, principalmente, o processo decisório das empresas de Wealth Managements, das Consultorias de Investimentos e dos Private Bankers.
Resumo:
Objetiva-se realizar uma investigação sobre a focalização do Programa Bolsa Família e seus determinantes imediatos, assim como uma análise quantitativa sobre famílias beneficiadas, elegíveis e não elegíveis. Constata-se percentuais associados à exclusão indevida menores que aqueles associados à inclusão indevida. Contudo, parte da imprecisão está relacionada à inclusão de famílias com renda per capita acima, mas próxima do teto (R$ 140). Os resultados econométricos indicam uma relação inversa entre a cobertura do Programa e os níveis de desenvolvimento social e econômico municipais. Há evidências de que municípios com maior qualidade na gestão dos recursos do Programa, também apresentam percentuais superiores de cobertura. Simulações de políticas sugerem a necessidade de que um direcionamento de políticas para universalização deve envolver esforços tanto para fins de efetivo alcance das famílias elegíveis, mas não beneficiárias, como para redução do vazamento do Programa. Sem direcionar esforços nestes dois eixos, a universalização requereria significativo aporte financeiro
Resumo:
Este trabalho relata a utilização de tópicos ligados à Astronomia, como motivação educacional, a fim de inserir o estudo das radiações eletromagnéticas com abordagem na Física Moderna e Contemporânea. Em geral, a bibliografia atual disponível trata deste assunto (sob o título “ondas eletromagnéticas”) no capítulo relacionado a “ondas”, dentro da Física Clássica, não abordando assim, conceitos da Física Moderna: dualidade onda partícula, quantização da energia, efeito fotoelétrico, Lei de Planck, etc. O tema foi abordado utilizando atividades práticas: observação do Sol, observação do céu com telescópio, simulação computacional através de applets disponíveis na Internet, atividades de laboratório, sempre partindo de aspectos relacionados à Astronomia. A proposta foi aplicada em uma turma de terceira série de Ensino Médio, do Instituto Estadual de Educação de Sapiranga, cidade do Vale do Rio dos Sinos. Este trabalho foi embasado pela Teoria de Aprendizagem Significativa de Ausubel e de Novak, e pela Teoria de mediação de Vygotsky. A partir dos dados colhidos através de testes comparativos, entrevistas e depoimentos dos alunos, foi possível detectar que eles estiveram motivados para a aprendizagem, sendo que alguns inclusive passaram a interessar-se mais pela disciplina de Física. Ao finalizar a aplicação desta proposta de trabalho, foi criado um CD com textos, simulações e sugestões para aplicações em sala de aula.
Resumo:
No estudo da propagação de uma doença infecciosa, diz-se que sua transmissão ocorre horizontalmente, quando um indivíduo suscetível tem um contato direto ou indireto com um indivíduo infeccioso. Algumas doenças, entretanto, também podem ser transmitidas verticalmente, entendendo-se que, neste caso, a doença é transmitida a um indivíduo, ao ser gerado por uma mãe infecciosa. Fazendo uso de modelos epidemiológicos determinísticos básicos, envolvendo sistemas de equações diferenciais ordinárias, nosso principal objetivo, neste trabalho, consiste em investigar qual o papel da transmissão vertical na propagação de doenças causadas por microparasitas. Diversas formas de inclusão de transmissão vertical são apresentadas e, em cada modelo estudado, investigamos a existência e a estabilidade local dos estados de equilíbrio da população hospedeira, identificamos os parâmetros e limiares que caracterizam a dinâmica do sistema, e completamos as informações decorrentes dos resultados analíticos com a apresentação de soluções numéricas do mesmo. Por fim, comparamos os efeitos da transmissão horizontal com aqueles decorrentes da transmissão vertical.
Resumo:
O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.
Resumo:
Este artigo usa dados agregados brasileiros para estimar a demanda domiciliar por telefones fixos. Com relação à literatura prévia sobre o tema, podem ser ressaltados três avanços metodológicos: (i) o caráter não-linear da escolha individual é preservado no modelo agregado; (ii) a agregação é feita de modo a considerar o viés gerado pela heterogeneidade entre os indivíduos dentro das regiões; (iii) é usada uma matriz de covariância robusta à presença de dependência espacial [Driscoll & Kraay (1998)]. Percebe-se que a consideração do viés de agregação altera significativamente os resultados. Além disso, simulações construídas a partir das estimativas encontradas indicam que a redução da assinatura básica em 50% aumentaria em apenas 3,3% os domicílios brasileiros com telefone fixo. Este impacto modesto é provavelmente resultado do comportamento dos domicílios de baixa renda. Em grande parte destes domicílios, existe somente um tipo de telefone, móvel ou fixo. Nesse caso, mesmo com uma redução significativa da assinatura do telefone fixo, boa parte deles ainda deve optar pelo telefone móvel, na medida em que este último, além de garantir mobilidade, tende a comprometer uma parcela menor da renda mensal.
Resumo:
The onset of the financial crisis in 2008 and the European sovereign crisis in 2010 renewed the interest of macroeconomists on the role played by credit in business cycle fluctuations. The purpose of the present work is to present empirical evidence on the monetary policy transmission mechanism in Brazil with a special eye on the role played by the credit channel, using different econometric techniques. It is comprised by three articles. The first one presents a review of the literature of financial frictions, with a focus on the overlaps between credit activity and the monetary policy. It highlights how the sharp disruptions in the financial markets spurred central banks in developed and emerging nations to deploy of a broad set of non conventional tools to overcome the damage on financial intermediation. A chapter is dedicated to the challenge face by the policymaking in emerging markets and Brazil in particular in the highly integrated global capital market. This second article investigates the implications of the credit channel of the monetary policy transmission mechanism in the case of Brazil, using a structural FAVAR (SFAVAR) approach. The term “structural” comes from the estimation strategy, which generates factors that have a clear economic interpretation. The results show that unexpected shocks in the proxies for the external finance premium and the credit volume produce large and persistent fluctuations in inflation and economic activity – accounting for more than 30% of the error forecast variance of the latter in a three-year horizon. Counterfactual simulations demonstrate that the credit channel amplified the economic contraction in Brazil during the acute phase of the global financial crisis in the last quarter of 2008, thus gave an important impulse to the recovery period that followed. In the third articles, I make use of Bayesian estimation of a classical neo-Keynesian DSGE model, incorporating the financial accelerator channel developed by Bernanke, Gertler and Gilchrist (1999). The results present evidences in line to those already seen in the previous article: disturbances on the external finance premium – represented here by credit spreads – trigger significant responses on the aggregate demand and inflation and monetary policy shocks are amplified by the financial accelerator mechanism. Keywords: Macroeconomics, Monetary Policy, Credit Channel, Financial Accelerator, FAVAR, DSGE, Bayesian Econometrics