1000 resultados para Modelagem e simulação
Resumo:
O tema turbiditos tem causado muita controvérsia nos últimos anos. A nosso ver, isto ocorre principalmente devido à diminuição das pesquisas sobre os mecanismos que envolvem a iniciação, o transporte e a deposição deste tipo de rocha. A proposta deste trabalho é avaliar o potencial da simulação física de correntes de turbidez em prever e explicar feições sedimentares em seus depósitos. Foi escolhido como protótipo um sistema turbidítico antigo situado na margem oriental brasileira. A geometria complexa do protótipo foi simplificada para construção do modelo nas instalações do Pavilhão Fluvial do Instituto de Pesquisas Hidráulicas. Foram desenvolvidos doze ensaios onde as observações realizadas sofisticaram-se a partir dos conhecimentos adquiridos nas etapas anteriores. Como resultado dos experimentos identificaram-se novos aspectos geométricos e dinâmicos das correntes de densidade não-conservativas e suas conseqüências na sedimentação. Constatou-se um caráter ondulatório no fluxo, que teve sua origem associada à geração de ondas internas às correntes associadas ao desprendimento de vórtices a partir da cabeça da corrente e sua propagação ao longo da porção superior da corrente. Esta dinâmica implica mudanças na taxa de sedimentação ou mesmo erosão pela corrente, associadas a variações da amplitude e freqüência daquelas ondas. Na cabeça da corrente, verificou-se uma distribuição homogênea de sedimento em suspensão desde a base até o topo da corrente. No corpo ela se divide em duas camadas, uma basal com maior concentração de sedimentos e outra, superior marcada pela expansão do fluxo. Nas quebras de declive do modelo, que ocorrem no meio do canal e no ponto em que a corrente perde o confinamento, foram observadas acelerações localizadas no fluxo. Dentre os parâmetros analisados nos experimentos, constatou-se que a vazão de alimentação tem grande influência nas características dos depósitos. De um modo geral, um aumento da vazão implica um deslocamento do pico deposicional no sentido da corrente e um aumento no conteúdo de frações mais grossas. Constatou-se, nos sedimentos depositados no canal, uma distribuição seqüenciada de formas de leito, que varia entre ripples de crista reta e ripples lingüóides. Reconheceu-se uma correlação entre a amplitude e o comprimento nestas formas de leito. Identificou-se em todos os casos em que houve o extravasamento da corrente a formação de ripples na lateral do canal com cristas lineares que indicam uma direção do fluxo próxima à que ocorre no canal. Foram desenvolvidos depósitos alongados no sentido do fluxo na área onde a corrente perde o confinamento. Observou-se uma grande similaridade entre os depósitos gerados nos experimentos e aqueles identificados em sistemas turbidíticos atuais e do registro geológico, tanto em afloramentos como em dados de subsuperfície.
Resumo:
Esse trabalho tem por objetivo geral o desenvolvimento de uma metodologia de modelagem numérica que represente o escoamento e o fenômeno de mistura em um modelo físico de panela de aciaria de base elíptica. Os objetivos específicos do trabalho são: o estudo dos coeficientes das forças de interação líquido-bolha, dos modelos de turbulência e da mudança do formato da base da panela de circular para elíptica. O escoamento e o fenômeno de mistura foram calculados através do método de Volume Finitos baseado em Elementos por meio do software CFX5.7 da Ansys. Dados da literatura e ensaios em modelo físico, realizados em laboratório, auxiliaram na validação dos modelos numéricos. O estudo dos coeficientes das forças de não-arrasto mostrou que os resultados da distribuição de ar ao longo da altura do banho mudam com a variação dos coeficientes. No final, coeficientes para 3 configurações de panelas em diferentes vazões de ar foram encontrados. Com relação ao estudo dos modelos de turbulência, observou-se que para a solução do escoamento e do fenômeno de mistura em uma panela de base circular, o k-ε é o modelo de turbulência mais indicado. Por outro lado, para uma panela de base elíptica, o modelo RSM mostrou-se o mais adequado. Finalmente, com relação ao estudo da mudança do formato da base da panela, observou-se que os tempos de mistura de uma panela de base elíptica são maiores que uma de base circular e aumentam à medida que a vazão de ar diminui.
Resumo:
Após a crise financeira de 2008, é perceptível a intensificação de esforços globais para aperfeiçoar métodos de avaliação de risco e ajuste de exposição de capital para tornar o sistema financeiro mundial mais sólido e consistente. O objetivo deste trabalho é propor um modelo de estimação de curvas de crédito privado no Brasil, aplicando a modelagem paramétrica de Nelson & Siegel (1987) a uma amostra de preços de debêntures. Os resultados obtidos poderão ser utilizados para auxiliar reguladores e profissionais de mercado com análises de risco, apreçamento de ativos ilíquidos e percepção de expectativas.
Resumo:
As perdas trabalhistas nas Instituições Financeiras representam um valor considerável que devem ser consideradas no modelo de capital regulatório para risco operacional, segundo Basileia. A presente dissertação demonstra uma forma de mensurar o risco às quais as Instituições Financeiras estão expostas nesse tipo de perdas. Diversos tipos de distribuições são analisados conforme sua aderência tanto na frequência como na severidade das perdas. Para os valores de frequência, foi obtida uma amostra de dados real, enquanto para a severidade foram utilizados valores obtidos de relatórios de instituto de pesquisa que serviram de insumo para os cálculos de ações trabalhistas conforme legislação brasileira vigente na CLT (Consolidação das Leis do Trabalho).
Resumo:
O trabalho tem como objetivo aplicar uma modelagem não linear ao Produto Interno Bruto brasileiro. Para tanto foi testada a existência de não linearidade do processo gerador dos dados com a metodologia sugerida por Castle e Henry (2010). O teste consiste em verificar a persistência dos regressores não lineares no modelo linear irrestrito. A seguir a série é modelada a partir do modelo autoregressivo com limiar utilizando a abordagem geral para específico na seleção do modelo. O algoritmo Autometrics é utilizado para escolha do modelo não linear. Os resultados encontrados indicam que o Produto Interno Bruto do Brasil é melhor explicado por um modelo não linear com três mudanças de regime, que ocorrem no inicio dos anos 90, que, de fato, foi um período bastante volátil. Através da modelagem não linear existe o potencial para datação de ciclos, no entanto os resultados encontrados não foram suficientes para tal análise.
Resumo:
As técnicas qualitativas disponiveis para a modelagem de cenários têm sido reconhecidas pela extrema limitação, evidenciada no principio das atividades do processo, como a fase inicial de concepção. As principais restrições têm sido: • inexistência de uma ferramenta que teste a consistência estrutural interna do modelo, ou pela utilização de relações econômicas com fundamentação teórica mas sem interface perfeita com o ambiente, ou pela adoção de variações binárias para testes de validação; • fixação "a priori" dos possíveis cenários, geralmente classificados sob três adjetivos - otimista, mais provável e pessimista - enviesados exatamente pelos atributos das pessoas que fornecem esta informação. o trabalho trata da utilização de uma ferramenta para a interação entre uma técnica que auxilia a geração de modelos, suportada pela lógica relacional com variações a quatro valores e expectativas fundamentadas no conhecimento do decisor acerca do mundo real. Tem em vista a construção de um sistema qualitativo de previsão exploratória, no qual os cenários são obtidos por procedimento essencialmente intuitivo e descritivos, para a demanda regional por eletricidade. Este tipo de abordagem - apresentada por J. Gershuny - visa principalmente ao fornecimento de suporte metodológico para a consistência dos cenários gerados qualitativamente. Desenvolvimento e estruturação do modelo são realizados em etapas, partindo-se de uma relação simples e prosseguindo com a inclusão de variáveis e efeitos que melhoram a explicação do modelo. o trabalho apresenta um conjunto de relações para a demanda regional de eletricidade nos principais setores de consumo residencial, comercial e industrial bem como os cenários resultantes das variações mais prováveis das suas componentes exógenas. Ao final conclui-se que esta técnica é útil em modelos que: • incluem variáveis sociais relevantes e de dificil mensuração; • acreditam na importância da consistência externa entre os resultados gerados pelo modelo e aqueles esperados para a tomada de decisões; • atribuem ao decisor a responsabilidade de compreender a fundamentação da estrutura conceitual do modelo. Adotado este procedimento, o autor aqui recomenda que o modelo seja validado através de um procedimento iterativo de ajustes com a participação do decisor. As técnicas quantitativas poderão ser adotadas em seguida, tendo o modelo como elemento de consistência.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
O presente trabalho consiste na aplicação da simulação computacional como método de aprofundamento do estudo de mecanismos de leilões aplicados na alocação do direito de exploração das reservas de petróleo da camada do pré-sal. A camada do pré-sal está localizada na costa brasileira e apresenta um grande potencial em termos de reserva de óleo e gás. A função lance aplicada para os participantes criados computacionalmente foi estimada com base em dados experimentais e segue uma função exponencial. A simulação possibilita reproduzir o modelo de leilão considerando todas as características e parâmetros dos experimentos sem incorrer no custo da realização de novas sessões de leilão com participantes reais. Os leilões estudados foram o leilão de valores privados de 1° preço e o leilão de valores privados de 2° preço. Através dos resultados obtidos identificou-se que o leilão de valores privados de 1° preço é menos arriscado que o leilão de valores privados de 2° preço; no leilão com simetria, o Princípio de Equivalência de Receita é válido; a eficiência observada é menor em leilões assimétricos; o leilão de 2° preço comparado com o de 1° preço apresenta um tradeoff entre a eficiência e a receita do governo; e que considerando o aprendizado dos participantes, não se observam alterações significativas nas estatísticas analisadas à medida que os participantes se tornam mais experientes.
Resumo:
A situação do saneamento no Brasil é alarmante. Os serviços de água e esgotamento sanitário são prestados adequadamente somente para 59,4% e 39,7%, respectivamente, da população brasileira. Para mudar este quadro, estima-se que sejam necessários R$ 304 bilhões em investimentos. Parte desse volume terá que vir da iniciativa privada e a estruturação de parcerias público privadas é uma das formas de atingir este objetivo. Nestes projetos é comum o setor público oferecer garantias ao parceiro privado para assegurar a viabilidade do empreendimento. O presente trabalho apresenta um modelo para valoração destas garantias, utilizando como estudos de caso as PPP de esgoto da região metropolitana de Recife e do Município de Goiana. O resultado obtido mostrou a importância desta valoração, uma vez que dependendo do nível de garantia oferecida o valor presente dos desembolsos previstos para o setor público variou de zero a até R$ 204 milhões.
Resumo:
This paper presents new methodology for making Bayesian inference about dy~ o!s for exponential famiIy observations. The approach is simulation-based _~t> use of ~vlarkov chain Monte Carlo techniques. A yletropolis-Hastings i:U~UnLlllll 1::; combined with the Gibbs sampler in repeated use of an adjusted version of normal dynamic linear models. Different alternative schemes are derived and compared. The approach is fully Bayesian in obtaining posterior samples for state parameters and unknown hyperparameters. Illustrations to real data sets with sparse counts and missing values are presented. Extensions to accommodate for general distributions for observations and disturbances. intervention. non-linear models and rnultivariate time series are outlined.
Resumo:
Neste texto é apresentado o relatório final do projeto 561/06, “Análise Econômica da Reforma Fiscal do PIS-COFINS: Integrando um modelo de micro-simulação com um Modelo de Equilíbrio Geral Computável”. Essencialmente trata-se de uma extensão metodológica do projeto 461/04, visando um aprimoramento da quantificação dos impactos sobre indicadores de bem estar, particularmente pobreza e desigualdade. Além do modelo de Equilíbrio Geral, busca-se uma integração com um modelo de micro-simulação, baseado nas pesquisas domiciliares com o intuito de aprofundar e identificar o impacto que a reforma fiscal teve sobre indivíduos e famílias brasileiras, fazendo com estes sejam identificados com uma precisão muito maior, na medida em que a pesquisa anterior permitia apenas a identificação de um agrupamento representativo da população brasileira, enquanto esta permite a integração no modelo das amostras individuais presentes na PNAD. Os resultados apresentados são sensíveis a nova metodologia utilizada.
Resumo:
Este trabalho analisa, sob a ótica da sustentabilidade da dívida, os efeitos de se manter um elevado nível de reservas internacionais juntamente com um elevado estoque de dívida pública. Busca-se o nível ótimo de reservas para o Brasil através de uma ferramenta de gestão de risco, por simulações de Monte Carlo. Considerando as variáveis estocásticas que afetam a equação de acumulação da dívida, e entendendo a relação entre elas, pode-se estudar as propriedades estocásticas da dinâmica da dívida. Da mesma forma, podemos analisar o impacto fiscal de um determinado nível de reservas ao longo do tempo e verificar quais caminhos se mostram sustentáveis. Sob a ótica da sustentabilidade da dívida, a escolha que gera a melhor relação dívida líquida / PIB para o Brasil é aquela que utiliza o máximo das reservas internacionais para reduzir o endividamento local. No entanto, como há aspectos não capturados nesta análise, tais como os benefícios das reservas em prevenir crises e em funcionar como garantia para investimentos externos, sugere-se que as reservas não excedam os níveis reconhecidos pela literatura internacional que atendam a estes fins. A indicação final deste estudo é que as reservas internacionais funcionam como um instrumento de proteção ao país quando o endividamento e o custo dele não são tão expressivos, como são atualmente no Brasil.
Resumo:
Os leilões para concessão de blocos de petróleo no Brasil utilizam uma equação para formar a pontuação que define o vencedor. Cada participante deve submeter ao leiloeiro um lance composto por três atributos: Bônus de Assinatura (BA), Programa Exploratório Mínimo (PEM) e Conteúdo Local (CL). Cada atributo possui um peso na equação e a nota final de cada participante também depende dos lances ofertados pelos outros participantes. Apesar de leilões de petróleo serem muito estudados na economia, o leilão multi-atributos, do tipo máxima pontuação, ainda é pouco analisado, principalmente como mecanismo de alocação de direitos minerários. Este trabalho destaca a inserção do CL como atributo que transforma a estrutura, do que poderia ser um leilão simples de primeiro preço, em um leilão multi-atributos de máxima pontuação. Demonstra-se como o CL, através da curva de custos do projeto, está relacionado também ao Bônus de Assinatura, outro importante atributo da equação. Para compreender o impacto do fenômeno da inserção do CL, foram criados três casos de leilões hipotéticos, onde, dentre outras simplificações, o programa exploratório mínimo foi fixado para todas as empresas envolvidas. No caso base (Sem CL), simula-se a estrutura de um leilão de primeiro preço, onde apenas o BA define o vencedor do leilão. Já no caso forçado (CLO=CLR), há inserção do atributo CL, sendo o participante obrigado a cumprir o CL ofertado. Por fim, o caso completo (Com Multa) permite que o participante preveja a aplicação de multa por descumprimento do CL ofertado e, caso haja benefício econômico, descumpra efetivamente o CL ofertado. Considerando estes casos, argumenta-se que, apesar do o lucro das empresas e a eficiência do leilão não serem alterados, a inclusão do conteúdo local na estrutura do leilão pode ter reflexos consideráveis na receita do governo.
Resumo:
A escolha da cidade do Rio de Janeiro como sede de grandes eventos esportivos mundiais, a Copa do Mundo de Futebol de 2014 e os Jogos Olímpicos de 2016, colocou-a no centro de investimentos em infraestrutura, mobilidade urbana e segurança pública, com consequente impacto no mercado imobiliário, tanto de novos lançamentos de empreendimentos, quanto na revenda de imóveis usados. Acredita-se que o preço de um imóvel dependa de uma relação entre suas características estruturais como quantidade de quartos, suítes, vagas de garagem, presença de varanda, tal como sua localização, proximidade com centros de trabalho, entretenimento e áreas valorizadas ou degradadas. Uma das técnicas para avaliar a contribuição dessas características para a formação do preço do imóvel, conhecido na Econométrica como Modelagem Hedônica de Preços, é uma aplicação de regressão linear multivariada onde a variável dependente é o preço e as variáveis independentes, as respectivas características que deseja-se modelar. A utilização da regressão linear implica em observar premissas que devem ser atendidas para a confiabilidade dos resultados a serem analisados, tais como independência e homoscedasticidade dos resíduos e não colinearidade entre as variáveis independentes. O presente trabalho objetiva aplicar a modelagem hedônica de preços para imóveis localizados na cidade do Rio de Janeiro em um modelo de regressão linear multivariada, em conjunto com outras fontes de dados para a construção de variáveis de acessibilidade e socioambiental a fim de verificar a relação de importância entre elas para a formação do preço e, em particular, exploramos brevemente a tendência de preços em função da distância a favelas. Em atenção aos pré-requisitos observados para a aplicação de regressão linear, verificamos que a premissa de independência dos preços não pode ser atestada devido a constatação da autocorrelação espacial entre os imóveis, onde não apenas as características estruturais e de acessibilidade são levadas em consideração para a precificação do bem, mas principalmente a influência mútua que os imóveis vizinhos exercem um ao outro.
Resumo:
Neste trabalho apresentamos um novo método numérico com passo adaptativo baseado na abordagem de linearização local, para a integração de equações diferenciais estocásticas com ruído aditivo. Propomos, também, um esquema computacional que permite a implementação eficiente deste método, adaptando adequadamente o algorítimo de Padé com a estratégia “scaling-squaring” para o cálculo das exponenciais de matrizes envolvidas. Antes de introduzirmos a construção deste método, apresentaremos de forma breve o que são equações diferenciais estocásticas, a matemática que as fundamenta, a sua relevância para a modelagem dos mais diversos fenômenos, e a importância da utilização de métodos numéricos para avaliar tais equações. Também é feito um breve estudo sobre estabilidade numérica. Com isto, pretendemos introduzir as bases necessárias para a construção do novo método/esquema. Ao final, vários experimentos numéricos são realizados para mostrar, de forma prática, a eficácia do método proposto, e compará-lo com outros métodos usualmente utilizados.