66 resultados para Ribeirão Claro e simulação de cenários


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A situação do saneamento no Brasil é alarmante. Os serviços de água e esgotamento sanitário são prestados adequadamente somente para 59,4% e 39,7%, respectivamente, da população brasileira. Para mudar este quadro, estima-se que sejam necessários R$ 304 bilhões em investimentos. Parte desse volume terá que vir da iniciativa privada e a estruturação de parcerias público privadas é uma das formas de atingir este objetivo. Nestes projetos é comum o setor público oferecer garantias ao parceiro privado para assegurar a viabilidade do empreendimento. O presente trabalho apresenta um modelo para valoração destas garantias, utilizando como estudos de caso as PPP de esgoto da região metropolitana de Recife e do Município de Goiana. O resultado obtido mostrou a importância desta valoração, uma vez que dependendo do nível de garantia oferecida o valor presente dos desembolsos previstos para o setor público variou de zero a até R$ 204 milhões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents new methodology for making Bayesian inference about dy~ o!s for exponential famiIy observations. The approach is simulation-based _~t> use of ~vlarkov chain Monte Carlo techniques. A yletropolis-Hastings i:U~UnLlllll 1::; combined with the Gibbs sampler in repeated use of an adjusted version of normal dynamic linear models. Different alternative schemes are derived and compared. The approach is fully Bayesian in obtaining posterior samples for state parameters and unknown hyperparameters. Illustrations to real data sets with sparse counts and missing values are presented. Extensions to accommodate for general distributions for observations and disturbances. intervention. non-linear models and rnultivariate time series are outlined.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste texto é apresentado o relatório final do projeto 561/06, “Análise Econômica da Reforma Fiscal do PIS-COFINS: Integrando um modelo de micro-simulação com um Modelo de Equilíbrio Geral Computável”. Essencialmente trata-se de uma extensão metodológica do projeto 461/04, visando um aprimoramento da quantificação dos impactos sobre indicadores de bem estar, particularmente pobreza e desigualdade. Além do modelo de Equilíbrio Geral, busca-se uma integração com um modelo de micro-simulação, baseado nas pesquisas domiciliares com o intuito de aprofundar e identificar o impacto que a reforma fiscal teve sobre indivíduos e famílias brasileiras, fazendo com estes sejam identificados com uma precisão muito maior, na medida em que a pesquisa anterior permitia apenas a identificação de um agrupamento representativo da população brasileira, enquanto esta permite a integração no modelo das amostras individuais presentes na PNAD. Os resultados apresentados são sensíveis a nova metodologia utilizada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa, sob a ótica da sustentabilidade da dívida, os efeitos de se manter um elevado nível de reservas internacionais juntamente com um elevado estoque de dívida pública. Busca-se o nível ótimo de reservas para o Brasil através de uma ferramenta de gestão de risco, por simulações de Monte Carlo. Considerando as variáveis estocásticas que afetam a equação de acumulação da dívida, e entendendo a relação entre elas, pode-se estudar as propriedades estocásticas da dinâmica da dívida. Da mesma forma, podemos analisar o impacto fiscal de um determinado nível de reservas ao longo do tempo e verificar quais caminhos se mostram sustentáveis. Sob a ótica da sustentabilidade da dívida, a escolha que gera a melhor relação dívida líquida / PIB para o Brasil é aquela que utiliza o máximo das reservas internacionais para reduzir o endividamento local. No entanto, como há aspectos não capturados nesta análise, tais como os benefícios das reservas em prevenir crises e em funcionar como garantia para investimentos externos, sugere-se que as reservas não excedam os níveis reconhecidos pela literatura internacional que atendam a estes fins. A indicação final deste estudo é que as reservas internacionais funcionam como um instrumento de proteção ao país quando o endividamento e o custo dele não são tão expressivos, como são atualmente no Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diante da importância que o tema da imigração adquiriu no país nos últimos anos, gerou-se uma necessidade de melhor entendimento dos efeitos econômicos causados por influxos populacionais dessa natureza. Todavia, sob o conhecimento dos autores, inexistem estudos para história recente brasileira acerca dos impactos dos imigrantes no mercado de trabalho, em especial, sobre o salário e o nível de emprego dos nativos. Com esse panorama em mente, os estudos realizados nesta tese visam dar os primeiros passos na investigação desse tema. O presente trabalho é composto por quatro capítulos, os quais examinam diferentes questões associadas aos efeitos da imigração no mercado de trabalho brasileiro. O primeiro capítulo motiva o tema da imigração no Brasil e, através de uma metodologia estrutural baseada no arcabouço da função CES multi-nível, simula o efeito na estrutura salarial em resposta a influxos imigratórios estipulados para o ano de 2010, data do último Censo Demográfico. Em particular, calcula-se que o impacto salarial médio decorrente de um influxo estipulado de 549 mil imigrantes, mesma magnitude do observado entre dezembro de 2010 e dezembro de 2011, estaria situado em torno de -0.25%. O segundo capítulo estima o grau de substituição entre imigrantes e nativos do mesmo grupo de habilidade e testa a hipótese de substituição perfeita suportada empiricamente por Borjas et al. (2012, 2008) e adotada no capítulo anterior. A metodologia empregada fundamenta-se no arcabouço estrutural desenvolvido em Manacorda et al. (2012) e Ottaviano & Peri (2012), o qual acrescenta um nível extra na função de produção CES multi-nível de Borjas (2003). As elasticidades de substituição estimadas sob diversas especificações variam entre 9 e 23, resultados que fortalecem a tese de substituição imperfeita preconizada por Card (2012). O terceiro capítulo estima dois tipos de elasticidades relacionadas ao impacto dos imigrantes sobre o rendimento do trabalho nativo através de uma metodologia alternativa baseada numa função de produção mais flexível e que não está sujeita a restrições tão austeras quanto a CES. As estimativas computadas para as elasticidades de substituição de Hicks subjacentes se situam entre 1.3 e 4.9, o que reforça as evidências de substituição imperfeita obtidas no Capítulo 2. Adicionalmente, os valores estimados para as elasticidades brutas dos salários dos nativos em relação às quantidades de imigrantes na produção são da ordem máxima de +-0.01. O quarto e último capítulo, por meio de uma metodologia fundamentada no arcabouço da função de custo Translog, examina como o nível de emprego dos nativos reage a alterações no custo do trabalho imigrante, uma questão que até o momento recebeu pouca atenção da literatura, conquanto apresente relevância para formulação de políticas imigratórias. Para todas as especificações de modelo e grupos de educação considerados, nossos resultados apontam que uma variação exógena no salário do imigrante produz apenas diminutos efeitos sobre o nível de emprego dos trabalhadores nativos brasileiros. Na maioria dos casos, não se pode rejeitar a hipótese de que nativo e imigrante não são nem p-complementares nem p-substitutos líquidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de opções no mercado financeiro tem ganhado relevância devido ao seu payoff não-linear e a possibilidade de alterar o perfil da distribuição de retornos de um portfolio. Existem diversas estratégias que são adequadas para cada cenário que o investidor acredita estar exposto, mas como o conjunto de cenários forma uma distribuição de retornos, devemos utilizar uma medida adequada para trabalhar com este tipo de informação. Assim, foi utilizada a medida Omega, que é uma medida capaz de capturar todos os momentos de uma distribuição, dado um limiar de retornos. Este trabalho se propõe a desenvolver uma metodologia que possibilite otimizar a medida Omega de um portfolio, através do uso de opções sobre o IBOVESPA. Para a geração das distribuições de retornos foi utilizada simulação de Monte Carlo, com jumps e volatilidade estocástica. Finalmente, foram feitas diversas análises sobre os resultados obtidos, afim de comparar a estratégia otimizada com diversas estratégias aleatórias, e também, realizado um backtest para avaliar a eficácia da implementação da estratégia otimizada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Utilizando dados de mercado obtidos na BM&F Bovespa, este trabalho propõe uma possível variação do modelo Heath, Jarrow e Morton em sua forma discreta e multifatorial, com a introdução de jumps como forma de considerar o efeito das reuniões realizadas pelo Cômite de Políticas Monetárias (Copom). Através do uso da análise de componentes principais (PCA), é feita a calibração dos parâmetros do modelo, possibilitando a simulação da evolução da estrutura a termo de taxa de juros (ETTJ) da curva prefixada em reais via simulação de Monte Carlo (MCS). Com os cenários da curva simulada em vértices fixos (sintéticos), os resultados são comparados aos dados observados no mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Professor Alkimar Ribeiro Moura fala de sua carreira na área de Economia

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos 30 anos os executivos têm consistentemente identificado o alinhamento estratégico entre TI e negócio como uma das suas principais preocupações ainda não devidamente endereçadas. Existem diversos conceitos definidos sobre o significado deste alinhamento e suas consequências na performance das empresas, mas os estudos ainda são vagos em relação a como ele pode ser atingido e focam principalmente no alinhamento entre executivos, explorando pouco o nível operacional nas organizações. O objetivo deste estudo foi aprofundar-se no alinhamento entre TI e unidades de negócio na dimensão operacional, através de um estudo de caso avaliando o impacto na percepção de alinhamento entre as áreas após a criação de uma área dedicada ao relacionamento entre TI/Negócio, composta por profissionais de TI especializados e com conhecimentos específicos das unidades de negócio que atendem, visando um melhor entendimento dos objetivos da organização. Para tanto, foi aplicada uma abordagem multi-metodológica utilizando-se de Insider Action Research, que investiga um fenômeno partindo de uma intervenção no ambiente (em que o pesquisador faz parte), em conjunto com Design Research, que realiza o estudo de forma qualitativa centrada na construção e avaliação cíclica de um artefato. Para este estudo de caso, o artefato criado foi o método de trabalho utilizando-se de uma área responsável pela gestão do relacionamento entre TI/Negócio e a intervenção foi a implantação deste artefato na organização. As percepções foram capturadas através de reuniões com gestores da organização. As avaliações de efetividade foram apoiadas no framework de Luftman que mede o nível de alinhamento entre TI/Negócio em seis dimensões (Comunicação, Mensuração, Governança, Parceria, Escopo/Arquitetura e Competências). Os resultados mostraram que a criação da área de relacionamento TI/Negócios teve um claro impacto positivo na percepção de alinhamento entre as áreas, principalmente nas dimensões de comunicação e parceria. O estudo mostra que este tipo de abordagem gera uma maior sensação de confiança e proximidade e, portanto, pode ser utilizada para evoluir o alinhamento operacional entre as áreas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com objetivo de promover ao setor empresarial brasileiro a oportunidade de experimentar um instrumento econômico para precificação de carbono, o Centro de Estudos em Sustentabilidade da Fundação Getulio Vargas (GVces) promove desde 2013, no âmbito de sua iniciativa empresarial EPC (Plataforma Empresas pelo Clima), uma simulação de sistema de comércio de emissões- SCE EPC. Em 2015, ocorre o segundo ciclo operacional desta iniciativa que conta, atualmente, com a participação de 23 empresas de diversos setores da economia brasileira: produção florestal, papel e celulose; serviços; elétrico; logística; indústria de transformação; construção civil; extrativista; e água, esgoto e gestão de resíduos. As empresas operam neste ciclo com o objetivo final de conciliar suas emissões do ano vigente (2015) com títulos transacionados no SCE, em especial, a permissão de emissão, cada um equivalente a 1 tonelada de CO2 equivalente (tCO2e). Este relatório tem como objetivo apresentar os números e resultados dos seis meses iniciais (março a agosto) de operação do SCE EPC 2015, bem como analisar as estratégias e performances adotadas pelas empresas participantes. Além disso, apresenta um estudo sobre cap relativo. Cap é o limite de emissões de gases de efeito estufa (GEE) estipulado para o grupo de empresas que compõem a abrangência de um sistema de comércio de emissões do tipo cap and trade, sendo este limite convertido no volume de títulos que são inseridos no mercado para negociação. O cap pode ser relativo, o qual estabelece a intensidade carbônica a uma taxa pré-determinada com base nas emissões de GEE por alguma unidade econômica (como por exemplo, o PIB ou produção física), ou absoluto, representando o limite de emissões totais buscado para o conjunto de fontes contemplado pelo sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Centro de Estudos em Sustentabilidade (GVces), da Escola de Administração da Fundação Getulio Vargas (EAESP/FGV), no âmbito de sua iniciativa empresarial Plataforma Empresas pelo Clima (EPC), promove desde 2013 uma simulação de Sistema de Comércio de Emissões (SCE EPC). O objetivo desta iniciativa é oferecer ao setor empresarial brasileiro a oportunidade de experimentar um instrumento de mercado para precificação de carbono e capacitá-lo a contribuir ao debate sobre este tema no Brasil e internacionalmente. Este relatório traz os desafios, resultados, análises e um balanço do 1º ciclo operacional do SCE EPC, realizado de março a novembro de 2014.