17 resultados para predição
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
A formação de emulsão de água-em-óleo gera um significativo incremento na viscosidade, o que afeta diretamente a produção do poço, pois aumenta a perda de carga ao longo da linha de produção, dificultando o escoamento e diminuindo a produção de óleo. A presença e natureza da emulsão, e seu impacto na reologia do petróleo, podem determinar a viabilidade econômica e técnica dos processos envolvidos. A medida que a fração de água aumenta e a temperatura é reduzida, o comportamento das emulsões se torna cada vez mais não-Newtoniano. A decorrência disso, é que a temperatura e a taxa de cisalhamento passam a ter maior impacto na variação da viscosidade das emulsões. Nesse estudo são propostos novos métodos que levam em conta essas variáveis. Os dados reológicos experimentais de 15 petróleos leves foram utilizados para avaliar o desempenho dos modelos existentes na literatura e compará-los com os novos métodos propostos nesse estudo.
Resumo:
A teoria clássica considera a taxa de retorno esperada como único determinante do fluxo internacional de capitais. Por sua vez, da teoria da paridade de juros resultam duas condições de equilíbrio - paridade coberta e paridade descoberta - que têm sido marcantemente utilizadas na mensuração do retorno esperado. Haja vista a ligação entre os fluxos de capitais e a teoria da paridade de juros, esta é motivo de uma discussão preliminar no Capítulo 1. Embora a teoria da paridade ensine que, sob algumas hipóteses simplifícadoras, a existência de um diferencial de juros entre duas economias seja uma condição suficiente para promover deslocamentos de capitais na direção daquela onde se observam as maiores taxas, as pesquisas empíricas quase sempre registram a presença de um diferencial de juros sem a contrapartida dos fluxos de capitais. A fim de encontrar repostas para esse desencontro entre a predição teórica e a evidência empírica, a literatura tem explorado as imperfeições de mercado. Dentre as distorções mais largamente consideradas, quatro são objeto de análise no Capítulo 1: (1) custos de transação; (2) a mobilidade imperfeita; (3) a substitutibilidade imperfeita entre títulos semelhantes emitidos em economias distintas; e (4) a assimetria de informação.
Resumo:
O presente trabalho teve por objeto o estudo das possíveis relações de casualidade entre o público total em 87 filmes brasileiros, lançados em salas de exibição no Brasil durante o período entre 2001-2003 e um conjunto de quatorze variáveis, disponíveis em dois momentos distintos: antes e depois do lançamento do filme. A partir do trabalho de dois pesquisadores norte-americanos, Simonoff e Sparrow (2000), foram ampliados os esteios teóricos que deram sustentação ao experimento desenvolvido pelo autor. A validação das variáveis aplicáveis ao estudo brasileiro, bem como a identificação de novas, foram resultantes de entrevistas em profundidade a partir de um questionário semi-estruturado, realizadas com profissionais do setor audiovisual. A pesquisa de campo baseou-se em fontes secundárias de reconhecida fidedignidade e a análise resultou na identificação de correlações entre algumas das variáveis utilizadas no experimento e na formulação de um modelo matemático compatível com a predição de público, nas condições encontradas no período de 2001 a 2003, que corroborou a suposição inicial de que é possível, com certo grau de confiança, antecipar tendências quanto ao número de expectadores de filmes brasileiros no circuito exibidor do Brasil.
Resumo:
O presente trabalho pretende apresentar uma comparação crítica entre o novo modelo de Planejamento, Orçamento e Gestão, adotado pelo Governo Federal na formulação do Plano Plurianual (PPA) 2000-2003, e as bases conceitual, metodológica e organizacional do Planejamento Estratégico Situacional (PES), proposto pelo Prof. Dr. Carlos Matus. Os fundamentos de tal comparação encontram-se na constatação de que o processo de elaboração e gestão do PPA foi, e está sendo, marcado pelo Determinismo Inconsciente dos planejadores públicos, o que Matus denominou de "Procustomania", ou seja, a capacidade de amputar a realidade, concebendo o planejamento de forma autoritária e propenso a ignorar tudo quanto escape às suas capacidades de controle e predição. A análise focou a elaboração e gestão do PPA 2000-2003 no âmbito do Ministério da Justiça, no período de dezembro de 1998 e outubro de 2002, destacando a experiência de aplicação parcial do PES no processo de elaboração dos Programas daquela Pasta no PPA.
Resumo:
Há uma crescente preocupação em relação à temática dos resíduos sólidos entre acadêmicos, governos, empresas e indivíduos, embora pouco se conheça sobre os motivos que direcionam as escolhas pessoais no descarte de itens recicláveis dentro do domicílio. As pessoas participam ou não de programas de coleta seletiva por motivos que não são aparentes e nem diretamente identificados. Assim, o problema desta tese foi: Que determinantes influenciam o comportamento para reciclagem? Quais implicações disso para formulação de políticas públicas direcionadas ao comportamento para reciclagem? Em torno desta questão, o objetivo foi entender o quanto os modelos cognitivo-comportamentais predizem e explicam o comportamento para reciclagem (CR), buscando examinar a relação cognição-comportamento proposta pela sua fundamentação teórica. Nesta Tese parte-se da premissa de que existe uma lacuna entre a pose de uma atitude pró-ambiental e a demonstração do comportamento, o que tem sido conhecido como hiato atitude-comportamento. Para isso, optou-se pela análise comparativa do poder preditivo de modelos de escolha racional (Teoria do Comportamento Planejado e Teoria do Comportamento Interpessoal) e do Modelo Atitude-Comportamento-Contexto. Considerou-se uma amostra não probabilística (N=400) de responsáveis por domicílios paulistanos que constavam na lista de assinantes de telefones fixos da Telefônica. Posteriormente os dados coletados foram submetidos à Modelagem de Equações Estruturais. Os resultados empíricos comprovaram a premissa que fundamenta esta Tese, mostrando efeito nulo da variável atitude na predição do comportamento para reciclagem. Os dados também revelaram que a melhor preditora de comportamento para reciclagem foi o hábito, seguido das influências sociais de grupos primários, controle percebido e da conveniência da coleta seletiva. Emergem daí a importância dos determinantes externos (contexto) como característica-chave para intervenções em políticas públicas direcionadas às mudanças comportamentais, conforme pressupostos do modelo ABC.
Resumo:
A lei do preço único afirma que o mesmo ativo negociado em diferentes mercados deve apresentar preços equivalentes. Este trabalho busca verificar se o risco de crédito soberano brasileiro negociado no mercado internacional é precificado de forma semelhante tanto nos tradicionais mercados de títulos quanto no novo e crescente mercado de derivativos de crédito. Adicionalmente, utiliza-se a análise de Price Discovery para examinar qual dos mercados se move mais rapidamente em resposta às mudanças nas condições de crédito da economia brasileira. A análise empírica é feita por meio de modelos de séries de tempo, mais especificamente análise de cointegração e vetor de correção de erros. Os resultados confirmam a predição teórica da lei do preço único de que o risco de crédito brasileiro, tanto nos mercados de títulos quanto no mercado de derivativos de crédito, movem-se juntos no longo prazo. Por fim, a maior parte do Price Discovery ocorre no mercado de derivativos de crédito.
Resumo:
O objetivo desse trabalho é apresentar revisão da literatura empírica sobre a racionalidade das expectativas e eficiência do mercado de câmbio e aplicar essa revisão sobre o mercado de câmbio brasileiro entre 2002 e 2007 em três horizontes distintos de tempo, utilizando-se (i) de dados da pesquisa Focus do Banco Central do Brasil para podermos identificar se o viés de predição do forward é devido ao prêmio de risco cambial ou a formação das expectativas e (ii) dos métodos dos mínimos quadrados ordinários e do vetor auto-regressivo. No curto prazo o mercado é eficiente e irracional, enquanto que, no longo prazo, o forward não está relacionado com o câmbio à vista. Além disso, constatamos que a heterogeneidade dos agentes nesse mercado influencia a variação cambial no curto prazo, e as expectativas possuem uma persistência após um choque estrutural.
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
Na Argentina e no Uruguai, diversas tentativas de negociação de contratos futuros e de índice de preços de carne bovina foram frustradas ao longo dos anos, tendo os derivativos lançados fracassado, em um curto espaço de tempo, por falta de liquidez. Esse cenário, somado a outras particularidades do mercado físico da carne bovina, torna o gerenciamento de risco de preços um problema para os agentes econômicos que atuam nessa cadeia produtiva. Nesse contexto, emergiu a seguinte questão: a proteção cruzada com contratos futuros de boi gordo brasileiro da Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBovespa) é efetiva para a administração do risco de preços dos novilhos de corte no mercado a vista argentino e uruguaio? Com a finalidade de responder a essa questão, propôs-se a verificar se é possível mitigar o risco da volatilidade de preços no mercado a vista dos novilhos de corte argentinos e uruguaios por meio do cross hedging no mercado futuro do boi gordo brasileiro na BM&FBovespa. Para tanto, foram utilizados modelos estáticos e dinâmicos de estimação da razão de cross hedge ótima e efetividade em mitigação do risco. Os resultados do teste de hipóteses de mitigação do risco permitiram assegurar que são fortes as evidências de efetividade do mercado futuro do boi gordo brasileiro na proteção contra o risco de preços do mercado a vista dos novilhos argentinos e uruguaios. Complementarmente, verificou-se a hipótese de eficiência do mercado futuro. Os resultados apresentaram evidências de um relacionamento estocástico comum no longo prazo entre os preços a vista e futuros, e de eficiência na predição dos preços no curto prazo, o que sugere que os contratos futuros de boi gordo brasileiro da BM&FBovespa permitem uma trava adequada de cotação-preço para os novilhos argentinos e uruguaios no mercado a vista.
Resumo:
Apesar da centralidade e relevância do conceito de Vantagem Competitiva em Administração de Empresas, o tema ainda é fonte de debate quanto ao seu significado, mensuração, manifestação e relação com o desempenho financeiro. Este trabalho contribui com esse debate avançando em vários pontos conceituais, metodológicos e empíricos. Por meio de uma sequência de três artigos, o conceito de vantagem competitiva é revisitado propondo-se novas dimensões, sua existência é quantificada usando um modelo Bayesiano, seu dinamismo caracterizado e, por fim, as novas dimensões propostas são testadas empiricamente. O primeiro artigo contribui teoricamente com a discussão do conceito de vantagem competitiva e sua relação com o desempenho financeiro a partir de uma abordagem de criação de valor econômico. Este artigo traz uma contribuição metodológica ao elaborar um modelo hierárquico Bayesiano bidimensional para medir a existência da vantagem competitiva a partir do desempenho financeiro e uma contribuição conceitual ao propor duas novas dimensões do conceito (momentum e consistência). O segundo artigo aplica o modelo proposto no primeiro a uma base de dados de empresas norte americana, cobrindo o período de 1995 a 2011. Esse artigo traz contribuições empíricas ao quantificar a existência e a dinâmica da vantagem competitiva oferecendo uma topografia do tema no mundo real. Os resultados indicam que a manifestação da vantagem competitiva não é tão rara quanto apontada em estudos anteriores e que o grau de raridade depende fortemente do setor. A implicação para a teoria e para a prática é uma revisão da importância do setor frente às teorias que focam os recursos internos da empresa, como a visão baseada em recursos. Os resultados também demonstram e caracterizam como lucratividade e crescimento são conjuntamente necessários para avaliar a presença da vantagem competitiva e influem na sua dinâmica de forma diferenciada. O terceiro artigo operacionaliza as novas dimensões do conceito de vantagem competitiva propostas no primeiro artigo e testa sua ocorrência e capacidade de prever a mobilidade do estado competitivo numa visão longitudinal. Os resultados indicam que a inclusão das novas dimensões potencializa a predição do status competitivo futuro das empresas.
Resumo:
Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.
Resumo:
Até recentemente, pesquisas sobre a relação do usuário com o uso de tecnologia focaram sistemas utilitários. Com a popularização dos PCs para uso doméstico e o surgimento da Internet, a interação dos usuários com tecnologia deixou de ser vista apenas de forma utilitária, e passou a ser orientada também ao atendimento de necessidades hedônicas, fazendo com que as pesquisas em Tecnologia e Sistemas de Informação (SI) extrapolassem os limites da empresa. As pesquisas no campo tem dado atenção cada vez maior ao uso de sistemas hedônicos, cujo objetivo é satisfazer necessidades como entretenimento e diversão, ao invés de um valor instrumental. Entre os sistemas hedônicos, um em particular recebe cada vez mais destaque, os videogames. Jogos digitais estão presentes por toda a sociedade, existindo uma crescente adoção, institucionalização e ubiquidade dos videogames na vida diária. A nova geração foi criada com jogos interativos e espera o mesmo tipo de interação nos demais SI. Por serem divertidos e envolventes, organizações de diversos setores estão tentando integrar características dos jogos digitais em sistemas organizacionais, com a expectativa de melhorar a motivação e desempenho dos funcionários e engajar consumidores online. Para analisar a relação do usuário com jogos digitais foram desenvolvidas três pesquisas. A primeira aborda os motivos pelos quais o indivíduo se engaja com o jogo, definindo Engajamento com base em desafio, imersão e curiosidade. Já as motivações dos indivíduos são analisadas pelo divertimento e a competição. A partir do momento em que o indivíduo está engajado, é necessário medir a experiência holística que ele experimenta desta interação. Para tanto, a segunda pesquisa analisa os dois construtos mais utilizados no campo para mensurar tal experiência, Flow e Absorção Cognitiva. A última pesquisa se utiliza dos conceitos explorados nas duas anteriores para desenvolver uma rede nomológica para a predição da intenção comportamental do indivíduo para o uso de jogos digitais. Como resultados temos um esclarecimento sobre os fatores que levam a um comportamento engajado dos jogadores, com maior importância do desafio de dominar o jogo e divertimento em relação a competição com outros jogadores. Outra contribuição é a conclusão que Flow e Absorção Cognitiva, dois dos principais construtos utilizados em SI para medir a experiência hedônica do usuário, não são adequados para mensurar tal experiência para videogames. Por fim existe a proposta de uma rede nomológica em um contexto de utilização de um sistema hedônico interativo, permitindo que novos trabalhos possam se beneficiar.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
Resumo:
A aprovação e posterior regulamentação da Lei 12.305, de 2 de agosto de 2010, que institui a Política Nacional de Resíduos Sólidos – PNRS estabeleceu necessidades de uma nova articulação entre os três entes federados – União, Estados e Municípios – o setor produtivo e a sociedade em geral na busca de soluções para os problemas atuais na gestão de resíduos sólidos. Baseada principalmente no conceito de responsabilidade compartilhada, toda a sociedade – cidadãos, setor produtivo, governos e sociedade civil organizada – passa a ser responsável pela gestão dos resíduos sólidos por ela produzidos. Falando especificamente do cidadão, um dos atuais desafios é saber como seu comportamento em relação à separação de resíduos recicláveis no âmbito do seu domicílio se relaciona com os objetivos e metas de reciclagem do município. Considerou-se uma amostra (N=310) de residentes em domicílios do Rio de Janeiro, e os dados coletados foram analisados segundo o modelo ABC de STERN. Os resultados empíricos mostraram que as variáveis associadas ao hábito, às normas sociais diretas e às atitudes afetivas têm peso significativo na predição do modelo do comportamento pró-reciclagem. Como contribuição prática, espera-se que o PMGIRS do Rio de Janeiro possa ser aprimorado, contribuindo para o aumento da participação do cidadão na separação de resíduos recicláveis em seu domicílio, auxiliando os gestores municipais nas decisões necessárias ao cumprimento de objetivos e metas relacionados com a reciclagem na cidade do Rio de Janeiro.
Resumo:
Ajuste assimétrico de preço é observado em diversos mercados, notavelmente varejo de gasolina: um aumento de custo é passado para os consumidores mais rápido do que uma redução. Eu desenvolvo um modelo de busca dos consumidores que gera essa predição sob aversão à perda. Uma fração dos consumidores ignora os preços no mercado e pode adquirir informação a um custo, o que permite que as firmas tenham lucro com dispersão de preços. Ajuste assimétrico de preço emerge se os consumidores são aversos a perdas em relação a um preço de referência. Custos mais altos tornam os consumidores mais dispostos a procurar, mas também diminui as chances de encontrar preços baixos, gerando uma relação custo-preço convexa.