213 resultados para Quantidade de aplicação
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
Esta dissertação estuda a aplicação da estratégia Pairs Trading no mercado acionário brasileiro. Envolve basicamente a identificação de pares de ações que tenham movimentos de preço semelhantes e posteriormente a operação do diferencial entre seus preços. É possível observar no mercado a existência de um valor de equilíbrio de longo prazo para alguns pares de ações e quando o diferencial divergir de certa quantidade pré-definida opera-se o diferencial no intuito de que o mesmo retorne ao seu valor de equilíbrio de longo prazo, ou seja, espera-se que ocorra uma reversão à média do diferencial. A metodologia para a identificação desses pares de ações que descrevem movimentos semelhantes vem do conceito de cointegração. Essa metodologia é aplicada sobre as ações do índice Bovespa de 04-Jan-1993 a 30-Jun-2005. Inicialmente é feita uma pré-seleção dos pares de ações via correlação, ou medida de distância. Para a seleção final é feito o teste de cointegração, onde é utilizado o método de Dickey-Fuller aumentado (Augmented Dickey-Fuller test – ADF) para verificar a existência de raiz unitária da série de resíduo da combinação linear do logaritmo dos preços. Após a seleção, os pares são simulados historicamente (backtesting) para se analisar a performance dos retornos dos pares de ações, incluindo também os custos operacionais.
Resumo:
Concomitantemente à produção de etanol, a partir da fermentação de diferentes matérias-primas (cana-de-açúcar, beterraba, milho, trigo, batata, mandioca), produz-se a vinhaça. A vinhaça da cana-de-açúcar é gerada na proporção média de 12 litros para cada litro de etanol. O Brasil é o maior produtor mundial de cana-de-açúcar (570 milhões de toneladas, em 2009) com a produção de 27 bilhões de litros/ano de etanol, no ciclo 2009/2010, basicamente para fins carburantes, e, portanto, a quantidade de vinhaça produzida é da ordem de 320 bilhões de litros/ano. Dentre as possíveis soluções para a destinação da vinhaça, tais como: concentração, tratamento químico e biológico ou produção de biomassa, é sua aplicação no solo a forma mais usual de disposição. No entanto, sua aplicação no solo não pode ser excessiva nem indiscriminada, sob pena de comprometer o ambiente e a rentabilidade agrícola e industrial da unidade sucroalcooleira. A necessidade de medidas de controle sobre a aplicação de vinhaça no solo do Estado de São Paulo, que concentra a produção de 60% do etanol produzido no Brasil, levou à elaboração da Norma Técnica P4.231, em 2005. A constatação do cumprimento dos itens desta Norma é uma das ações do agente fiscalizador, no monitoramento da geração e destinação da vinhaça pelos empreendimentos produtores de etanol. Os itens 5.7.1 e 5.7.2, desta Norma, tornam obrigatório o encaminhamento à CETESB (Companhia Ambiental do Estado de São Paulo), para fins de acompanhamento e fiscalização, até o dia 02 de abril de cada ano, o PAV (Plano de Aplicação de Vinhaça). Com o intuito de proporcionar melhor entendimento da Norma P4.231, contribuir para otimização de sua aplicabilidade e melhoria e perceber a realidade prática da aplicação da vinhaça, foram analisados PAVs protocolados na Agência Ambiental de Piracicaba, licenças concedidas, processos de licenciamento e realizadas vistorias a campo. Conclui-se que a Norma P4.231 representa um avanço no gerenciamento do uso da vinhaça no Estado de São Paulo, por disciplinar a disposição de vinhaça no solo, tornando obrigatórios: demarcações de áreas protegidas e núcleos populacionais, caracterização de solo e da vinhaça, doses máximas a serem aplicadas, estudos da geologia e hidrogeologia locais, monitoramento das águas subterrâneas, impermeabilização de tanques e dutos. Estabelece critérios a serem obedecidos por lei, e todos são condutas de boas práticas de proteção ao meio, que repercutem em maior rentabilidade agrícola e industrial. A Norma P4.231 é bem elaborada, complexa e extensa, o que a torna de difícil execução. Para facilitar sua aplicabilidade, sugere-se o estabelecimento de um cronograma de prioridades: impermeabilização dos tanques e dutos, drenos testemunha com funcionamento otimizado e boa caracterização do que está sendo aplicado, se vinhaça pura ou se misturada a águas residuárias. Das oito empresas deste estudo, apenas quatro (as maiores) vêm protocolando os PAVs com regularidade, desde 2005. As informações apresentadas foram incompletas e, em alguns casos, precárias. Mesmo com lacunas, os dados fornecidos, desde o início da obrigatoriedade do PAV, foram de utilidade para esboçar o perfil da atividade sucroalcooleira na região estudada.
Resumo:
Com o rápido crescimento da Internet, a quantidade de informações disponíveis tornou-se gigantesca, dificultando a busca pelo que realmente é essencial. Da mesma forma que vários esforços na divulgação de informações relevantes foram efetuados, sites de qualidade duvidosa também apareceram. Os "Sites de busca, apesar de ainda limitados, passaram a ter papel cada vez mais importante, e alguns deles são, hoje, líderes em número de acessos. A avaliação da qualidade de sites na Internet é, hoje, tópico de estudo de vários pesquisadores em todo o mundo. Vários modelos de avaliação existem, com focos que se alternam entre a avaliação dos aspectos tecnológicos e a medição da qualidade percebida pelo usuário ou consumidor. Nesta pesquisa, optou-se por analisar a aplicabilidade do instrumento "WebOual" - criado pelos professores Stuart Barnes (Victoria University of Wellington - Nova Zelândia) e Richard Vidgen (Universidade de Bath - Inglaterra) - o qual privilegia a avaliação da qualidade dos sites pesquisados pela ótica do usuário ou consumidor. Será aplicada a abordagem WebOual a três sites de busca internacionais que possuem versões localizadas em português. no Brasil: Altavista, Yahoo! e Google. Trata-se de utilização inédita da abordagem WebOual, anteriormente testada por seus criadores na avaliação de sites de Livrarias Virtuais, Universidades, Leilões ontine e sites WAP.
Resumo:
O objetivo deste trabalho passa por entender o impacto dos fatores não observáveis na escolha do sistema de aquecimento de água na intensidade do consumo de eletricidade domiciliar. Para isto será aplicado um modelo discreto-contínuo para entender o efeito da escolha discreta do tipo de aquecimento de água domiciliar sobre o consumo de energia elétrica do mesmo domicílio, escolha contínua. Primeiramente foi usado um modelo LOGIT e por meio deste foram entendidos os fatores que influenciam a escolha discreta do consumidor. Com os resultados encontrados na escolha discreta, temos em um segundo momento que constatar se esta escolha é significante para a intensidade do consumo de energia elétrica. Os resultados obtidos usando o método de Hausmann demonstraram que ignorar este fator (escolha discreta) pode levar a estimadores viesados para a parte contínua do modelo, ou seja, a escolha discreta é significante e ajuda a explicar o consumo de energia elétrica domiciliar. Os resultados mostraram que temos diferenças de até 10% no estimador obtido quando ignoramos este fator. É importante notar que este tipo de falha no cálculo, pode trazer problemas na decisão e na quantidade de investimento de um país. Além disso, os resultados reforçaram e ratificaram o trabalho desenvolvido por Dubbin e McFadden (1984) que foram usados como base para o estudo.
Resumo:
Este trabalho teve como objetivo mensurar, através da metodologia de opções reais, o valor de opções e do método de pagamento definidos no contrato de aquisição de uma companhia.
Resumo:
A implantação dos sistemas de notas fiscais eletrônicas proporcionou uma grande quantidade de dados para as administrações tributárias. Analisar esses dados e extrair informações importantes é um desafio. Esse trabalho buscou, por meio de técnicas de análise de dados e mineração de textos, identificar, a partir da descrição dos serviços prestados, notas emitidas incorretamente a fim de respaldar um melhor planejamento de fiscalizações.
Resumo:
Este trabalho minera as informações coletadas no processo de vestibular entre 2009 e 2012 para o curso de graduação de administração de empresas da FGV-EAESP, para estimar classificadores capazes de calcular a probabilidade de um novo aluno ter bom desempenho. O processo de KDD (Knowledge Discovery in Database) desenvolvido por Fayyad et al. (1996a) é a base da metodologia adotada e os classificadores serão estimados utilizando duas ferramentas matemáticas. A primeira é a regressão logística, muito usada por instituições financeiras para avaliar se um cliente será capaz de honrar com seus pagamentos e a segunda é a rede Bayesiana, proveniente do campo de inteligência artificial. Este estudo mostre que os dois modelos possuem o mesmo poder discriminatório, gerando resultados semelhantes. Além disso, as informações que influenciam a probabilidade de o aluno ter bom desempenho são a sua idade no ano de ingresso, a quantidade de vezes que ele prestou vestibular da FGV/EAESP antes de ser aprovado, a região do Brasil de onde é proveniente e as notas das provas de matemática fase 01 e fase 02, inglês, ciências humanas e redação. Aparentemente o grau de formação dos pais e o grau de decisão do aluno em estudar na FGV/EAESP não influenciam nessa probabilidade.
Resumo:
None
Resumo:
Neste trabalho, fazendo uso da teoria das equações, iremos cotejar a aplicação de dois métodos clássicos de separação de raízes. Tais métodos, especializados para a "separação" das taxas internas de retorno de um projeto, são superiores às condições de suficiência pois que permitem a determinação do número exato de taxas internas de retorno associadas a um projeto, no intervalo de taxas de juros considerado.
Resumo:
Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor pre- sente (MVP) na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, a previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada em um arcabouço de séries temporais utilizando a técnica de Au- torregressões Vetoriais. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.
Resumo:
Este estudo tem o objetivo de comparar várias técnicas que podem ser empregadas para proteger posições à vista usando mercados futuros. Partindo de uma posição na qual o investidor está à mercê do mercado, adota-se as técnicas mais simples de proteção até chegar a estimação da razão ótima de hedge ou de risco mínimo utilizando o modelo condicional, modelo no qual a variância é dependente do tempo. Para justificar a utilização da razão ótima de hedge dinâmica é introduzida a possibilidade de haver custo de transação. Os dados utilizados neste estudo são o preço à vista e preço de ajuste futuro do IBOVESPA do período 13/07/90 à 14/12/95.
Resumo:
A proposta deste trabalho é modelar o apreçamento de projetos de investimento na área da bioprospecção. Para isto, utilizamos a técnica de opções reais aplicada a um contrato sujeito a três tipos de incerteza: custos, Fluxos de caixa e a própria descoberta do ativo subjacente, no caso, o princípio ou composto biotecnológico. Dentro deste arcabouço, obtivemos expressões matemáticas para o valor instantâneo de um projeto em caso de sucesso e para o pay-o¤ de uma opção real de abandono. Através de simulações e análises de sensibilidade, mostramos que existe um período ótimo de concessão e que o valor da mesma, em conjunto com outros parâmetros do modelo, pode inibir o investimento sob o ponto de vista de um investidor privado.
Resumo:
Este trabalho tem como objetivo explicar o funcionamento do Sistema Brasileiro de Defesa da Concorrência e apresentar novas ferramentas de auxílio à política antitruste. Para isso, discutiremos o Sistema Norte-Americano de Defesa da Concorrência e, principalmente, o guideline americano, que é a base das técnicas de análise de fusões e aquisições em grande parte dos países, inclusive o Brasil. Uma vez apresentado o ambiente institucional, explicare- mos alguns modelos de simulação de fusões, uma técnica relativamente recente utilizada por alguns órgãos antitruste do mundo que permite fazer previsões do novo nível de preços da indústria após a fusão. Para ilustrar as virtudes do método, aplicaremos o modelo a alguns casos de aquisições conhecidos no Brasil e analisaremos seus resultados.
Resumo:
This paper uses canonical correlation analisys to identify leading and coincident indicators of economic activity in Brazil. ln contrast with the traditional literature on the subject, no restrictions are made regarding the number of common cycles that are necessary to explain the complete cyclical behavior of the coincident variables. For the brazillian data, it is found that three common cycles exhaust all the cyclical pattern of economic activity. Based on the methodology developed here, it is also sugested an alternative chronology of the recent brazillian recessions.