995 resultados para Partição da variância


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A importância relativa de diversas origens da heterogeneidade do desempenho das firmas tem sido discutida em termos teóricos e testada empiricamente, com ênfase nos efeitos da indústria, da corporação, dos recursos idiossincráticos da firma e do ano. Este trabalho estudou a influência do país sobre o desempenho das firmas. Efeitos significantes e significativos do país e da interação indústria-país foram identificados. A amostra analisada incluiu mais de 80.000 observações e 11.000 firmas em 37 países e 256 indústrias em um período de 10 anos. Um modelo linear hierárquico com quatro níveis permitiu identificar que os efeitos país, indústria e indústria-país têm aproximadamente a mesma importância relativa e, em conjunto, quase a mesma magnitude do efeito firma. A relevância destes efeitos foi consistente entre as diferentes divisões do SIC (Standard Industrial Classification) assim como se manteve estável ao longo do tempo. Um modelo para explicação da variância do desempenho entre países foi proposto e estimado, em caráter exploratório, na análise da relação entre competitividade das nações e rentabilidade das firmas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversos estudos vêm analisando a contribuição da gestão da qualidade para o resultados financeiros das empresas, sejam eles conduzidos por acadêmicos ou por firmas de consultoria diretamente interessadas em comprovar a relação entre qualidade e desempenho superior. Apesar dos benefícios atribuídos ao gerenciamento da qualidade, o conjunto de pesquisas empíricas publicadas até hoje apresenta resultados não conclusivos. A grande maioria desses trabalhos se utilizam de dados de empresas americanas ou européias; no Brasil tal linha de pesquisa ainda é incipiente. Além de comparar o desempenho financeiro de uma amostra de empresas que efetivamente adotam a gestão da qualidade com as demais empresas de seus respectivos setores de atuação, este trabalho avaliou também a evolução do desempenho das próprias empresas dessa amostra no longo prazo (10 anos), comparando seus resultados no período pós-implementação da qualidade com os resultados obtidos anteriormente. Como proxy para a adoção efetiva da qualidade foram consideradas na amostra de estudo 33 empresas reconhecidas como ganhadoras ou finalistas do Prêmio Nacional da Qualidade (PNQ). O desempenho financeiro foi medido em três dimensões: crescimento, lucratividade e valor de mercado. Esses dados foram obtidos de um conjunto de bases de dados entre as quais se destacam o Balanço Anual da Gazeta Mercantil, a Economática e as Pesquisas Industriais Anuais do IBGE. Para isolar o efeito do setor de atuação das empresas, as variáveis foram parametrizadas de acordo com uma relação entre o desempenho das empresas da amostra de estudo, o desempenho do setor e a variância do desempenho do setor. No total, foram utilizadas 12.010 observações de 2.624 empresas (33 da amostra de estudo e 2.591 dos setores), no período de 1987 a 2006. Na primeira etapa da metodologia, o desempenho de cada empresa da amostra de estudo foi sumarizado por meio de regressões lineares, resultando em dois coeficientes: um linear representando o desempenho no ponto médio do período e um angular representando a taxa de evolução do desempenho no mesmo período. A seguir, análises paramétricas (testes t) e não-paramétricas (testes de Wilcoxon para observações pareadas e teste dos sinais) foram realizadas para os dados de toda a amostra. Os resultados mostraram que a rentabilidade foi a única dimensão estudada onde as empresas da amostra tiveram desempenho superior à média de seus respectivos setores; por outro lado, não foram observadas melhorias no desempenho quando comparados os períodos anterior e posterior à implementação efetiva da qualidade. A análise em conjunto desses dois achados fornece indícios de uma relação de co-variância, e não causal, entre qualidade e lucratividade. As conclusões apresentam as principais implicações dos resultados, com ênfase na formulação de possíveis hipóteses para se entender as causas da falta de associação entre qualidade e desempenho superior. Entre as mais importantes destacam-se hipóteses que relacionam qualidade e a perda da capacidade de inovação e que avaliam a gestão da qualidade sob a ótica da linha de pesquisa em estratégia conhecida por visão baseada em recursos (resource-based view – RBV).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é analisar as regras de condução da política monetária em modelos em que os agentes formam suas expectativas de forma racional (forward looking models), no contexto do regime de metas de inflação. As soluções ótimas de pré - comprometimento e discricionária são derivadas e aplicadas a um modelo macroeconômico para a economia brasileira e os resultados são também comparados com os obtidos pela adoção da regra de Taylor. A análise do comportamento do modelo sob diferentes regras é feita através da construção da fronteira do trede-oit da variância do hiato do produto e da inflação e da análise dinâmica frente a ocorrência de choques. A discussão referente à análise dinâmica do modelo é estendida para o caso onde a persistência dos choques é variada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é analisar o uso de regras ótimas irrestritas e de regras simples restritas de política monetária para a economia brasileira, com especial atenção ao impacto da taxa de câmbio na transmissão da política monetária. As regras foram encontradas através de um processo de programação dinâmica e comparadas em termos da eficiência econômica de cada uma, medida pela redução da variância do produto e da inflação. Estes resultados serviram de referência para avaliar o desempenho do regime de metas de inflação no Brasil, desde a sua implementação em julho de 1999.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho analisa a evolução da política monetária desde a implementação do regime de metas de inflação no período de 1999 a 2009 com o intuito de avaliar se há diferenças na condução de política monetária entre as gestões Armínio Fraga e Henrique Meirelles. Um modelo de equilíbrio geral novo-keynesiano baseado em expectativas racionais é utilizado para modelar a economia brasileira e deriva-se uma regra de Taylor para encontrar a condição suficiente para a convergência da inflação. O processo de analise empírica consiste em estimar um modelo de vetores auto-regressivos, cujos parâmetros variam ao longo do tempo assim como as inovações na matriz de variância-covariância. Para tanto, será utilizado um algoritmo de simulação de Monte Carlo. Os resultados empíricos mostram que (i) não há diferenças significativas na condução de política monetária durante as gestões Armínio Fraga e Henrique Meirelles; (ii) A partir de 2003, a taxa de juros permaneceu acima da necessária para a convergência da inflação de acordo com a condição de estabilidade; e (iii) a gestão Armínio Fraga agiu de acordo com a regra de estabilização na crise de 2002, porém a inflação permaneceu acima da meta por causa da magnitude dos choques exógenos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do trabalho é demonstrar que a otimização de uma carteira composta por fundos multimercados brasileiros gera melhores resultados quando a medida de risco utilizada é o Conditional Value-at-Risk. Modelos de otimização de carteira têm como objetivo selecionar ativos que maximizem o retorno do investidor para um determinado nível de risco. Assim, a definição de uma medida apropriada de risco é de fundamental importância para o processo de alocação. A metodologia tradicional de otimização de carteiras, desenvolvida por Markowitz, utiliza como medida de risco a variância dos retornos. Entretanto, a variância é uma medida apenas apropriada para casos em que os retornos são normalmente distribuídos ou em que os investidores possuem funções de utilidade quadrática. Porém, o trabalho mostra que os retornos dos fundos multimercados brasileiros tendem a não apresentar distribuição normal. Logo, para efetuar a otimização de uma carteira composta por fundos multimercados brasileiros é necessário utilizar uma medida de risco alternativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho utiliza a “Contabilidade do crescimento” para analisar e explicar as diferenças nas taxas de crescimento do PIB per capita dos países Brasil, Chile, China, Índia e Coréia no período compreendido entre os anos 1960 e 2000. Descrevendo os quatro fatos estilizados do crescimento econômico, a “Contabilidade do crescimento de Solow”, bem como a função de produção Cobb-Douglas, buscou-se dar o embasamento teórico para o modelo utilizado de fato no presente trabalho, que decompôs o crescimento dos diferentes países para identificar qual fator mais contribuiu ou quais fatores de produção mais contribuíram para os diferentes níveis de crescimento econômico dos países analisados. A metodologia utilizada no trabalho baseia-se em pesquisas bibliográficas, que visam primordialmente a fundamentação conceitual e teórica de alguns conceitos utilizados e em pesquisas às diferentes bases de dados históricos referentes aos países e variáveis analisadas. Pode-se afirmar que as principais fontes de consulta foram a “Penn World Table” da Universidade da Pensilvânia e o Banco Mundial. O estudo irá demonstrar, além dos diferentes níveis de cada um dos fatores (capital humano, físico e progresso tecnológico ou “TFP – Total Factor Productivity” ) nos países, como cada um desses fatores evoluiu ao longo dos anos e qual a contribuição de cada um nas taxas de crescimento do PIB per capita de cada um dos países analisados. É feito um estudo da variância do crescimento do PIB per capita, onde ficará claro que boa parte das diferenças apresentadas nas taxas de crescimento dos países vem do progresso tecnológico ou da covariância dos fatores, que são progresso tecnológico e o agrupamento do capital físico e humano. Também verificou-se a correlação existente entre a variação do PIB per capita e as variáveis que o compõe, permitindo a visualização do alto grau de correlação existente, principalmente com o progresso tecnológico ou “TFP”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quando as empresas decidem se devem ou não investir em determinado projeto de investimentos a longo prazo (horizonte de 5 a 10 anos), algumas metodologias alternativas ao Fluxo de Caixa Descontado (FCD) podem se tornar úteis tanto para confirmar a viabilidade do negócio como para indicar o melhor momento para iniciar o Empreendimento. As análises que levam em conta a incerteza dos fluxos de caixa futuros e flexibilidade na data de início do projeto podem ser construídos com a abordagem estocástica, usando metodologias como a solução de equações diferenciais que descrevem o movimento browniano. Sob determinadas condições, as oportunidades de investimentos em projetos podem ser tratados como se fossem opções reais de compra, sem data de vencimento, como no modelo proposto por McDonald-Siegel (1986), para a tomada de decisões e momento ótimo para o investimento. Este trabalho analisa a viabilidade de investimentos no mercado de telecomunicações usando modelos não determinísticos, onde a variável mais relevante é a dispersão dos retornos, ou seja, que a variância representa o risco associado a determinado empreendimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação analisa o desempenho e as características de uma parte dos atuais fundos de fundos brasileiros, os denominados multigestores, bem como o desempenho de fundos de fundos resultantes da simulação de carteiras de fundos brasileiros que utilizam várias estratégias de investimentos, conhecidos como multimercados. A diversificação através de uma carteira de fundos multimercados envolve outras variáveis além da tradicional abordagem de média-variância. A primeira parte do estudo apresenta as principais características dos fundos de fundos selecionados e descreve, além da média e variância, o terceiro e quarto momentos das distribuições dos retornos. A segunda parte utiliza a ferramenta chamada Análise de Estilo (Sharpe, 1988), para determinar a exposição dos retornos de cada um dos fundos de fundos da amostra a determinadas classes de ativos. Neste trabalho foram escolhidas as seguintes classes de ativos: Ibovespa, CDI, Dólar e IRF-M. Através da abordagem de média-variância, a terceira parte do estudo utiliza a ferramenta conhecida na Teoria da Carteira (Markowitz, 1952) como fronteira de mínima variância, para avaliar o desempenho de cada um dos fundos de fundos da amostra. O desempenho é avaliado com base na comparação da fronteira de mínima variância construída a partir de uma carteira de referência (composta por dois dos principais ativos financeiros brasileiros de baixo e alto risco: CDI e Ibovespa, respectivamente) com outra fronteira de mínima variância construída a partir do acréscimo de um fundo de fundos à carteira de referência. A última parte refere-se a simulações de carteiras de fundos multimercados que permitem a alocação de renda variável na carteira e também permitem o uso de alavancagem. Seu objetivo é verificar, através dos valores de retorno médio, variância, assimetria e curtose, a eficiência desses fundos como instrumentos de diversificação. Os resultados mostram que os 32 fundos de fundos multigestores analisados não tem distribuição normal de retornos e 29 apresentam assimetria negativa. A Análise de Estilo indica grande sensibilidade ao CDI e ao IRF-M, e pouca sensibilidade ao Ibovespa e Dólar, importantes índices do mercado financeiro. A maioria dos fundos de fundos multigestores melhorou a Fronteira Eficiente quando adicionados a uma carteira de referência (CDI + Ibovespa), ou seja, houve uma redução na relação risco-retorno. A simulação das carteiras indica que nos últimos três anos os fundos multimercados classificados como Com Renda Variável Com Alavancagem tem sido mais agressivos nas estratégias, devido ao comportamento da assimetria, porém o comportamento da curtose indica também uma posição nem tão agressiva. Logo, a construção de carteiras com fundos que utilizam diversas estratégias de investimentos não deve se restringir à abordagem de média-variância. Deve também envolver também assimetria, curtose e preferências do investidor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na presente dissertação foi implementado um modelo para execução de hedging de mínima variância de opções de compra européias em mercados incompletos, considerando um espaço de tempo discreto e contínuo de estados. O desempenho foi medido de forma comparativa tomando como base a popular estratégia delta-hedging em um grande número de simulações, a partir de cenários definidos com o objetivo de submeter o modelo a diversas situações. A trajetória do preço do ativo objeto foi representada por um processo de difusão com saltos, composto por duas parcelas: (i) um processo de Wiener, cuja principal característica é ser uma função contínua e diferenciável em todos os pontos, e (ii) por um processo de Poisson, responsável por inserir descontinuidades na trajetória.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O comportamento do retorno excedente de investimentos em moeda estrangeira tem desafiado a ciência econômica. Dois aspectos têm sido particularmente intrigantes: (i) o retorno excedente é significativamente diferente de zero e, (ii) a variância desse retorno é bastante elevada. O objetivo esse trabalho é verificar se modelos baseados no CAPM (capital asset pricing model) internacional são capazes de prever os dois fatos mencionados acima. Para tanto, o trabalho começa descrevendo o comportamento do retorno excedente de investimentos em 13 importantes moedas globais sob a ótica de um investidor norte-americano. Em seguida, três diferentes versões do CAPM internacional são desenvolvidas e estimadas. A conclusão geral é que essa classe de modelos não é plenamente capaz de prever o comportamento do retorno excedente realizado. Porém, ressalva-se que diversos aspectos discutidos neste trabalho como custo de transação, impostos, sample problem e learning, podem ter mascarado os resultados obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis has three chapters. Chapter 1 explores literature about exchange rate pass-through, approaching both empirical and theoretical issues. In Chapter 2, we formulate an estate space model for the estimation of the exchange rate pass-through of the Brazilian Real against the US Dollar, using monthly data from August 1999 to August 2008. The state space approach allows us to verify some empirical aspects presented by economic literature, such as coe cients inconstancy. The estimates o ffer evidence that the pass-through had variation over the observed sample. The state space approach is also used to test whether some of the "determinants" of pass-through are related to the exchange rate pass-through variations observed. According to our estimates, the variance of the exchange rate pass-through, monetary policy and trade ow have infuence on the exchange rate pass-through. The third and last chapter proposes the construction of a coincident and leading indicator of economic activity in the United States of America. These indicators are built using a probit state space model to incorporate the deliberations of the NBER Dating Cycles Committee regarding the state of the economy in the construction of the indexes. The estimates o ffer evidence that the NBER Committee weighs the coincident series (employees in nonagricultural payrolls, industrial production, personal income less transferences and sales) di fferently way over time and between recessions. We also had evidence that the number of employees in nonagricultural payrolls is the most important coincident series used by the NBER to de fine the periods of recession in the United States.