19 resultados para normalidade assintótica

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Devido à utilização de estratégias distintas de investimento dos hedge funds brasileiros caracterizadas pelo uso de derivativos, operações alavancadas e vendas a descoberto, esses fundos apresentam significante não normalidade dos retornos gerados. Portanto, as medidas usuais de avaliação de performance são incapazes de fornecer resultados consistentes com o verdadeiro desempenho dos portfólios de hedge fund. Este trabalho irá utilizar duas metodologias não tradicionais para analisar a performance dos hedge funds brasileiros e determinar qual estratégia supera o mercado acionário. Serão utilizadas duas medidas não paramétricas, Almost Stochastic Dominância (ASD) e Manipulation-Proof Performance Measure (MPPM). Os resultados demonstram que os hedge funds brasileiros não superam os benckmaks utilizados na dominância de primeira ordem, mas quando analisada a dominância de segunda ordem sete estratégias apresentaram desempenho superior ao Índice Ibovespa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Segurança Empresarial é um programa preventivo que visa proteger os valores de uma empresa, para preservação das condições operacionais dentro da normalidade. As empresas estão sujeitas a ameaças relacionadas às suas atividades no mercado em que atuam. Muitas dessas ameaças são conhecidas e identificadas e, dentro do possível, é estabelecido um programa de proteção de seus interesses. Entretanto, as ameaças aos demais bens da empresa não são evidentes, nem perceptíveis tão facilmente. As medidas tomadas para prevenir a efetivação dessas ameaças, por meio de um Programa de Segurança Empresarial ou para minorar os problemas decorrentes da concretização dessas ameaças, até a volta às condições habituais de operação das empresas, por meio da execução de um Plano de Contingência, são vistas, não raramente, como despesas e poucas vezes como investimento com retomo. Nem geram resultados operacionais para a empresa. o objetivo final desta dissertação de mestrado foi estabelecer um Programa de Segurança Empresarial para a Fundação Getulio Vargas - FGV, recomendando a revisão das normas e procedimentos de segurança que comporão o Manual de Segurança e sugerir que a FGV o inclua no Plano Estratégico. Para alcançar o objetivo final. foram definidos: Conceitos Básicos de Segurança e Contingência; Critérios de Classificação de Dados; Gestão do Processo de Segurança e Contingência; Função Administração de Segurança. Alguns tipos de pesquisa foram aplicados. Quanto aos meios, caracterizou-se como estudo de caso; para a elaboração das recomendações de revisão das normas e procedimentos de segurança, foram aplicadas pesquisas bibliográfica, documental e de campo. Quanto ao fim, pesquisa aplicada, motivada pela necessidade de resolver problemas concretos, com finalidade prática. Foram efetuadas visitas e entrevistas nas instalações da sede da FGV e no prédio da Bolsa de Valores do Rio de Janeiro - BVRJ. Dada a complexidade e abrangência da Segurança Empresarial, o estudo foi limitado a tratar de segurança física. Foi observada a necessidade da FGV rever as Normas e Procedimentos de Segurança Empresarial, buscando melhorar o nível de segurança geral e adotar instrumentos modernos de prevenção de ocorrência de sinistros que ponham em risco os valores da FGV, a saber: pessoas, instalações físicas, equipamentos, informações, suprimentos e facilidades de comunicação. Está sendo recomendada a adoção da metodologia Sistemática Integrada de Segurança e Contingência - SISC, para minimizarão dos impactos de situações emergências.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work aims to study the Brazilian Army as an actor in the process of implementation of public policies. This study evaluates and verifies, in loco, if the actions executed by the Brazilian Army contingent in Haiti (MINUSTAH), especially the Brazilian Battalion, are effectively contributing to satisfactory security conditions for the development and reestablishment of Haiti's institutional normality. The main activities developed by the six Brazilian contingents that had already acted and are still acting in Haiti will be described. This work ratifies the Brazilian Army's contribution to the creation of a favorable environment so that the Haitian State, with the contribution of other countries, international organisms and non-governmental organizations, could work on its reconstruction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe maneiras alternativas para a estimação consistente de uma medida abstrata, crucial para o estudo de decisões intertemporais, o qual é central a grande parte dos estudos em macroeconomia e finanças: o Fator Estocástico de Descontos (SDF, sigla em Inglês). Pelo emprego da Equação de Apreçamento constrói-se um inédito estimador consistente do SDF que depende do fato de que seu logaritmo é comum a todos os ativos de uma economia. O estimador resultante é muito simples de se calcular, não depende de fortes hipóteses econômicas, é adequado ao teste de diversas especificações de preferência e para a investigação de paradoxos de substituição intertemporal, e pode ser usado como base para a construção de um estimador para a taxa livre de risco. Alternativas para a estratégia de identificação são aplicadas e um paralelo entre elas e estratégias de outras metodologias é traçado. Adicionando estrutura ao ambiente inicial, são apresentadas duas situações onde a distribuição assintótica pode ser derivada. Finalmente, as metodologias propostas são aplicadas a conjuntos de dados dos EUA e do Brasil. Especificações de preferência usualmente empregadas na literatura, bem como uma classe de preferências dependentes do estado, são testadas. Os resultados são particularmente interessantes para a economia americana. A aplicação de teste formais não rejeita especificações de preferências comuns na literatura e estimativas para o coeficiente relativo de aversão ao risco se encontram entre 1 e 2, e são estatisticamente indistinguíveis de 1. Adicionalmente, para a classe de preferência s dependentes do estado, trajetórias altamente dinâmicas são estimadas para a tal coeficiente, as trajetórias são confinadas ao intervalo [1,15, 2,05] e se rejeita a hipótese de uma trajetória constante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresenta o método value at risk (VaR) para se mensurar o risco de mercado, sob diferentes abordagens. Analisa a série histórica do índice Bovespa no período de 1995 a 1996 por meio de testes econométricos de normalidade, autocorrelação dos retornos e raiz unitária. Comparo valor obtido a partir dos diferentes modelos de estimação de volatilidade propostos e verifica qual dos modelos foi o mais adequado para o caso estudado

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A avaliação de desempenho de fundos de investimentos é, tradicionalmente, realizada utilizando-se o Índice de Sharpe, que leva em consideração apenas os dois primeiros momentos da distribuição de retornos (média e variância), assumindo as premissas de normalidade da distribuição de retornos e função quadrática de utilidade do investidor. Entretanto, é sabido que uma função de utilidade quadrática é inconsistente com o comportamento do investidor e que as distribuições de retornos de determinados fundos, como os hedge funds, estão longe de serem uma distribuição normal. Keating e Shadwick (2002a, 2002b) introduziram uma nova medida denominada Ômega que incorpora todos os momentos da distribuição, e tem a vantagem de não ser necessário fazer premissas sobre a distribuição dos retornos nem da função de utilidade de um investidor avesso ao risco. O objetivo deste trabalho é verificar se esta medida Ômega tem um poder de previsibilidade maior que outras medidas de avaliação de desempenho, como o Índice de Sharpe e o Índice de Sortino. O estudo empírico indicou que a medida Ômega gera um ranqueamento, na maioria das vezes, relativamente diferente das outras medidas testadas. Apesar das carteiras formadas com base na medida Ômega terem gerado um retorno médio maior que o retorno médio das carteiras formadas pelas outras medidas em praticamente todos os testes, esta diferença entre as médias dos retornos só foi significativa em alguns casos. Mesmo assim, há uma leve indicação de que a medida Ômega é a mais apropriada para utilização do investidor ao fazer a avaliação de desempenho dos fundos de investimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação tem como principal objetivo a busca de evidências da existência de um componente determinístico no comportamento dos preços de certas ações negociadas na Bolsa de Valores de São Paulo (BOVESPA) e em índices amplos do mercado, tais como o Ibovespa e IBX e, como conseqüência, determinar se a Hipótese de Mercado Eficiente é válida para o mercado financeiro brasileiro. Um objetivo secundário é mostrar a aplicabilidade de técnicas interdisciplinares ao estudo de Finanças empíricas, técnicas essas que, desde sua incepção, já levam em consideração o fato de que os dados estudados não atendem ao requisito de normalidade e que as observações não são independentes entre si. Essa aplicabilidade já é largamente demonstrada em inúmeros estudos internacionais e diversas publicações no Brasil. Porém, o presente trabalho tentará aplicar uma estrutura analítica mais flexível e computacionalmente mais eficiente, utilizando ferramentas trazidas do campo da Teoria da Informação e avanços relativamente recentes da área.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Há mais de uma década, o Value-at-Risk (VaR) é utilizado por instituições financeiras e corporações não financeiras para controlar o risco de mercado de carteiras de investimentos. O fato dos métodos paramétricos assumirem a hipótese de normalidade da distribuição de retornos dos fatores de risco de mercado, leva alguns gestores de risco a utilizar métodos por simulação histórica para calcular o VaR das carteiras. A principal crítica à simulação histórica tradicional é, no entanto, dar o mesmo peso na distribuição à todos os retornos encontrados no período. Este trabalho testa o modelo de simulação histórica com atualização de volatilidade proposto por Hull e White (1998) com dados do mercado brasileiro de ações e compara seu desempenho com o modelo tradicional. Os resultados mostraram um desempenho superior do modelo de Hull e White na previsão de perdas para as carteiras e na sua velocidade de adaptação à períodos de ruptura da volatilidade do mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir da prática da Equipe Técnica de Educação Especial (ETESP), órgão da Secretaria Estadual de Educação do Estado do Rio de Janeiro, representativa do sistema enquanto lugar de relações de poder, desenvolve-se uma análise crítica da educação especial. A fundamentação teórica dessa análise, em um primeiro momento, coloca em questão o problema da normalidade, dentro da visão de Canguilhem e, em um segundo momento, relaciona as teorias de Lacan e Marx, principalmente em relação ao problema da determinação e da permanência da lógica sócio-cultural em que vivemos. Definida as práticas institucionais, dentro de uma perspectiva foucauldiana, como processo gradual que tem como objetivo a produção de corpos dóceis e submissos, coloca a ETESP, seus técnicos e as professoras das classes especiais, no papel de garantir e perpetuar a hegemonia da classe que detem o poder, submetendo a uma prática normatizadora todos os alunos que não se enquadram no funcionamento da escola. Aponta a necessidade de mudança no conceito de "excepcional" e a possibilidade de criação de espaços e metodologias novas, como formas de transformação do atual quadro da educação especial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por finalidade a construção de um instrumento psicológico de medida de comportamentos criativos, o Teste de Aptidão Criativa - TAC. A construção do TAC é justificada de um lado, por sua utilidade; sobretudo para o orientador profissional e psicólogo escolar e de outro; pela inexistência no Brasil; em particular no Nordeste, de instrumentos de medida similar. A formulação do problema e seu contexto são descritos logo no início do trabalho, bem como, a fundamentação teórica. Neste particular, enfatizou-se o enfoque psicológico da criatividade v em suas abordagens personológica e cognitiva. Atenção especial foi dada ao estudo do "modelo da estrutura do intelecto" de J. P. Guilford, suporte teórico do TAC. O teste de Aptidão Criativa é apresentado em todas as etapas de sua construção , desde a forma pré-piloto ç à piloto e à experimental, salientando-se seus respectivos subtestes figural e verbal. Ilustrações dos itens, bem como, das formas do teste são também apresentadas para melhor compreensão do texto. Em prosseguimento descreve- se uma pesquisa empírica realizada com o TAC, cujas hipóteses operacionais visam comprovar sua validade de constrito sua fidedignidade. A população foi constituída de alunos, de ambos os sexos, que cursaram em 1977 a 8a. série do 1º grau, de escolas públicas ou particulares; do município do Recife. O trabalho descreve detalhadamente a determinação da amostra, os instrumentos utilizados bem como os critérios de avaliação dos dados. O tratamento estatístico consistiu em medidas de tendência ceutra e de variabilidade; análise fatorial (técnica dos componentes principais-solução Varimax) para verificação da validade de construto. Os resultados obtidos, pela análise fatorial, demonstraram a presença de três fatores: um denominado C e interpretado como Convergente e dois, mensuráveis pelo TAC (conforme mostram as cargas fatoriais) que foram chamados de F (Fluência e Flexibilidade) e 0 Originalidade. O índice de homogeneidade calculado pelo “ de Cronbach" da característica originalidade entendida como essencial para a criatividade foi de 0,72. Tal resultado permite afirmar que na amostra testada o TAC , neste aspecto, apresenta fidedignidade significativa. Uma análise de regressão múltipla por passos foi levada a efeito, visando a identificação dos itens que mais contribuíram para explicação do escore total. Os resultados permitiram apontar uma melhor forma para o TAC figural constituída pelos itens I , II, V, VI , VII e VIII, os quais comporão a forma definitiva do TAC. Calculou-se também o estatístico Z do "Teste de urna Amostra de Kolmogorou para verificação da normalidade da distribuição das três características que o de medir: Fluência, Flexibilidade e Originalidade. Explicita-se ainda uma crítica à técnica de computação das respostas do TAC em face do índice de flexibilidade e propõe-se a realização de estudos, que permitam a formulação de novos procedimentos para um tratamento mais adequado das respostas aos estímulos do teste. Sugere-se também um estudo teórico sistemático de maior profundidade sobre os pontos de convergência entre as teorias psicológicas que tratam o tema para uma melhor compreensão da natureza e dinâmica do comportamento criativa. Propõe-se ainda a continuidade da pesquisa empírica que deu origem a este trabalho, tendo por objetivo imediato a padronização do TAC, de modo a poder ser ele instrumento útil ao psicólogo, na prática da psicologia aplicada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Segundo Sampaio (2002), os modelos intertemporais de equilíbrio começaram a ter a sua eficácia na determinação do retorno dos ativos questionada após a publicação do artigo de Mehra e Prescott em 1985. Tendo como objeto de análise os dados observados no mercado norte-americano, os autores não foram capazes de reproduzir a média histórica do prêmio do retorno das ações em relação ao retorno dos títulos públicos de curto prazo através de parâmetros comportamentais dentro de intervalos considerados plausíveis. Através das evidências, os autores, então, puderam verificar a necessidade de coeficientes exageradamente altos de aversão ao risco para equiparação do prêmio de risco histórico médio das ações norte-americanas, enigma que ficou conhecido como equity premium puzzle (EPP). Foi possível também a constatação de outro paradoxo: a necessidade de taxas de desconto intertemporais negativas para obtenção da média histórica da taxa de juros, o risk-free rate puzzle (RFP). Este trabalho tem como objetivo adaptar os dados do modelo proposto por Mehra e Prescott (2003) ao mercado brasileiro e notar se os puzzles apresentados anteriormente estão presentes. Testa-se o CCAPM com dados brasileiros entre 1995:1 e 2013:4 adotando preferências do tipo utilidade esperada e através da hipótese de log-normalidade conjunta dos retornos. Utiliza-se o método de calibração para avaliar se há EPP no Brasil. Em linha com alguns trabalhos prévios da literatura nacional, como Cysne (2006) e Soriano (2002) que mostraram a existência do puzzle nos períodos de 1992:1-2004:2 e 1980:1-1998:4, respectivamente, conclui-se que o modelo usado por Mehra e Prescott (2003) não é capaz de gerar o prêmio de risco observado na economia brasileira. Sampaio (2002), Bonomo e Domingues (2002) e Issler e Piqueira (2002), ao contrário, não encontram evidências da existência de um EPP brasileiro.