998 resultados para Simulação histórica ajustada
Resumo:
O presente trabalho propõe para o cálculo VaR o modelo de simulação histórica, com os retornos atualizados pela volatilidade realizada calculada a partir de dados intradiários. A base de dados consiste de cinco ações entre as mais líquidas do Ibovespa de distintos segmentos. Para a metodologia proposta utilizamos duas teorias da literatura empírica – simulação histórica ajustada e volatilidade realizada. Para análise e verificação do desempenho da metodologia proposta utilizamos o Teste de Kupiec e o Teste de Christoffersen.
Resumo:
Há mais de uma década, o Value-at-Risk (VaR) é utilizado por instituições financeiras e corporações não financeiras para controlar o risco de mercado de carteiras de investimentos. O fato dos métodos paramétricos assumirem a hipótese de normalidade da distribuição de retornos dos fatores de risco de mercado, leva alguns gestores de risco a utilizar métodos por simulação histórica para calcular o VaR das carteiras. A principal crítica à simulação histórica tradicional é, no entanto, dar o mesmo peso na distribuição à todos os retornos encontrados no período. Este trabalho testa o modelo de simulação histórica com atualização de volatilidade proposto por Hull e White (1998) com dados do mercado brasileiro de ações e compara seu desempenho com o modelo tradicional. Os resultados mostraram um desempenho superior do modelo de Hull e White na previsão de perdas para as carteiras e na sua velocidade de adaptação à períodos de ruptura da volatilidade do mercado.
Resumo:
As instituições financeiras são obrigadas por acordos internacionais, como o Acordo de Basiléia, a avaliar o risco de mercado ao qual a instituição está propensa de forma a evitar possíveis contaminações de desastres financeiros em seu patrimônio. Com o intuito de capturar tais fenômenos, surge a necessidade de construir modelos que capturem com mais acurácia movimentos extremos das séries de retornos. O trabalho teve como principal objetivo aplicar a Teoria do Valor Extremo juntamente com Copulas na estimação de quantis extremos para o VaR. Ele utiliza técnicas de simulação de Monte Carlo, Teoria do Valor Extremo e Cópulas com distribuições gaussianas e t. Em contrapartida, as estimativas produzidas serão comparadas com as de um segundo modelo, chamado de simulação histórica de Monte Carlo filtrada, mais conhecida como filtered historical simulation (FHS). As técnicas serão aplicadas a um portfólio de ações de empresas brasileiras.
Resumo:
Faz revisão teórica dos modelos de value-at-risk (VAR). Revisa principais estudos anteriores sobre VAR no Brasil e no exterior. Testa o desempenho de cinco metodologias de VAR, a saber: metodologia Paramétrica com uso da Volatilidade Histórica, Paramétrica com uso da Volatilidade EWMA, Paramétrica• com uso da Volatilidade GARCH(1,1), Simulação Histórica e uma Metodologia Híbrida proposta por BOUDOUKH e taI (1998). Aplica as metodologias a carteiras teóricas compostas por proporções diversas de ações e títulos de renda fixa de 30 dias no mercado financeiro brasileiro. O trabalho encontra evidências da superioridade da Metodologia Híbrida com fator de caimento de 0,99 e da Simulação Histórica, sendo esta apenas marginalmente inferior, Estes resultados se coadunam com evidências encontradas nas séries em estudo de nãonormalidade, heterocedasticidade e autocorrelação
Resumo:
Este estudo faz uma revisão das origens do VaR, bem como dos conceitos e teorias que o fundamentam, e sua aplicabilidade aos fundos de pensão. Descreve as principais metodologias de cálculo e as situações nas quais o uso de cada uma é mais adequado. Revisa a literatura internacional acerca do uso do VaR como medida de risco pelos fundos de pensão. A seguir faz a previsão do VaR para as carteiras reais de três fundos de pensão brasileiros com três metodologias distintas: paramétrica, simulação histórica e simulação de Monte Carlo, esta última com duas suposições distintas para a distribuição dos retornos dos fatores de risco (normal e histórica). A partir disso, realiza um teste qualitativo, através da comparação do número de perdas efetivas realizadas pelas carteiras dos três fundos de pensão com o número de perdas correspondente admitido para os diferentes níveis de confiança utilizados no cálculo do VaR. O trabalho não encontra evidências de superioridade de nenhuma das metodologias de cálculo, sendo que todas elas superestimaram as perdas verificadas na prática (o VaR foi excedido menos vezes do que o esperado).
Resumo:
Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.
Resumo:
Value at Risk (VaR) e Expected Shortfall (ES) são modelos quantitativos para mensuração do risco de mercado em carteiras de ativos financeiros. O propósito deste trabalho é avaliar os resultados de tais modelos para ativos negociados no mercado brasileiro através de quatro metodologias de backtesting - Basel Traffic Light Test, Teste de Kupiec, Teste de Christoffersen e Teste de McNeil e Frey – abrangendo períodos de crise financeira doméstica (2002) e internacional (2008). O modelo de VaR aqui apresentado utilizou duas abordagens – Paramétrica Normal, onde se assume que a distribuição dos retornos dos ativos segue uma Normal, e Simulação Histórica, onde não há hipótese a respeito da distribuição dos retornos dos ativos, porém assume-se que os mesmos são independentes e identicamente distribuídos. Também foram avaliados os resultados do VaR com a expansão de Cornish-Fisher, a qual visa aproximar a distribuição empírica a uma distribuição Normal utilizando os valores de curtose e assimetria para tal. Outra característica observada foi a propriedade de coerência, a qual avalia se a medida de risco obedece a quatro axiomas básicos – monotonicidade, invariância sob translações, homogeneidade e subaditividade. O VaR não é considerado uma medida de risco coerente, pois não apresenta a característica de subaditividade em todos os casos. Por outro lado o ES obedece aos quatro axiomas, considerado assim uma medida coerente. O modelo de ES foi avaliado segundo a abordagem Paramétrica Normal. Neste trabalho também se verificou através dos backtests, o quanto a propriedade de coerência de uma medida de risco melhora sua precisão.
Resumo:
O estudo teve como objetivo avaliar a capacidade preditiva dos modelos de estimação do risco de mercado em momentos de crises financeiras. Para isso, foram testados modelos de estimação do Value-at-Risk (VaR) aplicados aos retornos diários de carteiras compostas por índices de ações de países desenvolvidos e emergentes. Foram testados o modelo VaR de Simulação Histórica, modelos ARCH multivariados (Bekk, Vech e CCC), Redes Neurais Artificiais e funções Cópulas. A amostra de dados refere-se aos períodos de duas crises financeiras internacionais, Crise Asiática, de 1997, e Crise do Sub Prime dos EUA, de 2008. Os resultados apontaram que os modelos ARCH multivariados (Vech e Bekk) e Cópula - Clayton tiveram desempenho semelhantes, com bons ajustes em 100% dos testes. Diferentemente do que era esperado, não foi possível perceber diferenças significativas entre os ajustes para países desenvolvidos e emergentes e os momentos de crise e normal.
Resumo:
Tese de dout., Ciências e Tecnologias do Ambiente (Modelação Ambiental), Univ. do Algarve, 1999
Resumo:
O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.
Resumo:
O agronegócio da soja, caracterizado como investimento em atividade produtiva, envolve problemas de incertezas com o comprometimento definitivo de recursos, com a impossibilidade de reverter decisões tomadas e, também, com o esforço de prever a renda a ser obtida com a colheita. A questão relevante para o sojicultor é como avaliar o rendimento esperado de grãos em um contexto de incertezas, base para o cômputo da taxa de retorno do investimento na produção de soja. Este trabalho teve como objetivo estabelecer uma metodologia que associa um modelo estocástico de precipitação a um modelo de predição do rendimento da cultura de grãos de modo a permitir a atribuição de probabilidades aos rendimentos esperados de soja. Foram utilizados dados meteorológicos diários referentes à precipitação pluvial, temperatura máxima, mínima e média do ar, umidade relativa do ar, radiação solar global e velocidade do vento a 2 metros, bem como o rendimento de soja de Cruz Alta(RS) do período 1/1/1975-31/12/1997 A precipitação pluvial diária foi ajustada à cadeia de Markov de primeira ordem e dois estados e na função gama com variação sazonal para os meses de outubro a abril. Os resultados indicaram que a metodologia associando a geração de séries de precipitação pluvial, evapotranspiração da soja e evapotranspiração real, aplicadas como variáveis de entrada no modelo de predição do rendimento de grãos, possibilitou a definição da densidade de probabilidade do rendimento esperado de soja e, por conseguinte, a quantificação do risco na forma da distribuição de probabilidade acumulada do rendimento. O risco de ocorrência de um valor de rendimento de soja, menor que um valor mínimo de aceitação, quantiifcado pela sua distribuição de probabilidade acumulada, fundamentada em um fenômeno da natureza - a precipitação pluvial - que não depende da vontade humana. A obtenção do rendimento desejado envolve um processo que depende de organização, isto é, depende de fatores subjetivos, de decisões e escolhas. Enfim, um processo que comporta alternativas e depende de iniciativas humanas.
Resumo:
This Bachelor’s Thesis of Bachelor of Computer Science defines a research and a network sensor simulation on non-planar surfaces . The report is composed of an introduction of the research, a theoretic study, a state of the art and a historic context of sensor network. The simulation consists of the formation of terrain, node’s random distribution and a production and a transmission of the node’s packages. Based on these three important topics , the exchange of information/packages between multiple nodes is through breadth-first search algorithm. The active nodes, node quantity and operation range are also defined in the program. After the program analysis the node activation, the packages are created and transmitted to the next node. This process occurs many times and help on the analysis of the sensor network on non-planar surfaces parameters
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Resumen: En este artículo se aborda el origen, configuración y evolución urbana de Salamanca durante las ocupaciones soteña, celtibérica, romana y visigoda, comprendidas entre el siglo VII a.C., Primera Edad del Hierro, y la invasión musulmana de principios del siglo VIII d.C. La principal base documental la constituyen informes de las numerosas excavaciones arqueológicas, en su gran mayoría inéditos depositados en el Museo Provincial, realizadas a partir del año 1984 tanto en el cerro de San Vicente, núcleo germinal de la ciudad, como en el cerro de las Catedrales, núcleo de consolidación definitiva de Salamanca.