959 resultados para Oliver Nelson


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The rate of high energy cosmic ray muons as measured underground is shown to be strongly correlated with upper-air temperatures during short-term atmospheric (10-day) events. The effects are seen by correlating data from the MINOS underground detector and temperatures from the European Centre for Medium Range Weather Forecasts during the winter periods from 2003-2007. This effect provides an independent technique for the measurement of meteorological conditions and presents a unique opportunity to measure both short and long-term changes in this important part of the atmosphere. Citation: Osprey, S., et al. (2009), Sudden stratospheric warmings seen in MINOS deep underground muon data, Geophys. Res. Lett., 36, L05809, doi: 10.1029/2008GL036359.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Main Injector Neutrino Oscillation Search (MINOS) experiment uses an accelerator-produced neutrino beam to perform precision measurements of the neutrino oscillation parameters in the ""atmospheric neutrino"" sector associated with muon neutrino disappearance. This long-baseline experiment measures neutrino interactions in Fermilab`s NuMI neutrino beam with a near detector at Fermilab and again 735 km downstream with a far detector in the Soudan Underground Laboratory in northern Minnesota. The two detectors are magnetized steel-scintillator tracking calorimeters. They are designed to be as similar as possible in order to ensure that differences in detector response have minimal impact on the comparisons of event rates, energy spectra and topologies that are essential to MINOS measurements of oscillation parameters. The design, construction, calibration and performance of the far and near detectors are described in this paper. (C) 2008 Elsevier B.V. All rights reserved.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumo não disponível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa busca testar a eficácia de uma estratégia de arbitragem de taxas de juros no Brasil baseada na utilização do modelo de Nelson-Siegel dinâmico aplicada à curva de contratos futuros de taxa de juros de 1 dia da BM&FBovespa para o período compreendido entre 02 de janeiro de 2008 e 03 de dezembro de 2012. O trabalho adapta para o mercado brasileiro o modelo original proposto por Nelson e Siegel (1987), e algumas de suas extensões e interpretações, chegando a um dos modelos propostos por Diebold, Rudebusch e Aruoba (2006), no qual estimam os parâmetros do modelo de Nelson-Siegel em uma única etapa, colocando-o em formato de espaço de estados e utilizando o Filtro de Kalman para realizar a previsão dos fatores, assumindo que o comportamento dos mesmos é um VAR de ordem 1. Desta maneira, o modelo possui a vantagem de que todos os parâmetros são estimados simultaneamente, e os autores mostraram que este modelo possui bom poder preditivo. Os resultados da estratégia adotada foram animadores quando considerados para negociação apenas os 7 primeiros vencimentos abertos para negociação na BM&FBovespa, que possuem maturidade máxima próxima a 1 ano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho se reivindica como um subproduto do projeto de pesquisa “História Oral do Supremo [1988-2013]”, realizado através de uma parceria entre a FGV Direito Rio, FGV Direito SP e CPDOC. Durante minha participação no projeto, diversos temas despertaram interesse, em especial a relação entre o Direito e a Política. A partir desse tema, optamos por realizar um estudo de caso que nos permitisse observar a relação entre as elites jurídicas e políticas. Para isso, escolhemos a entrevista do Ministro Nelson Jobim, concedida ao projeto de pesquisa. O que observamos foi mais do que seu trânsito por essas elites: há uma verdadeira confusão entre as práticas jurídicas e políticas que são narradas. Práticas jurídicas foram utilizadas no espaço político, práticas políticas, no espaço jurídico. Sendo assim, nossos objetivos foram identificar esses momentos na entrevista e concluir de que forma eles explicam o posicionamento de Jobim nessas elites. Assim, concluímos que o seu posicionamento em cada uma das elites, não é explicado somente pelas práticas daquele campo. O capital jurídico não é suficiente para explicar sua posição na elite jurídica, tal como seu capital político não é suficiente para explicar sua posição na elite política, somente o conjunto desses capitais é.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este volume é parte integrante do projeto “História Oral do Supremo”, uma contribuição da FGV para a história contemporânea do Brasil. Nas páginas a seguir, o leitor encontrará a narrativa do ministro Nelson Jobim sobre sua própria trajetória, marcada notadamente pela atividade de magistrado na nossa mais alta corte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The development of digital technologies has opened up a new niche for artistic production. It began to emerge artworks that could only happen in the digital context. In this study, we investigated the syntax of defining digital poetry, recognized internationally as one of the possibilities of this new artistic practice, and how happens the meaning during the reading process. As research corpus, we chose the poem "Birds Still Warm From Flying", by american poet Jason Nelson. And we structure our analysis looking through three perspectives: the digital poem as a game; as the evolution of experimental trends of twentieth-century poetry; and as a representation of Rubik`s Cube, a famous three-dimensional puzzle from the 1970`s. Initially, we made some considerations about the construction of digital poetry as a hypermedia artwork, looking through convergence and hybridization of artistic and media languages. Then, we saw some similarities between Nelson`s poem and electronic games, based on our critical observations about the concept of interactivity. Subsequently, we wrote a historical overview about the poetic experimentation in the twentieth century, bringing examples of sound poetry and visual poetry as evidence that the birth of digital poetry is also the result of the evolution of these experiments. Finally, we use the Charles Sanders Peirce`s semiotics to analyze the signs that give references able to make us recognize the Rubik`s Cube in "Birds Still Warm From Flying"