987 resultados para Probabilidade Implícita


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O trabalho busca através de um exercício empírico, extrair as curvas de probabilidade implícita de default em debêntures brasileiras. A construção ocorre em duas etapas. O primeiro desafio é obter as estruturas a termo das debêntures brasileiras. Foi utilizada a revisão proposta por Diebold e Li (2006) do modelo de Nelson Siegel (1987) para construç o das ETTJs. A segunda etapa consiste em extrair a probabilidade de default utilizado a forma reduzida do modelo de Duffie e Singleton (1999). A fração de perda em caso de default foi considerada constante conforme estudo de Xu e Nencioni (2000). A taxa de decaimento também foi mantida constante conforme proposto por Diebold e Li (2006) e Araújo (2012). O exercício foi replicado para três datas distintas durante o ciclo de redução de juros no Brasil. Dentre os resultados desse estudo identificou-se que os agentes do mercado reduziram a probabilidade de default dos emissores durante esse período. A redução nos vértices mais curtos foi mais significativa do que em vértices mais longos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho propõe um modelo de forma reduzida livre de arbitragem para a extração de probabilidades de default a partir de spreads de Swaps de Crédito e aplica-o realizando uma análise da percepção de risco da dívida soberana brasileira confrontando dois momentos com contextos econômicos distintos. É utilizada uma modelagem paramétrica da estrutura temporal das probabilidades condicionais de default para a qual se testa duas formas funcionais distintas: Constante por Partes e Linear por Partes. Os resultados fornecem evidências que corroboram a aplicabilidade do modelo e indicam uma clara vantagem da modelagem Linear por Partes, por se ajustar melhor aos dados e possuir implicações convenientes na estrutura a termo das taxas de juros ajustadas ao risco de default.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em uma grande gama de problemas físicos, governados por equações diferenciais, muitas vezes é de interesse obter-se soluções para o regime transiente e, portanto, deve-se empregar técnicas de integração temporal. Uma primeira possibilidade seria a de aplicar-se métodos explícitos, devido à sua simplicidade e eficiência computacional. Entretanto, esses métodos frequentemente são somente condicionalmente estáveis e estão sujeitos a severas restrições na escolha do passo no tempo. Para problemas advectivos, governados por equações hiperbólicas, esta restrição é conhecida como a condição de Courant-Friedrichs-Lewy (CFL). Quando temse a necessidade de obter soluções numéricas para grandes períodos de tempo, ou quando o custo computacional a cada passo é elevado, esta condição torna-se um empecilho. A fim de contornar esta restrição, métodos implícitos, que são geralmente incondicionalmente estáveis, são utilizados. Neste trabalho, foram aplicadas algumas formulações implícitas para a integração temporal no método Smoothed Particle Hydrodynamics (SPH) de modo a possibilitar o uso de maiores incrementos de tempo e uma forte estabilidade no processo de marcha temporal. Devido ao alto custo computacional exigido pela busca das partículas a cada passo no tempo, esta implementação só será viável se forem aplicados algoritmos eficientes para o tipo de estrutura matricial considerada, tais como os métodos do subespaço de Krylov. Portanto, fez-se um estudo para a escolha apropriada dos métodos que mais se adequavam a este problema, sendo os escolhidos os métodos Bi-Conjugate Gradient (BiCG), o Bi-Conjugate Gradient Stabilized (BiCGSTAB) e o Quasi-Minimal Residual (QMR). Alguns problemas testes foram utilizados a fim de validar as soluções numéricas obtidas com a versão implícita do método SPH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

2005

Relevância:

20.00% 20.00%

Publicador:

Resumo:

p.149-150

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As lesões músculo-esqueléticas (LME) são comuns nas atividades desportivas, nomeadamente no futebol. No entanto, apesar da importância dos árbitros nesta modalidade, a maior parte dos estudos tem-se centrado nos jogadores de futebol. Sabe-se no entanto que as entorses são um dos tipos de lesões mais frequentes e que existem um conjunto de fatores de risco que potenciam a sua ocorrência, como o tipo de piso. Este estudo teve como objetivo comparar a influência de três tipos de piso (relvado natural, relvado artificial e terra batida) no risco de entorse lateral ou por inversão em árbitros. Este estudo foi desenvolvido em duas fases. A primeira pretendeu analisar a perceção de risco sobre os diferentes tipos de pisos. Para isso, foi elaborado e aplicado um questionário, envolvendo 157 árbitros. Este analisou questões referentes à caracterização pessoal dos árbitros, atividade de arbitragem e suas percepções sobre o nível de risco de entorse, nível de exigência do tornozelo, nível de esforço, nível e influência das condições meteorológicas e nível de aderência. Na segunda fase foram realizados dois testes práticos para a avaliação do risco de entorse em cada tipo de piso através da análise de dois indicadores: amplitude de variação do movimento de inversão/eversão, e equilíbrio. Foi analisada a amplitude do movimento de inversão/eversão nos três tipos de piso no momento em que o árbitro muda de direção à esquerda, através da realização do “Teste T”. O segundo teste consistiu na aplicação do YBalance Test para a determinação do equilíbrio. Foi determinado o maior alcance possível com o membro inferior dominante em cada uma das três direções permitidas. Os resultados deste estudo indicaram que os árbitros percebem o piso em terra batida como aquele que apresenta maior risco de desenvolvimento de LME e de entorse, maior nível de exigência de rotação do tornozelo, menor aderência e maior influência das condições meteorológicas. O piso relvado foi apontado como estando associado a um menor risco, mas a maiores níveis de exigência. Maiores amplitudes de variação no movimento de inversão foram identificadas para o piso de relvado natural e que o piso de terra batida foi aquele que ofereceu menor estabilidade aos atletas. O piso de relva artificial foi aquele que mostrou melhor desempenho nos testes aplicados. Este estudo permitiu analisar a influência de um fator externo, o tipo de piso, no risco de entorse em árbitros, permitindo compreender melhor a ocorrência desta lesão nestes profissionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta monografía pretende hacer una revisión de las participaciones de algunos de éstos actores extranjeros en el manejo de los recursos de la citada región y en la generación de políticas sobre ella entre 1927 y 2006. De la misma forma delineará los principales elementos problemáticos de estas participaciones, y las implicaciones ambientales, sociales y políticas de las mismas. En el primer capitulo se hará una reseña de la historia de las intervenciones extranjeras y de los sectores económicos donde han participado, el segundo capitulo aborda seis casos de intervenciones de actores extranjeros, el tercer capitulo desarrolla la idea central de esta monografía, es decir, la internacionalización implícita de la Amazonía brasileña, y el cuarto capitulo reseña algunas conclusiones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Anteriores investigaciones confirmaban que cuando se presenta a los sujetos experimentales palabras que pertenecen en su totalidad a la misma categoría, se recuerdan mejor que cuando la presentación ha sido realizada de forma caótica, entremezclando aleatoriamente unos ejemplares con otros de distintas categorías. No obstante, estas investigaciones han estado orientadas al análisis de la estructura de la memoria explícita, sin considerar la implícita. Este estudio en un principio trataba de comprobar como el priming es mayor en una lista de palabras presentadas de forma bloqueada (por categorías) que en otra lista de palabras presentadas al azar en una prueba de producción categórica. A raíz de los resultados encontrados se observó la dificultad que existe en la evaluación de la memoria implícita, utilizando conceptos. Para poder discernir el efecto del priming de la memoria implícita de otras hipótesis como los elementos prototípicos de la memoria semántica, este trabajo propone un diseño alternativo para aumentar la validez interna de esta clase de pruebas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudio de la interacción entre los procesos cognitivos y los afectivos a partir de datos conductuales, y fundamentalmente, datos electrofisiológicos. 29 estudiantes de la Universidad Autónoma de Madrid (14 hombre y 15 mujeres) de edades comprendidas entre los 20 y los 30 años. Se realizaron 2 experimentos en los que se llevaron a cabo registros de potenciales relacionados con acontecimientos discretos (PRAD). En los primeros apartados se revisan los aspectos más relevantes de la emoción, la memoria y la interacción entre estos dos procesos básicos, prestando especial atención al efecto de la carga emocional del estímulo y al efecto de la carga emocional del contexto de codificación sobre la memoria. Asimismo se presenta una breve revisión del estudio de la memoria implícita y la emoción mediante PRAD. Los dos trabajos que componen la parte experimental que estudian, en primer lugar, el efecto que la carga emocional de distintos estímulos visuales tiene sobre su posterior recuerdo implícito (experimento 1), y en segundo lugar, el efecto que tiene la carga emocional del contexto de codificación nemónica sobre el recuerdo implícito de estímulos visuales emocionalmente neutros (experimento 2). Fotografías. Presentación de seis bloques de estímulos que el sujeto tenía que evaluar en una fase de estudia y en una fase de prueba, y finalmente se llevo a cabo un registro electrofisiológico en el que se utilizó un gorro de registro Electro-Cap internacional de 24 canales, con electrodos de estaño. Los resultados obtenidos en el primer experimento muestran un efecto de repetición o de memorización implícita para todos los estímulos vistos más de una vez, siendo este más intenso para los estímulos emocionales, y de forma aún más significativa, para los estímulos con carga emocional negativa. Este efecto se refleja en el componente identificado como P275, en localizaciones frontocentrales del cuero cabelludo. Los datos parecen confirmar la existencia de un sesgo afectivo en la memoria implícita (sesgo de negatividad) que probablemente posea una facilitación evolutiva. En el segundo experimento los resultados obtenidos parecen indicar que los contextos emocionalmente activantes (fundamentalmente los positivos) resultan facilitadores del recuerdo implícito de los estímulos a los que acompañan. Este efecto se observa en un componente negativo tardío (OLN), con una distribución prefrontal izquierda. Las diferencias encontradas entre el efecto de la carga emocional de los estímulos y la de los contextos de codificación sobre el recuerdo implícito, se atribuyen, por una parte, al distinto tipo de procesamiento que se lleva a cabo en un caso y en otro (procesamiento más elaborado para la carga emocional del contexto), así como a la relevancia biológica del tipo de estímulos empleados en los experimentos (mayor relevancia de la carga emocional de los estímulos visuales que de la de los contextos de codificación. Como conclusión final, lo que se ha pretendido por un lado es observar el efecto que producen la activación emocional de los estímulos visuales codificados de manera implícita sobre su posterior recuerdo indirecto y por otro lado analizar en qué medida la activación del contexto emocional en el que se codifican de forma implícita los estímulos visuales afecta a su posterior recuerdo indirecto. En el primero de los casos la carga emocional es intrínseca al estímulo y en el segundo de los casos la carga emocional del estímulo es investida por el contexto.