381 resultados para Oração condicional


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é verificar se, ao levar-se em consideração momentos de ordem superior (assimetria e curtose) na alocação de uma carteira de carry trade, há ganhos em relação à alocação tradicional que prioriza somente os dois primeiros momentos (média e variância). A hipótese da pesquisa é que moedas de carry trade apresentam retornos com distribuição não-Normal, e os momentos de ordem superior desta têm uma dinâmica, a qual pode ser modelada através de um modelo da família GARCH, neste caso IC-GARCHSK. Este modelo consiste em uma equação para cada momento condicional dos componentes independentes, explicitamente: o retorno, a variância, a assimetria, e a curtose. Outra hipótese é que um investidor com uma função utilidade do tipo CARA (constant absolute risk aversion), pode tê-la aproximada por uma expansão de Taylor de 4ª ordem. A estratégia do trabalho é modelar a dinâmica dos momentos da série dos logartimos neperianos dos retornos diários de algumas moedas de carry trade através do modelo IC-GARCHSK, e estimar a alocação ótima da carteira dinamicamente, de tal forma que se maximize a função utilidade do investidor. Os resultados mostram que há ganhos sim, ao levar-se em consideração os momentos de ordem superior, uma vez que o custo de oportunidade desta foi menor que o de uma carteira construída somente utilizando como critérios média e variância.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo teve por objetivo compreender como a espiritualidade permeia o processo de cuidar de si e do outro no mundo da terapia intensiva, sob o olhar das cuidadoras de enfermagem. A pesquisa caracterizou-se por uma abordagem qualitativa do método criativo-sensível de Cabral, que guiou a produção e a análise das informações, seguindo as etapas de codificação, decodificação e recodificação ou aliança de saberes. Contou-se com a participação de nove cuidadoras de enfermagem, duas enfermeiras e sete técnicas de enfermagem, do Centro de Tratamento Intensivo (CTI) de um hospital universitário. Para a produção das informações, foram realizadas nove oficinas de arte e de experiências, sendo que a última destinou-se à validação da análise das informações. Nesse percurso, emergiram os seguintes temas: os significados de espiritualidade; a espiritualidade no cuidado de si e a espiritualidade no cuidado do outro. O primeiro tema exprimiu os significados de espiritualidade como propósito de vida, como conexão com uma Força Superior e com o Cosmo e como autoconhecimento. O segundo tema evidenciou que a espiritualidade no cuidado de si estava nas práticas cotidianas que aconteciam por meio da oração, do contato íntimo com a natureza, assim como no senso de conexão com uma Força Superior que propiciava tranqüilidade, bem-estar e fortalecimento à vida e ao trabalho das cuidadoras no CTI. As participantes demonstraram estar conscientes de si mesmas quando reconheceram que se fragilizavam com o mundo vivido e precisavam também de cuidado, que poderia se dar na ajuda mútua entre os cuidadores. O autoconhecimento revelou-se como uma prática essencial no cuidado de si para melhor cuidar do outro. E o terceiro tema desvelou que a espiritualidade no cuidado do outro partiu da fragmentação do cuidador e do cuidado intensivo para um caminho de reintegração do ser humano, capaz de transformar a cultura que inibiu e oprimiu o cuidado expressivo no CTI. A espiritualidade revelou-se nas práticas de cuidado que incluíam fé, imposição de mãos e oração, assim como foi algo que emergiu da interioridade humana para se manifestar na relação com outro no modo de ser do cuidador e se revelou no olhar, na atenção, no carinho, na amorosidade, no diálogo que tranqüilizava, na mão que dava conforto e segurança, na capacidade de escuta e de construir confiança em uma ambiência de cuidado para os envolvidos neste encontro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Execução Condicional Dinâmica (DCE) é uma alternativa para redução dos custos relacionados a desvios previstos incorretamente. A idéia básica é buscar todos os fluxos produzidos por um desvio que obedecem algumas restrições relativas à complexidade e tamanho. Como conseqüência, um número menor de previsões é executado, e assim, um número mais baixo de desvios é incorretamente previsto. Contudo, tal como outras soluções multi-fluxo, o DCE requer uma estrutura de controle mais complexa. Na arquitetura DCE, é observado que várias réplicas da mesma instrução são despachadas para as unidades funcionais, bloqueando recursos que poderiam ser utilizados por outras instruções. Essas réplicas são geradas após o ponto de convergência dos diversos fluxos em execução e são necessárias para garantir a semântica correta entre instruções dependentes de dados. Além disso, o DCE continua produzindo réplicas até que o desvio que gerou os fluxos seja resolvido. Assim, uma seção completa do código pode ser replicado, reduzindo o desempenho. Uma alternativa natural para esse problema é reusar essas seções (ou traços) que são replicadas. O objetivo desse trabalho é analisar e avaliar a efetividade do reuso de valores na arquitetura DCE. Como será apresentado, o princípio do reuso, em diferentes granularidades, pode reduzir efetivamente o problema das réplicas e levar a aumentos de desempenho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O primeiro artigo desta tese procura medir o impacto do programa Bolsa Familia sobre a gravidez juvenil, discutindo também a utilização de programas de transferência condicional de renda para a diminuição da fecundidade em áreas de pobreza. O segundo artigo realiza um exercício contrafactual para estimar o impacto de aumentos no investimento em educação sobre o consumo, considerando não só o aumento da produtividade, mas também o impacto da nova educação sobre a fecundidade das pessoas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresento aqui uma abordagem que unifica a literatura sobre os vários modelos de apreçamento de derivativos que consiste em obter por argumentos intuitivos de não arbitragem uma Equação Diferencial Parcial(EDP) e através do método de Feynman-Kac uma solução que é representada por uma esperança condicional de um processo markoviano do preço do derivativo descontado pela taxa livre de risco. Por este resultado, temos que a esperança deve ser tomada com relação a processos que crescem à taxa livre de risco e por este motivo dizemos que a esperança é tomada em um mundo neutro ao risco(ou medida neutra ao risco). Apresento ainda como realizar uma mudança de medida pertinente que conecta o mundo real ao mundo neutro ao risco e que o elemento chave para essa mudança de medida é o preço de mercado dos fatores de risco. No caso de mercado completo o preço de mercado do fator de risco é único e no caso de mercados incompletos existe uma variedade de preços aceitáveis para os fatores de risco pelo argumento de não arbitragem. Neste último caso, os preços de mercado são geralmente escolhidos de forma a calibrar o modelo com os dados de mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Motivados pelo debate envolvendo modelos estruturais e na forma reduzida, propomos nesse artigo uma abordagem empírica com o objetivo de ver se a imposição de restrições estruturais melhoram o poder de previsibilade vis-a-vis modelos irrestritos ou parcialmente restritos. Para respondermos nossa pergunta, realizamos previsões utilizando dados agregados de preços e dividendos de ações dos EUA. Nesse intuito, exploramos as restrições de cointegração, de ciclo comum em sua forma fraca e sobre os parâmetros do VECM impostas pelo modelo de Valor Presente. Utilizamos o teste de igualdade condicional de habilidade de previsão de Giacomini e White (2006) para comparar as previsões feitas por esse modelo com outros menos restritos. No geral, encontramos que os modelos com restrições parciais apresentaram os melhores resultados, enquanto o modelo totalmente restrito de VP não obteve o mesmo sucesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As linhas de crédito concedidas pelo FMI em casos de crises de liquidez diferem quanto às condições impostas aos credores. Em alguns casos, os recursos são emprestados sem a imposição de condições a serem cumpridas pelo país devedor. Em outros casos, os recursos são liberados depois que o país cumpriu as chamadas condicionalidades. O trabalho constrói um modelo teórico para estudar os trade-offs envolvidos nas condicionalidades que o FMI impõe ao conceder linhas de crédito. O modelo procura entender em quais momentos é melhor um auxílio imediato do FMI ou um auxílio condicional. Empréstimos condicionais aumentam os incentivos para medidas fiscais que melhoram a capacidade do país pagar a dívida (pois os empréstimos não são concedidos se essas medidas não são tomadas), mas um auxílio imediato tem a vantagem de economizar custos de liquidez. O modelo mostra que o incentivo do país para pagar sua dívida soberana é côncavo na condicionalidade. Isso significa que, em casos extremos, o melhor tipo de condicionalidade é o ex-ante (auxílio imediato mediante condições pre-estabelecidas) ou o ex-post (auxílio contingente ao cumprimento das condicionalidades). No entanto, em casos nos quais tanto uma ajuda de liquidez imediata, quanto o empréstimo condicional às mudanças na política fiscal aumentam o incentivo do país pagar a dívida, as condicionalidades assumem um caráter de complementaridade. O resultado corrobora o desenho das linhas de crédito do FMI, já que há desenhos que contemplam tanto as duas condicionalidades quanto apenas uma delas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This dissertation deals with the problem of making inference when there is weak identification in models of instrumental variables regression. More specifically we are interested in one-sided hypothesis testing for the coefficient of the endogenous variable when the instruments are weak. The focus is on the conditional tests based on likelihood ratio, score and Wald statistics. Theoretical and numerical work shows that the conditional t-test based on the two-stage least square (2SLS) estimator performs well even when instruments are weakly correlated with the endogenous variable. The conditional approach correct uniformly its size and when the population F-statistic is as small as two, its power is near the power envelopes for similar and non-similar tests. This finding is surprising considering the bad performance of the two-sided conditional t-tests found in Andrews, Moreira and Stock (2007). Given this counter intuitive result, we propose novel two-sided t-tests which are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test of Moreira (2003).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é estimar a medida dinâmica VNET de profundidade de mercado para ações brasileiras a partir de dados de transação. VNET mede a diferença no número de ações compradas e vendidas no intervalo de tempo necessário para que o preço se movesse além de um determinado incremento. É uma medida de liquidez realizada para uma deterioração específica de preço que pode ser calculada seguidamente ao longo do dia, capturando assim a dinâmica de curto prazo da liquidez. Em particular, assume-se que essa duração de preços segue um modelo autorregressivo de duração condicional (ACD). A natureza pré-determinada do processo ACD é conveniente porque nos permite prever mudanças futuras na liquidez de uma ação. Assim, ao identificar os melhores momentos para realizar uma operação de compra ou venda, o VNET é um excelente ponto de partida para qualquer estratégia de execução ótima. Os resultados empíricos deste trabalho indicam que a profundidade de mercado medida pelo VNET varia com ágio de compra e venda, com o volume negociado, com o número de negócios, com a duração de preços condicional, e com o seu erro de previsão. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações de preços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese é composta por três ensaios. O primeiro ensaio estuda os ciclos de negócios brasileiro no período dos anos 1900 até 2012. Uma série trimestral do PIB real é elaborada, utilizando um modelo estrutural de séries de tempo. A partir disso, um modelo com mudança Markoviana é proposto para que seja construída uma cronologia de ciclo de negócios. O modelo selecionado possui dois regimes distintos, cenários de expansão e de recessão, a datação obtida é comparada com outros estudos sobre o tema e são propostas caracterizações das fases de crescimento que podem apoiar estudos sobre a história econômica do Brasil. O segundo ensaio estuda o comportamento da velocidade da moeda no ciclo de negócios brasileiro de 1900 até 2013. Os resultados a partir das estimativas dos modelos de séries temporais, MS e GARCH, são utilizados para suportar esse estudo. Em termos gerais a velocidade da moeda no Brasil apresentou queda até a segunda Guerra Mundial, cresceu até meados dos anos 1990 e a partir disso segue em tendência de queda. A experiência inflacionária brasileira é capítulo importante de nossa história econômica. O objetivo do terceiro ensaio é estudar a volatilidade da inflação brasileira ao longo do tempo no período de 1939 até 2013, buscando descrever sua relação com a taxa de inflação, adotando como referência uma datação de ciclos de negócios. Para realizar essa descrição serão utilizados os resultados obtidos nas estimações de modelos econométricos das classes GARCH, BSM e MS. No caso brasileiro a indicação é que a taxa de inflação impacta positivamente sua volatilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo desenvolvemos um modelo de otimização que permite determinar curvas de oferta para produtos perecíveis. As informações disponíveis ao produtor(vendedor) sobre a demanda são sumarizadas por uma distribuição de probabilidade, a qual lhe permitirá determinar a oferta que maximiza seu gannho esperado. A função objetivo levará em conta, conjuntamente, as perdas decorrentes de um estoque excedente e parcelas do custo de oportunidade de um estoque insuficiente. Esta formalização inclui a função lucro (contábil) como um caso particular. Aplicações do modelo teórico são feitas para demandas absolutamente contínuas com distribuição admitindo inversa explícita, tais como a exponencial truncada, Pareto, Weibull e uniforme. Estimativas empíricas são obtidas para a oferta de tomates, chuchus e pimentões no mercado varejista Carioca (Julho/94 à Nov/00). Os resultados obtidos confirmam as hipóteses racionais do modelo teórico. As elasticidades-preço da oferta (no varejo) e da demanda (no atacado) são estimadas, assim que o valor da oferta ”contratual ”, nos casos em que parte dos custos dos saldos de estoque são recuperados por vendas em liquidação. A análise gráfica das curvas de oferta e de densidade da demanda sugerem a presença de significativo poder de mercado na comercialização do pimentão. Duas extensões imediatas do modelo formal são desenvolvidas. A primeira delas incorpora a existência de poder de mercado no mercado varejista. A segunda introduz uma estrutura de jogo simultâneo no mercado oligopolista onde cada produtor escolhe a curva que maximiza seu lucro esperado condicional, dado que as ofertas dos concorrentes igualam suas demandas. No equilíbrio de Nash, curvas de oferta ótimas são obtidas. Comparações são feitas com as curvas ótimas obtidas em regime de autarquia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We develop an affine jump diffusion (AJD) model with the jump-risk premium being determined by both idiosyncratic and systematic sources of risk. While we maintain the classical affine setting of the model, we add a finite set of new state variables that affect the paths of the primitive, under both the actual and the risk-neutral measure, by being related to the primitive's jump process. Those new variables are assumed to be commom to all the primitives. We present simulations to ensure that the model generates the volatility smile and compute the "discounted conditional characteristic function'' transform that permits the pricing of a wide range of derivatives.