925 resultados para Fator de Risco


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho explora com cuidado o lado específico da implementação de um modelo de alocação de ativos em que o risco é tratado de maneira integrada, não somente através do desvio padrão do portfólio, mas também considerando outras métricas de risco como, por exemplo, o Expected Shortfall. Além disso, utilizamos algumas técnicas de como trabalhar com as variáveis de modo a extrair do mercado os chamados “invariantes de mercado”, fenômenos que se repetem e podem ser modelados como variáveis aleatórias independentes e identicamente distribuídas. Utilizamos as distribuições empíricas dos invariantes, juntamente com o método de Cópulas para gerar um conjunto de cenários multivariados simulados de preços. Esses cenários são independentes de distribuição, portanto são não paramétricos. Através dos mesmos, avaliamos a distribuição de retornos simulados de um portfólio através de um índice de satisfação que é baseado em uma função de utilidade quadrática e utiliza o Expected Shortfall como métrica de risco. O índice de satisfação incorpora o trade-off do investidor entre risco e retorno. Finalmente, escolhemos como alocação ótima aquela que maximiza o índice de satisfação ajustado a um parâmetro de aversão ao risco. Perseguindo esses passos, é possível obter um portfólio no qual a alocação em cada ativo, ou classe de ativos, reflete o prêmio esperado ao risco incorrido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo da pesquisa consiste em identificar os fatores determinantes à utilização de derivativos por empresas não financeiras listadas na Bolsa de Valores de São Paulo (Bovespa). A principal contribuição aos estudos já publicados sobre esse tema consiste na avaliação, se estrutura de propriedade e/ou motivos gerenciais influenciam as estratégias de redução do risco da firma. Foram coletados dados de 125 empresas de capital aberto referente ao período 2006, sendo que destas empresas, 82 apresentam níveis diferenciados de boas práticas de governança corporativa (Nível 1, Nível 2 ou Novo Mercado). Através do modelo de variáveis binárias Logit, identificaram-se as seguintes evidências: grau de endividamento, valor de mercado da companhia e concentração de propriedade estão positivamente relacionadas com a utilização de derivativos. Já a adoção de políticas financeiras alternativas, mensurada pelo índice de liquidez seca, apresenta relação negativa. Características como “existência de programas de opções de ações” e “idade”, “tempo de empresa” e “prazo de mandato do diretor financeiro” não se mostraram estatisticamente significantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho propõe a modelagem da paridade hedgeada de juros (HIP, hedged interest parity) – uma alternativa ao uso da paridade descoberta de juros (UIP, uncovered interest parity) que faz uso de opções sobre a taxa de câmbio e pode ser usada no estudo de um dos puzzles ainda não resolvidos na teoria econômica: a não ausência de viés no mercado futuro de câmbio como indicador das expectativas dos agentes. Através das pistas encontradas na revisão da vasta literatura disponível sobre o assunto e considerando a disponibilidade atual de dados sobre o mercado de opções – uma novidade recente - a HIP é proposta. A forma com que a modelagem usando opções se encaixa no framework tradicional é animadora do ponto de vista teórico: a HIP pode ser vista como uma forma genérica que, dependendo dos parâmetros escolhidos, converge para a CIP (covered interest parity) ou para a UIP (uncovered interest parity). Além disso, ela mitiga efeitos de duas das principais explicações tradicionais para as falhas dos testes da UIP, i.e. learning e peso problem, o que a torna potencialmente melhor do que esta como modelo para o estudo das paridades de juros. Mais importante do que isso, ela sugere uma forma funcional para o prêmio pelo risco cambial (PRC) que pode ser testada econométricamente. O ensaio também propõe e implementa um teste comparativo da HIP com a UIP com resultados animadores. Além do coeficiente do forward premium mudar para mais próximo do previsto pela teoria quando se troca a UIP pela HIP, o prêmio pelo risco cambial gerado pela modelagem da HIP apresenta resultados próximos aos previstos por Fama(1984). Isso permite concluir que a investigação do prêmio pelo risco cambial usando os dados do mercado de opções é um caminho fértil para pesquisa futura. O trabalho traz ainda conclusões importantes para a implementação de política monetária, uma vez que propõe a inclusão da volatilidade implícita do câmbio (via custos das opções) na equação de paridade de juros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A principal contribuição deste estudo consiste em incluir o risco de liquidez entre os fatores que influenciam o apreçamento dos títulos de renda fixa corporativos brasileiros. Ao longo do trabalho mostramos que, muito embora intuitivamente o preço de uma determinada debênture deva ser uma função das suas características (prazo, rating, garantias, etc), o risco de crédito (risco de inadimplemento do emissor) e o risco de liquidez (risco de não conseguir montar ou se desfazer de uma posição a qualquer momento no preço do mercado) são os dois fatores que melhor definem os riscos envolvidos ao se emitir/comprar uma debênture. O risco de crédito tem sido o foco dos esforços para modelar o preço de um título de renda fixa, principalmente por causa do interesse dos bancos em marcar suas posições de crédito. No entanto, o que se propõe neste trabalho é incorporar o prêmio de liquidez inerente às debêntures distribuídas aos investidores nesses modelos, como um meio de melhor apreçar esses títulos. A tentativa de comprovação dessa hipótese foi feita acompanhando-se os preços indicativos no mercado secundário de debêntures, contrapondo-os aos preços obtidos via modelo de crédito e via modelo de crédito acrescido de modelo de liquidez. Os modelos adotados foram os que possuem características mais adaptáveis ao mercado brasileiro e/ou que fossem de mais simples implementação dadas as restrições brasileiras no que diz respeito à base de dados necessária para a aplicação de cada modelo. No caso do modelo de crédito, após uma revisão detalhada, adotou-se o modelo sugerido por MERTON (1974). Para o modelo do risco de liquidez, o modelo adotado foi o do VaR modificado para contemplar o spread de liquidez. Os resultados obtidos, embora não indiquem que o modelo proposto é eficiente no apreçamento de debêntures, apontam para uma comprovação da hipótese inicial, ou seja, que a inclusão do risco de liquidez nos modelos de apreçamento de crédito aumentam o poder explicativo do modelo de apreçamento resultante e que, portanto, esse seria uma ferramenta importante na análise do mercado de debêntures brasileiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O comportamento do retorno excedente de investimentos em moeda estrangeira tem desafiado a ciência econômica. Dois aspectos têm sido particularmente intrigantes: (i) o retorno excedente é significativamente diferente de zero e, (ii) a variância desse retorno é bastante elevada. O objetivo esse trabalho é verificar se modelos baseados no CAPM (capital asset pricing model) internacional são capazes de prever os dois fatos mencionados acima. Para tanto, o trabalho começa descrevendo o comportamento do retorno excedente de investimentos em 13 importantes moedas globais sob a ótica de um investidor norte-americano. Em seguida, três diferentes versões do CAPM internacional são desenvolvidas e estimadas. A conclusão geral é que essa classe de modelos não é plenamente capaz de prever o comportamento do retorno excedente realizado. Porém, ressalva-se que diversos aspectos discutidos neste trabalho como custo de transação, impostos, sample problem e learning, podem ter mascarado os resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desse trabalho é analisar e precificar o prêmio de liquidez exigido pelos investidores nas negociações de debêntures do mercado secundário brasileiro, com base no yield to maturity diário desses papéis. Os testes econométricos foram realizados com base no modelo apresentado por Houweling, Mentink e Vorst (2005) e aplicado ao mercado de eurobonds nos períodos de 1999 a 2001. Foi implementado um modelo de 5 variáveis para controlar, através de betas e características, os outros tipos de risco determinantes do spread das debêntures que não a liquidez. O conhecido modelo de títulos de renda fixa de dois fatores Fama-French (1993) foi utilizado para controlar os riscos de crédito e de taxas de juros, foram incorporados efeitos marginais, através das características individuais (rating e duration) das debêntures e uma adaptação para as particularidades do mercado brasileiro foi realizada, com a inclusão de um fator baseado na taxa PréxDI da duration dos portfólios. Para esse estudo, foram consideradas 4 proxies de liquidez largamente utilizadas na literatura: Volume de Emissão, Idade da Emissão, Número de Transações no dia e Spread de Compra e Venda, sendo o modelo estimado uma vez para cada proxy analisada. Para realizar os testes de regressão e precificar o prêmio de liquidez no mercado secundário de debêntures do Brasil, todas as variáveis do modelo foram calculadas para cada uma das amostras de dados. Posteriormente, para cada proxy de liquidez foram construídos diariamente portfólios mutuamente excludentes, com as debêntures segregadas em portfólios de acordo com a proxy de liquidez em questão, conforme a metodologia proposta por Brennan e Subrahmanyam (1996). A base de dados, que somou 16.083 amostras, se fundamentou nas cotações de mercado fornecidas diariamente pelo Sistema Nacional de Debêntures no período de Maio de 2004 a Novembro de 2006. A hipótese nula de que não existe prêmio de liquidez embutido nos spreads das debêntures negociadas no mercado secundário brasileiro é rejeitada para todas as proxies analisadas. De acordo com a proxy de liquidez utilizada, o prêmio de liquidez no mercado secundário de debêntures varia de 8 a 30 basis points.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a montagem de uma instalação fotovoltaica de 4,8 kWp conectada à rede elétrica e uma análise experimental do seu comportamento, com o propósito de otimizar o fator de dimensionamento. Para fins de análise comparativa a instalação foi dividida em três subsistemas com arranjos de potências diferentes, os quais possuem fatores de dimensionamentos de 0,65, 0,73 e 0,86 (razão entre a potência nominal do inversor e a potência do gerador fotovoltaico), respectivamente para os subsistemas 1, 2 e 3. Cada subsistema possui um arranjo formado por dois painéis que utilizam módulos de 100 Wp/24 V, com células de silício monocristalino. Estes arranjos alimentam, de forma independente, três inversores senoidais monofásicos comutados pela própria rede e com potência máxima na saída de 1100 W cada um, caracterizando desta forma uma planta modular. O sistema de aquisição de dados monitora sistematicamente a instalação a uma varredura por minuto, a fim de se obter um acompanhamento ao longo do tempo e poder caracterizá-la. São monitoradas as tensões elétricas de cada painel de módulos e as suas correspondentes correntes, as tensões elétricas e as correntes alternadas, as potências elétricas contínuas e alternadas, a irradiância no plano do gerador, as temperaturas do ar ambiente, de um módulo do gerador e dos inversores. A metodologia de análise desta instalação consiste no monitoramento, na caracterização e na quantificação das medidas adquiridas, com a finalidade de determinar correlações que possam predizer a potência injetada na rede bem como a determinação da performance energética para dias típicos ensolarados, parcialmente nublados e encobertos. A divisão da instalação em três subsistemas permitiu caracterizá-los quanto aos seus comportamentos energéticos, além de possibilitar a análise de arranjos superdimensionados, os quais fornecem uma potência superior a máxima na entrada dos inversores, originando desperdício de energia nos momentos de elevada irradiância. O método desenvolvido para determinar a energia perdida na entrada dos inversores possibilitou avaliar o quanto se perde mensalmente nos subsistemas 1 e 2, uma vez que as perdas de captura e de sistema aumentam quando o arranjo está superdimensionado e isto significa uma redução na produtividade. Com as correlações encontradas para cada subsistema e com a equação geral foi possível predizer o quanto de energia pode ser injetada na rede.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: Os tumores do Sistema Nervoso Central (SNC) constituem um grupo heterogêneo de neoplasias e representam o tumor sólido mais comum na infância e adolescência (DEANGELIS 2001). A tumorigênese é um processo de múltiplas etapas envolvendo alterações genéticas que levam a transformação progressiva de células normais para a formação de derivados altamente malignos (HANAHAN 2000). O receptor do fator de crescimento epidermal (EGFR) é um receptor transmembrana que atua num sistema de sinalização fundamental para a fisiologia normal da célula e na manutenção do estado tumorigênico (JORISSEM 2003). O EGFR e seus ligantes estão envolvidos em mais de 70% de todas as neoplasias (YARDEN 2001). Em vários tipos de tumores, incluindo os tumores cerebrais, o EGFR é expresso aproximadamente 100 vezes mais do que o número normal de receptores encontrados na superfície de células normais. A hiperexpressão do EGFR e do ErbB2, tem sido associada com neoplasias que apresentam um comportamento clínico mais agressivo (ALROY 1997). Objetivos: Analisar a expressão do gene do EGFR em tumores primários do SNC. Material e Método: Análise de 18 amostras de tumores primários do SNC em crianças de 01 a 14 anos de idade utilizando uma técnica semi-quantitativa de RT-PCR. A coleta das amostras foi feita no período de 2002 a 2004. Resultados: A amostra foi composta por: um astrocitoma grau I, três astrocitomas grau III, três astrocitomas grau IV, três carcinomas de plexo coróide, 1 craniofaringeoma, três ependimomas, um tumor neuroectodérmico primitivo e três meduloblastomas. 33% da amostra apresentou hiperexpressão de EGFR. Ao analisar-se os resultados de expressão do EGFR nas amostras de astrocitomas verificou-se um aumento na expressão do EGFR para os tumores de grau IV, com exceção de uma amostra que apresentou um índice baixo de 0.13 RNAm. Para as demais amostras de astrocitoma grau 3 a expressão do EGFR foi baixa e os pacientes apresentaram sobrevida com doença, uma vez que não foi possível realizar ressecção cirúrgica total. Conclusão:Ainda que este estudo forneça dados de uma população bastante heterogênea é possível evidenciar diferenças nítidas de expressão do EGFR entre as diversas histologias que compreendem os tumores pediátrico do SNC. Tais resultados sugerem um importante papel do EGFR nos tumores cerebrais da infância e encorajam a continuidade de investigações que elucidem a real aplicabilidade deste fator de crescimento como marcador prognóstico e alvo terapêutico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho busca, através dos princípios de Finanças Corporativas e de Apreçamento de Ativos, mensurar o impacto do nível de liquidez das companhias na expectativa de retorno das ações no mercado acionário brasileiro. O pressuposto básico dessa relação é que a posição de caixa representa um tipo de risco não capturado por outras variáveis. Para mensurar esse risco, será utilizada a modelagem de fatores para apreçamento de ativos. O modelo básico utilizado será o de três fatores de Fama e French, adaptado para a inclusão da variável caixa. A partir da base de dados, se tentará estimar a sensibilidade do retorno esperado das ações brasileiras ao fator caixa.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Há cerca de 20 anos a vanilina vem sendo descrita como uma substância moduladora capaz de inibir eventos relacionados à indução e promoção do processo carcinogênico. Este comportamento associado ao seu consumo elevado despertou o nosso interesse científico - resultando na publicação do primeiro trabalho associando a VA a acréscimos expressivos em eventos recombinacionais mitóticos, acompanhados de decréscimos na freqüência de mutações pontuais e cromossômicas. Entretanto, quando a antimutagênese e a co-recombinogênese foram avaliadas simultaneamente, a ação final da VA refletiu-se não como proteção, mas sim como um efeito potencializador expresso como um aumento de cerca de 200 vezes na genotoxicidade total da MMC. Na procura de respostas adicionais concernentes à ação da VA como moduladora de diferentes espectros de lesões no DNA utilizamos o Teste para Detecção de Mutação e Recombinação Somática em Drosophila melanogaster (SMART) com o intuito de avaliar o comportamento deste flavorizante em relação à genotoxicidade dos agentes químicos: N-methyl-N-nitrosourea (MNU), N-ethyl-N-nitrosourea (ENU), ethylmethanesulphonate (EMS) e bleomicina (BLEO), em dois protocolos de administração do modulador – pós e co-tratamento. Pós-tratamento Os dados obtidos através do sistema de pós-tratamento evidenciaram que a VA não altera a mutagenicidade e a recombinogenicidade do ENU e MNU - o que sugere a não interferência deste flavorizante sobre os mecanismos envolvidos na correção das lesões induzidas por estes alquilantes. Ao contrário, a toxicidade genética do EMS foi significativamente aumentada em valores compreendidos entre 7,79 a 29,79%, representando a expressão final de dois efeitos antagônicos: (i) sinergismo em recombinação mitótica e (ii) proteção em relação à mutagênese. Tais achados sugerem que diferenças entre o espectro dos danos induzidos por estes agentes alquilantes, podem afetar os caminhos de reparação a serem priorizados. Como conseqüência, o efeito potencializador da VA sobre recombinação homóloga (HR) está restrito ao EMS – o único dos agentes alquilantes monofuncionais estudados cujas lesões são processadas, em Drosophila melanogaster, por ambos mecanismos de reparo: excisão de nucleotídeos e pós-replicativo. A VA também causou drásticos incrementos na genotoxicidade da BLEO - 120 a 178% - que estão limitados a aumentos em recombinação, uma vez que não foram observadas alterações na sua potência mutacional. Como a genotoxicidade da BLEO resulta basicamente da indução de quebras duplas corrigidas por mecanismos de reparação dependentes de recombinação - que podem ocorrer tanto entre cromossomos homólogos (HR) como não-homólogos (end joining -NHEJ) – e como o teste SMART privilegia a detecção de recombinação homóloga, os nossos dados indicam que a ação potencializadora de VA em relação a BLEO deve-se especificamente a incrementos em reparo dependente de HR. Ainda relevante é o fato de que estes acréscimos não estão associados a decréscimos em mutação, como anteriormente observado para a MMC.Todos estes dados indicam que a modulação da VA está restrita ao seu efeito sinérgico sobre recombinação somática – promovendo especificamente a recombinação homóloga em células proliferativas de Drosophila. Co-tratamento Através deste procedimento ficou claro que a VA diminui significativamente a toxicidade genética total dos alquilantes MNU e ENU e do agente intercalante bleomicina. Os decréscimos observados tanto para o MNU quanto para o ENU são basicamente atribuídos ao seu papel promotor sobre o processo de detoxificação - que leva a diminuição no número de metilações e etilações induzidas respectivamente pelo MNU e pelo ENU. Adicionalmente, a caracterização da VA como um potente captador de radicais livres, especialmente em função do seu efeito sobre os danos oxidativos induzidos pela BLEO – explica a sua ação desmutagênica em relação a este agente intercalante. Todos estes dados referentes ao efeito modulador da VA não permitem a quantificação da relação risco-benefício do seu consumo, especialmente pela dificuldade prática de se medir o quanto a sua presença concomitante com as genotoxinas – representado por efeito benéfico, via interferência no potencial genotóxico – ou a sua ação após a indução dos danos genéticos, através da promoção de reparo recombinacional e conseqüente aumento em HR, contribuem para a expressão final do seu efeito modulador. Entretanto, o papel fundamental da recombinação homóloga na gênese de inúmeras doenças genéticas, incluindo o câncer, e a preponderante ação recombinogênica da VA são um sinal de alerta.