41 resultados para curvas sigmoidais respiratórias
Resumo:
A literatura mundial sobre a Síndrome da Imunodeficiência Adquirida e condições relacionadas à infecção pelo HIV é abundante, mas o mesmo não acontece na literatura médica nacional, embora o Brasil detenha a quarta posição do mundo em número de casos. Fatores prognósticos da doença ainda não foram estabelecidos, conhecendo-se pouco sobre a sobrevida dos pacientes acometidos pela síndrome, especialmente em nosso meio. Foram estudados 312 pacientes aidéticos atendidos no Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP) de novembro de 1988 a dezembro de 1990. Os casos foram notificados à Secretaria de Saúde do Estado, e os dados introduzidos em uma base de dados computadorizada. Após análise discriminante entre o grupo dos pacientes que obituaram no período e o que se manteve vivo neste intervalo, definiram-se os preditores de óbito para os casos estudados. Tais preditores incluíram, entre outros: tempo decorrido a partir das primeiras manifestações da doença, sexo, idade do paciente, número e tipo de infecções por fungos. A análise de sobrevida pelo método atuarial mostrou uma sobrevi da no primeiro ano de observação de 65,6% e no segundo ano de 54,7% para o total dos pacientes. As curvas de sobrevida de pacientes acometidos por infecções por fungos, mulheres e maiores de 40 anos sugeriram uma menor sobrevida nesses pacientes, confirmando os resultados da análise discriminante. Porém, o teste de Cox indicou uma significância menor que 0,05 quando da comparação entre os grupos
Resumo:
Na presente dissertação foi apresentada, pela primeira vez para o mercado brasileiro, uma aplicação da análise de componentes principais para a identificação dos fatores que influenciam o comportamento da estrutura temporal de cupom cambial brasileira, tendo como amostra cotações de ajuste dos contratos futuros de DDI e de FRA (Forward Rate Agreement) de cupom cambial da BM&F, cotações de fechamento do Dólar à vista e cotações de venda da Ptax800, para o período entre 02/01/2002 e 29/12/2005. Através da aplicação da técnica de análise de componentes principais para as curvas de cupom cambial limpo à vista e a termo foi possível observar superioridade no poder explicativo da última com relação à primeira, com três componentes principais sendo responsáveis por mais de 94% da variabilidade explicada na aplicação da análise de componentes principais à curva a termo de cupom cambial. A superioridade dos resultados obtidos na análise da curva a termo de cupom cambial também pôde ser observada na interpretação visual dos componentes de nível, inclinação e curvatura (interpretação esta que não pôde ser claramente obtida na análise dos gráficos referentes à curva à vista de cupom cambial). Este trabalho também teve como objetivo a análise da efetividade de uma aplicação de imunização do risco de variação nas taxas de cupom cambial baseada nos resultados anteriormente obtidos com a análise de componentes principais da curva a termo de cupom cambial. A estratégia de imunização realizada demonstrou alta efetividade na comparação entre os resultados da carteira objeto de imunização (carteira arbitrária de swaps DólarxCDI) e os resultados da carteira instrumento de imunização (contratos futuros de FRA de cupom cambial da BM&F). Este resultado é de grande importância para o gerenciamento de carteiras que possuam títulos expostos ao risco de variações na curva de cupom cambial.
Resumo:
A presente dissertação tem como objeto de estudo a superfície de volatilidade implícita de opções européias da paridade Real / Dólar no mercado brasileiro. Este trabalho não tenta explicar as deformações ou os desvios da volatilidade implícita com relação à hipótese de volatilidade constante do modelo de Black & Scholes (1973), mas trata a volatilidade implícita como uma variável financeira interessante por si só, procurando analisar a dinâmica de sua superfície. Para a análise desta superfície, o presente estudo propõe a utilização de uma ferramenta empregada em estudos empíricos de diversos ramos da ciência: a Análise de Componentes Principais – ACP (Principal Component Analysis). As mudanças na superfície de volatilidade alteram o apreçamento das opções de uma carteira. Desta forma, constituem um fator de risco que precisa ser estudado e entendido para o desenvolvimento de estratégias de imunização e de técnicas de gerenciamento de risco, dentre elas o cálculo de Valor em Risco (V@R – Value at Risk). De posse dos resultados obtidos com a análise de componentes principais da superfície de volatilidade implícita, o presente estudo tem por objetivo obter valores limite de variação desta volatilidade implícita, como forma de estimar as conseqüentes variações extremas nos valores de uma carteira de opções. Para tanto, baseia-se em estudos sobre a aplicação da análise de componentes principais da superfície de volatilidade implícita desenvolvidos por Alexander (2001). Estes estudos, por sua vez, são derivados de estudo sobre a dinâmica de curvas de volatilidade proposto por Derman (1999). Para se verificar a eficiência da metodologia proposta, os valores extremos obtidos são testados de acordo com os critérios de teste retroativo propostos pela emenda ao comitê da Basiléia de 1996.
Resumo:
A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.
Resumo:
Este trabalho tem dois objetivos. O primeiro, que será apresentado na Seção 2, consiste numa dedução rigorosa das condições em que o efeito HLM é válido no modelo tradicional de renda-despesa, das curvas IS/LM do livro texto. O segundo objetivo, que será tratado na Seção 3, consiste na análise do efeito HLM num modelo de otimização intertemporal, de uma economia aberta que não afeta os preços dos bens e serviços que importa, mas paga um prêmio de risco nos empréstimos que obtém no mercado de capitais internacional. A Seção 4 contém um sumário com as conclusões do trabalho.
Resumo:
Eu demonstro que preferências convexas com curvas de indiferença afins não tem representação côncava se existirem duas curvas de indiferença não-paralelas
Resumo:
Esta tese é uma coleção de quatro artigos em economia monetária escritos sob a supervisão do Professor Rubens Penha Cysne. O primeiro desses artigos calcula o viés presente em medidas do custo de bem-estar da inflação devido a não se levar em conta o potencial substitutivo de moedas que rendem juros, como depósitos bancários.[1] O segundo se concentra na questão teórica de se comparar os escopos dos tradicionais modelos money-in-the-utility-function e shopping-time através do estudo das propriedades das curvas de demanda que eles geram.[2] O terceiro desses trabalhos revisita um artigo clássico de Stanley Fischer sobre a correlação entre a taxa de crescimento da oferta monetária e a taxa de acumulação de capital no caminho de transição.[3] Finalmente, o quarto diz respeito à posição relativa de cada uma de seis medidas do custo de bem-estar da inflação (uma das quais é nova) em relação às outras cinco, e uma estimativa do erro relativo máximo em que o pesquisador pode incorrer devido a sua escolha de empregar uma dessas medidas qualquer vis-à-vis as outras.[4] This thesis collects four papers on monetary economics written under the supervision of Professor Rubens Penha Cysne. The first of these papers assesses the bias occuring in welfare-cost-of-inflation measures due to failing to take into consideration the substitution potential of interest-bearing monies such as bank deposits.[1] The second one tackles the theoretical issue of comparing the generality of the money-in-the-utility-function- and the shopping-time models by studying the properties of the demand curves they generate.[2] The third of these works revisits a classic paper by Stanley Fischer on the correlation between the growth rate of money supply and the rate of capital accumulation on the transition path.[3] Finally, the fourth one concerns the relative standing of each one of six measures of the welfare cost of inflation (one of which is new) with respect to the other five, and an estimate of the maximum relative error one can incur by choosing to employ a particular welfare measure in place of the others.[4] [1] Cysne, R.P., Turchick, D., 2010. Welfare costs of inflation when interest-bearing deposits are disregarded: A calculation of the bias. Journal of Economic Dynamics and Control 34, 1015-1030. [2] Cysne, R.P., Turchick, D., 2009. On the integrability of money-demand functions by the Sidrauski and the shopping-time models. Journal of Banking & Finance 33, 1555-1562. [3] Cysne, R.P., Turchick, D., 2010. Money supply and capital accumulation on the transition path revisited. Journal of Money, Credit and Banking 42, 1173-1184. [4] Cysne, R.P., Turchick, D., 2011. An ordering of measures of the welfare cost of inflation in economies with interest-bearing deposits. Macroeconomic Dynamics, forthcoming.
Resumo:
A vantagem competitiva é tema central do campo de estratégia, a principal hipótese para explicar a heterogeneidade do desempenho entre as empresas. No entanto, a vantagem competitiva é frequentemente empregada como um termo auto-explicativo, fonte de diferentes interpretações teóricas e tratada empiricamente como rentabilidade superior. Tais aspectos que trazem suspeitas e indagações sobre a robustez do construto. Sob este prisma, este trabalho desenvolve uma análise teórica e empírica sobre a vantagem competitiva, suas definições e perspectivas de análise, sua relação e seus efeitos sobre o desempenho organizacional. A partir de uma pesquisa conceitual, a vantagem competitiva é primeiramente definida como criação de valor. Nas fronteiras da criação de valor está a capacidade de desenvolvimento de recursos e de superação dos concorrentes. Nas interfaces com parceiros econômicos e stakeholders, a criação de valor traz diferentes implicações para o desempenho organizacional, isto é impactos financeiros, operacionais e para a eficácia organizacional. O estudo destas interfaces provê o desenvolvimento de um modelo multinível para a mensuração da vantagem competitiva por meio dos seus efeitos no desempenho financeiro, uma combinação das curvas de lucratividade e de crescimento de mercado pelas empresas. O modelo é aplicado a amostras de empresas americanas (COMPUSTAT), em quatro intervalos de tempo ao longo do período de 1990 a 2009. Os resultados permitem identificar a existência de vantagem competitiva em diferentes setores, e a estabilidade da sua manifestação ao longo dos 20 anos observados. A análise dos resultados também permite verificar a dinâmica da competitividade e a capacidade de manter a vantagem competitiva no tempo. Por fim, o estudo das empresas longevas traz nova perspectiva sobre o desempenho no tempo e a sobrevivência das organizações.
Resumo:
A presente tese engloba três artigos sobre diferencial de salários e estimação de demanda no Brasil. O primeiro artigo investiga o diferencial de salários entre os trabalhadores dos setores público e privado. A principal contribuição deste estudo é a estimação de um modelo de regressão com mudança endógena (endogenous switching regression model), que corrige o viés de seleção no processo de escolha setorial realizada pelos trabalhadores e permite a identificação de fatores determinantes na entrada do trabalhador no mercado de trabalho do setor público. O objetivo do segundo trabalho é calcular a elasticidade-preço e a elasticidade-despesa de 25 produtos alimentares das famílias residentes nas áreas rurais e urbanas do Brasil. Para tanto, foram estimados dois sistemas de equações de demanda por alimentos, um referente às famílias residentes nas áreas rurais do país e o outro sistema associado às famílias residentes nas áreas urbanas. O terceiro artigo busca testar a validade do modelo unitário para solteiros(as) e a validade do modelo de racionalidade coletiva de Browning e Chiappori (1998) para casais no Brasil. Para tanto, foi estimado um sistema de demanda do consumo brasileiro com base no modelo QUAIDS, que apresenta uma estrutura de preferências flexível o suficiente para permitir curvas de Engel quadráticas.
Resumo:
O objetivo deste trabalho é investigar a ancoragem das expectativas de inflação de longo prazo no Brasil, medidas por intermédio das taxas de inflação implícitas nos títulos indexados ao IPCA. Para isso, são extraídas as curvas de juros reais e nominais dos preços do mercado secundário de títulos públicos, e uma vez de posse destes valores, são calculadas as taxas de inflação implícitas observadas diariamente no mercado brasileiro. Utilizando um modelo simples, estimado por Mínimos Quadrados Ordinários (MQO) robusto, testa-se a sensibilidade de alguns vértices das taxas de inflação implícita em relação às variações mensais de indicadores macroeconômicos relevantes para a trajetória de curto prazo da inflação e política monetária. Desta maneira, pretende-se avaliar se o comportamento da inflação implícita nos preços de mercado dos títulos públicos pode oferecer evidências de que as expectativas estão bem ancoradas no Brasil, no âmbito do regime de metas de inflação.
Resumo:
o presente estudo analisa os custos da escola rização de uma amostra de escolas do município do Rio de Janeiro e de outra do Distrito Federal, com o objetivo de determinar sua escala ótima de operação e analisar sua eficiência na utilização dos seus recursos físicos e humanos. A escala ótima, como o trabalho demonstra, e determinadÇl. pe;Lo pontQ de minimo . .das curvas de -custo, estimando o tamanho ideal para o funcionamento das escolas, de sorte a obter o máximo de eficiência e produtividade. A eficiência é analisada em termos da intensidade de uso da capacidade física instalada e da alocação adequada.dos recursos humanos, em função da natureza dos serviços escolares e do número de alunos nela matriculados. Espera-se demonstrar que o planejamento edu cacional pode aumentar a eficiência do sistema tirando proveito do que propoe a teoria microeconômica ao abordar as questões relati vas à função de produção e aos seus custos. E que, ao final, a cor reta utilização desses conceitos pode ser muito útil para ajudar a superar a desnecessária, mas muitas vezes real - dicotomia entre quantidade e qualidade. Planejamento economicamente correto pode permitir oferecer e~sino de qualidade a uma grande quantidade de crianças, adolescentes e jovens. A quantidade, antes de ser obstá culo, pode até favorecer a oferta de um ensino de boa qualidade. Evidentemente, é necessár~o competência técnica e científica para fazê-lo, secundando uma firme vontade política de fazê-lo.
Resumo:
Esse trabalho teve por objetivo contribuir para o entendimento da evolução da demanda por etanol e gasolina no Brasil e como este crescimento deverá ser traduzido em disponibilidade de cana de açúcar. Nesse estudo foram usados dados históricos que refletem o comportamento de variáveis no passado para projetar o futuro, considerando que o comportamento permaneça similar. Com as pressões internacionais por sustentabilidade e uma busca por uma matriz energética mais limpa, o etanol passou a ser uma opção real de complemento às demais fontes, sobretudo pelo seu aspecto ambiental. Com essa visão o Brasil já na década de 70 iniciou investimentos e incentivos para a produção de etanol para veículos, impulsionando a produção de carros flex na década de 90. Apesar de altos e baixos, hoje o aumento da demanda por etanol se deve principalmente ao crescimento da produção de veículos flex fuel. Esse crescimento vertiginoso da demanda fez com que houvesse necessidade de cada vez mais etanol e infelizmente a capacidade de produção do Brasil não foi capaz de acompanhar esse movimento, gerando falta de produto e provocando a migração do etanol para a gasolina. Essa migração tipicamente ocorre quando o etanol ultrapassa a paridade de 70% do preço da gasolina. Nesse contexto, o consumo de gasolina aumenta, impactando no volume de importação que a Petrobrás realiza para suprir o mercado interno. Através da análise das curvas de paridade e comportamento do consumidor, foi possível perceber que nos próximos anos a demanda por etanol vai continuar subindo e que a oferta de cana de açúcar não cresce na mesma proporção. Isso quer dizer que o que tínhamos de folga de produção de etanol, vai representar um déficit importante a ser suprido pela gasolina, custando ainda mais para a Petrobrás manter o nível de preço com baixo impacto inflacionário. Caso não sejam feitos investimentos relevantes para aumentar a oferta de etanol, através de novas usinas ou de maior produtividade, ou de gasolina através de mais refino, certamente teremos um cenário de desbalanceamento entre oferta e demanda de etanol e gasolina no Brasil
Resumo:
O presente trabalho visa propor uma metodologia para Teste de estresse e, consequentemente, cálculo do colchão adicional de capital em risco de crédito, conforme exigência do Comitê de Supervisão Bancária. A metodologia consiste em utilizar informações macroeconômicas para determinar o comportamento da taxa de inadimplência. Dessa forma, podemos simular possíveis cenários econômicos e, com isso, a taxa de inadimplência associada a esse cenário. Para cada cenário econômico é obtida uma taxa. Cada taxa de inadimplência fornece uma curva de perdas. Simulando diversos cenários econômicos foi possível obter diversas curvas de perda e, com elas, a probabilidade de ocorrência da perda esperada e inesperada. A metodologia foi aplicada a uma carteira de crédito pessoal para pessoa física. Os resultados se mostraram bastantes eficientes para determinar a probabilidade de ocorrência do Capital Alocado. Como consequência do teste, dado um nível de confiança, foi possível determinar qual deveria ser o Capital Alocado para fazer frente às perdas acima da perda inesperada.
Resumo:
Risco operacional precisa ser mensurado pois afeta o valor e a sobrevivência das empresas. Ocupa o foco de pesquisadores, profissionais do sistema financeiro, reguladores e supervisores bancários, no esforço de controlar esse risco. Pesquisamos quatro formas de utilizar a abordagem de distribuição de perdas para a quantificação do risco operacional. Utilizamos um conjunto de dois anos de perdas operacionais de um banco brasileiro de grande porte para fazermos a aplicação e o teste dessa abordagem em quatro variantes. A variante que utiliza exclusivamente distribuições empíricas foi a mais adequada para medir o risco operacional e calcular o capital econômico a partir dos dados disponíveis. Na variante que quantifica o risco operacional ajustando distribuições teóricas às perdas, mostramos que as curvas de Johnson são especialmente flexíveis e de pronta implementação. Também, ajustamos as curvas de Johnson à distribuição de perdas operacionais e à distribuição amostral dos valores de capital econômico. Conhecer a distribuição do capital permite que tenhamos ideia da precisão com que estimamos o capital econômico e abre o caminho para futuros estudos teóricos da distribuição do Var operacional. Encontramos a distribuição dos valores de capital econômico ao invés de calcularmos um valor único de capital. Comparamos dois métodos, utilizados para estabelecer distribuições de valores de capital. Ao conduzirmos a pesquisa, notamos ser possível justificarmos pontos de verificação da auditoria interna sobre a base de dados, a modelagem e a gestão de risco operacional. Com a pesquisa produzimos sugestões para a supervisão e regulação dos bancos.
Resumo:
Apesar de seu uso amplo no mercado financeiro para modelagem dos preços de ações, o modelo de Black Scholes, assim como os demais modelos de difusão, possui por hipótese limitações que não permitem a ele capturar alguns comportamentos típicos desse mercado. Visto isso, diversos autores propuseram que os preços das ações seguem modelos de saltos puros sendo sua modelagem estruturada por um processo de Lévy. Nesse contexto, este trabalho visa apresentar um estudo sobre a precificação de opções do utilizando um modelo desenvolvido por Madan e Seneta (1990) que se baseia no processo de saltos puros conhecido como variância gama (VG). Utilizando como base dados as cotações históricas diárias de ações e opções do mercado brasileiro, além do comportamento da clássica curva ‘smile’ de volatilidade, o trabalho apresenta as curvas de tendência e taxa de variância presentes no modelo de variância gama. Juntos essas três curvas podem ser utilizadas como ferramentas para explicar melhor o comportamento dos preços dos ativos.