1000 resultados para Opções (Finanças) - Modelos matemáticos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gestión del riesgo de liquidez es fundamental en las instituciones de seguridad social como el ISSFA -más aún cuando sus fuentes de ingreso dependen exclusivamente de la caja fiscal-, cuyo fondo de liquidez estructurado con parte de sus reservas, se mantienen en inversiones en el sistema financiero con rendimientos reales negativos por aplicación normativa del Banco Central. La presente investigación de carácter descriptivo, analiza el comportamiento de las prestaciones y del fondo de liquidez en el periodo 2012-2014, identificando ineficiencias en el uso de los recursos producto de la metodología presupuestaria utilizada para determinar el monto del fondo, por lo que se plantea la aplicación de modelos como el VaR Paramétrico, VaR Histórico y de volatilidad condicional GARCH, para el cálculo del máximo requerimiento de liquidez como base para la definición de un fondo óptimo. Se aplican los modelos sobre la serie de diferencias logarítmicas de los pagos diarios de la prestación de salud del periodo 2010-2014, que presenta alta volatilidad afectada por la naturaleza estocástica de la contingencia que genera la prestación y por factores de riesgo operativo, siendo necesario un ajuste a la fórmula del VaR por cuanto no se calcula la máxima pérdida esperada sino el máximo requerimiento de liquidez. El VaR Paramétrico y el VaR Histórico no generan resultados consistentes sobreestimado el requerimiento de liquidez. El VaR calculado con la esperanza y varianza estimados con el modelo GARCH, tiene un mejor ajuste con los datos reales ya que captura eventos de alta y baja volatilidad, permite reducir en un 84,3% el nivel de excedentes de liquidez observado en el periodo 2012-2014 en la seguridad social militar lo que favorecería la capitalización de sus reservas, siendo una base adecuada para la determinación del fondo de liquidez tomando como referencia el valor mínimo del coeficiente de cobertura de liquidez que recomienda el Comité de Basilea para la gestión del riesgo de liquidez, por lo que se recomienda el uso de este modelo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho, uma versão analítica do método de ordenadas discretas é usada para desenvolver soluções para alguns problemas da dinÂmica de gases rarefeitos, baseado em um modelo com freqüência de colisão variável (modelo CLF) da equação de Boltzmann linearizada. Em particular, resultados numéricos obtidos para os problemas de salto de temperatura, fluxo de Poiseuille, fluxo de Couette, Kramers, creep-térmico e deslizamento térmico são apresentados e discutidos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese é composta por três artigos, cada um deles correspondendo a um capítulo. Embora cada capítulo verse sobre assuntos distintos, existe a mesma preocupação em todos eles com a correta construção de modelos econométricos agregados a partir de modelos de decisão individual. Em outras palavras, o tema unificador é a preocupação em, ao usar dados agregados, levar em consideração a heterogeneidade dos indivíduos no processo de agregação dos mesmos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this study, we verify the existence of predictability in the Brazilian equity market. Unlike other studies in the same sense, which evaluate original series for each stock, we evaluate synthetic series created on the basis of linear models of stocks. Following Burgess (1999), we use the “stepwise regression” model for the formation of models of each stock. We then use the variance ratio profile together with a Monte Carlo simulation for the selection of models with potential predictability. Unlike Burgess (1999), we carry out White’s Reality Check (2000) in order to verify the existence of positive returns for the period outside the sample. We use the strategies proposed by Sullivan, Timmermann & White (1999) and Hsu & Kuan (2005) amounting to 26,410 simulated strategies. Finally, using the bootstrap methodology, with 1,000 simulations, we find strong evidence of predictability in the models, including transaction costs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho, nos propomos a estudar o desenvolvimento teórico de alguns modelos matemáticos básicos de doenças infecciosas causadas por macroparasitas, bem como as dificuldades neles envolvidas. Os modelos de transmissão, que descrevemos, referem-se ao grupo de parasitas com transmissão direta: os helmintos. O comportamento reprodutivo peculiar do helminto dentro do hospedeiro definitivo, no intuito de produzir estágios que serão infectivos para outros hospedeiros, faz com que a epidemiologia de infecções por helmintos seja fundamentalmente diferente de todos os outros agentes infecciosos. Uma característica importante nestes modelos é a forma sob a qual supõe-se que os parasitas estejam distribuídos nos seus hospedeiros. O tamanho da carga de parasitas (intensidade da infecção) em um hospedeiro é o determinante central da dinâmica de transmissão de helmintos, bem como da morbidade causada por estes parasitas. Estudamos a dinâmica de parasitas helmintos de ciclo de vida direto para parasitas monóicos (hermafroditas) e também para parasitas dióicos (machos-fêmeas) poligâmicos, levando em consideração uma função acasalamento apropriada, sempre distribuídos de forma binomial negativa. Através de abordagens analítica e numérica, apresentamos a análise de estabilidade dos pontos de equilíbrio do sistema. Cálculos de prevalências, bem como de efeitos da aplicação de agentes quimioterápicos e da vacinação, no controle da transmissão e da morbidade de parasitas helmintos de ciclo de vida direto, também são apresentados neste trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente estudo testa a existência da assimetria de informações no mercado de capitais no Brasil, por meio da realização de testes sobre o comportamento do preço das ações de empresas brasileiras no período de 1994 a 2001. A análise será conduzida levando-se em consideração diversas hipóteses, em particular o modelo de Equilíbrio da Decisão de Emissão-Investimento desenvolvido por Myers e Majluf. Este estudo buscará discutir novas formas de verificar a existência da Assimetria de Informação pela utilização de modelos estatísticos, ampliando desta forma o conceito de medida correta sugerido por Nathalie Dierkens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Análise do comportamento dos principais índices de risco no mercado de ações de São Paulo no período de julho de 1984 a junho de 1990. Estudo das condições de diversificação presentes no mercado acionário paulista neste período. Teste do "Single Index Model" e dos principais modelos de avaliação de ações.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As teorias sobre risco sistemático iniciadas em 1932 com Knight sempre buscaram determinar variáveis que pudessem explicar e determinar o nível de risco sistemático de um sistema financeiro. Neste sentido, este estudo propôs-se a investigar as variáveis que possam determinar o nível de risco sistemático de um país, utilizando um modelo de mercado para estimação de betas e regressões com dados em painel sobre uma base de dados de janeiro de 1997 a setembro de 2008 para 40 países. Utilizou-se como variáveis, o PIB, inflação, câmbio, taxa real de juros e concentração de mercado. Verificou-se que o modelo apresenta indícios que as variáveis utilizadas podem ser consideradas como determinantes do risco sistemático e ainda, que o nível de concentração de um mercado acionário pode determinar o nível de risco sistemático de um país.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estima uma taxa de retorno dos investimentos corporativos e verifica a criação de valor aos acionistas para o período de 1988 a 1999. Avalia as fontes de recursos utilizadas pelas empresas, verificando a influência das mudanças ocorridas no cenário brasileiro referente ao maior acesso das empresas ao mercado internacional de capitais e à estabilização inflacionária. Dadas as imperfeições de mercado, foi testado o modelo "pecking order" contra o "tradeoff", de modo a obter melhor entendimento sobre as decisões de busca de recursos por parte das empresas do setor não financeiro, no Brasil

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Discute-se como a assimetria de informações afeta os modelos de precificação de ativos e algumas das consequências para os testes de eficiência. No primeiro capítulo são apresentados dois modelos que partiram da hipótese que os agentes possuem informação completa sobre as variáveis econômicas: o CAPM e o Black-Scholes. No segundo capítulo procura-se verificar até que ponto é possível modelar a economia dadas estas imperfeições. Partindo de uma variação de AkerIoff (1970), mostra-se que quando uma parte de posse de uma informação superior transaciona com outra, ocorre uma falha de mercado, a seleção adversa, podendo até gerar o colapso do mercado. O segundo modelo analisado, Bray (1989), mostra como as informações privilegiadas são incorporadas ao preço e o último modelo, Kyle (1985), analisa como a presença de um agente com informação privilegiada afeta a liquidez do mercado. O terceiro capítulo faz um teste para a eficiência do mercado de câmbio brasileiro. Apesar de não se poder negar a presença de co integração entre as séries, não se pode aceitar a hipótese de eficiência semi-forte, ou seja, a hipótese de que o mercado futuro seria um estimador não viesado para o mercado à vista, o que pode ser interpretado como indicação de informação incompleta ou imperfeita.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Há vários argumentos a favor da uniformidade das alíquotas. Um dos principais é associado com a complexidade administrativa que se caracteriza a imposição de inúmeras alíquotas com a complexidadeadministrativa que se caracteriza a imposição de inúmeras alíquotas. Um outro argumento a favor da implantação de uma alíquota uniforme está relacionado com considerações de eficiência. Neste caso, argumenta-se que a tributação seletiva de um imposto valor adicionado geraria uma discriminação dos diferentes tipos de bens e serviços ocasionando distorção no comportamento dos consumidores. No que tange ao princípio de equidade da teoria de finanças públicas, o argumento para uniformidade das alíquotas é de que todos os agentes pagariam o mesmo encargo do imposto, não havendo discriminação com os indivíduos que tenha uma preferência especial por bens que são fortemente tributados. Neste caso, o princípio de equidade está relacionado com o fato de que agentes com a mesma capacidade de pagamento pagam impostos de igual valor equidade horizontal