731 resultados para Value net
Resumo:
A two-stage linear-in-the-parameter model construction algorithm is proposed aimed at noisy two-class classification problems. The purpose of the first stage is to produce a prefiltered signal that is used as the desired output for the second stage which constructs a sparse linear-in-the-parameter classifier. The prefiltering stage is a two-level process aimed at maximizing a model's generalization capability, in which a new elastic-net model identification algorithm using singular value decomposition is employed at the lower level, and then, two regularization parameters are optimized using a particle-swarm-optimization algorithm at the upper level by minimizing the leave-one-out (LOO) misclassification rate. It is shown that the LOO misclassification rate based on the resultant prefiltered signal can be analytically computed without splitting the data set, and the associated computational cost is minimal due to orthogonality. The second stage of sparse classifier construction is based on orthogonal forward regression with the D-optimality algorithm. Extensive simulations of this approach for noisy data sets illustrate the competitiveness of this approach to classification of noisy data problems.
Resumo:
A novel two-stage construction algorithm for linear-in-the-parameters classifier is proposed, aiming at noisy two-class classification problems. The purpose of the first stage is to produce a prefiltered signal that is used as the desired output for the second stage to construct a sparse linear-in-the-parameters classifier. For the first stage learning of generating the prefiltered signal, a two-level algorithm is introduced to maximise the model's generalisation capability, in which an elastic net model identification algorithm using singular value decomposition is employed at the lower level while the two regularisation parameters are selected by maximising the Bayesian evidence using a particle swarm optimization algorithm. Analysis is provided to demonstrate how “Occam's razor” is embodied in this approach. The second stage of sparse classifier construction is based on an orthogonal forward regression with the D-optimality algorithm. Extensive experimental results demonstrate that the proposed approach is effective and yields competitive results for noisy data sets.
Resumo:
O presente trabalho tem por objetivo descrever, avaliar comparar as metodologias analítica da simulação Monte Cario para cálculo do Value at Risk (Valor em Risco) de instituições financeiras de empresas. Para comparar as vantagens desvantagens de cada metodologia, efetuaremos comparações algébricas realizamos diversos testes empíricos com instituições hipotéticas que apresentassem diferentes níveis de alavancagem de composição em seus balanços, que operassem em diferentes mercados (consideramos os mercados de ações, de opções de compra de títulos de renda fixa prefixados).
Resumo:
The study aims to assess the empirical adherence of the permanent income theory and the consumption smoothing view in Latin America. Two present value models are considered, one describing household behavior and the other open economy macroeconomics. Following the methodology developed in Campbell and Schiller (1987), Bivariate Vector Autoregressions are estimated for the saving ratio and the real growth rate of income concerning the household behavior model and for the current account and the change in national cash ‡ow regarding the open economy model. The countries in the sample are considered separately in the estimation process (individual system estimation) as well as jointly (joint system estimation). Ordinary Least Squares (OLS) and Seemingly Unrelated Regressions (SURE) estimates of the coe¢cients are generated. Wald Tests are then conducted to verify if the VAR coe¢cient estimates are in conformity with those predicted by the theory. While the empirical results are sensitive to the estimation method and discount factors used, there is only weak evidence in favor of the permanent income theory and consumption smoothing view in the group of countries analyzed.
Resumo:
In this note, in an independent private values auction framework, I discuss the relationship between the set of types and the distribution of types. I show that any set of types, finite dimensional or not, can be extended to a larger set of types preserving incentive compatibility constraints, expected revenue and bidder’s expected utilities. Thus for example we may convexify a set of types making our model amenable to the large body of theory in economics and mathematics that relies on convexity assumptions. An interesting application of this extension procedure is to show that although revenue equivalence is not valid in general if the set of types is not convex these mechanism have underlying distinct allocation mechanism in the extension. Thus we recover in these situations the revenue equivalence.
Resumo:
In this paper, we compare four different Value-at-Risk (V aR) methodologies through Monte Carlo experiments. Our results indicate that the method based on quantile regression with ARCH effect dominates other methods that require distributional assumption. In particular, we show that the non-robust methodologies have higher probability to predict V aRs with too many violations. We illustrate our findings with an empirical exercise in which we estimate V aR for returns of S˜ao Paulo stock exchange index, IBOVESPA, during periods of market turmoil. Our results indicate that the robust method based on quantile regression presents the least number of violations.
Resumo:
O objetivo do presente estudo é avaliar a existência de quebra estrutural no Value-at-Risk (VaR) das empresas que negociam suas ações na bolsa de valores de Nova Iorque (NYSE). O evento que justi ca a suspeita de mudança estrutural é a lei de governança corporativa conhecida como Sarbanes-Oxley Act (ou simplesmente SOX), a mais profunda reforma implementada no sistema de legislação nanceira dos Estados Unidos desde 1934. A metodologia empregada é baseada em um teste de quebra estrutural endógeno para modelos de regressão quantílica. A amostra foi composta de 176 companhias com registro ativo na NYSE e foi analisado o VaR de 1%, 5% e 10% de cada uma delas. Os resultados obtidos apontam uma ligação da SOX com o ponto de quebra estrutural mais notável nos VaRs de 10% e 5%, tomando-se como base a concentração das quebras no período de um ano após a implementação da SOX, a partir do teste de Qu(2007). Utilizando o mesmo critério para o VaR de 1%, a relação encontrada não foi tão forte quanto nos outros dois casos, possivelmente pelo fato de que para uma exposição ao risco tão extrema, fatores mais especí cos relacionados à companhia devem ter maior importância do que as informações gerais sobre o mercado e a economia, incluídas na especi cação do VaR. Encontrou-se ainda uma forte relação entre certas características como tamanho, liquidez e representação no grupo industrial e o impacto da SOX no VaR.
Resumo:
Faz revisão teórica dos modelos de value-at-risk (VAR). Revisa principais estudos anteriores sobre VAR no Brasil e no exterior. Testa o desempenho de cinco metodologias de VAR, a saber: metodologia Paramétrica com uso da Volatilidade Histórica, Paramétrica com uso da Volatilidade EWMA, Paramétrica• com uso da Volatilidade GARCH(1,1), Simulação Histórica e uma Metodologia Híbrida proposta por BOUDOUKH e taI (1998). Aplica as metodologias a carteiras teóricas compostas por proporções diversas de ações e títulos de renda fixa de 30 dias no mercado financeiro brasileiro. O trabalho encontra evidências da superioridade da Metodologia Híbrida com fator de caimento de 0,99 e da Simulação Histórica, sendo esta apenas marginalmente inferior, Estes resultados se coadunam com evidências encontradas nas séries em estudo de nãonormalidade, heterocedasticidade e autocorrelação
Resumo:
Apresenta o método value at risk (VaR) para se mensurar o risco de mercado, sob diferentes abordagens. Analisa a série histórica do índice Bovespa no período de 1995 a 1996 por meio de testes econométricos de normalidade, autocorrelação dos retornos e raiz unitária. Comparo valor obtido a partir dos diferentes modelos de estimação de volatilidade propostos e verifica qual dos modelos foi o mais adequado para o caso estudado
Resumo:
Esta tese baseia-se na experiência adquirida com a participação num projeto de implantação do conceito de Value Based Management em urna empresa multinacional de bens de consumo. A maior parte do material aqui comentado foi colhido durante o primeiro semestre do ano de 1995 - período em que durou o projeto - e parte durante duas semanas no início do ano, nas quais participei em Londres de um treinamento intensivo, ministrado por uma conceituada firma de consultoria internacional, sobre a teoria e prática deste novo conceito, juntamente com diversos participantes de outros projetos VBM ao redor do mundo como Estados Unidos, França, Itália, Alemanha, Inglaterra, Espanha, entre outros
Resumo:
Análise crítica e histórica do conceito de Value at Risk, quanto à métrica e métodos utilizados na sua determinação, como instrumento na quantificação e gestão de riscos (financeiros) de mercado.
Resumo:
Faz uma exposição da metodologia EVA®, demonstrando sua aplicação no gerenciamento da empresa e na avaliação de seu desempenho. Particularmente, mostra sua utilidade como no ferramenta de aferição e incentivo de seus dirigentes, bem como de seu uso em decisões de investimento e desinvestimento
Resumo:
As regras contábeis vêm sofrendo alterações em todo o mundo para atenderem às novas necessidades dos investidores com relação à qualidade e confiabilidade das informações divulgadas pela administração das empresas. Uma das alterações nas Demonstrações Financeiras que corrobora com a tentativa deste aumento, é a utilização cada vez maior do Fair Value ou Valor Justo no idioma Português. A utilização de Fair Value ainda não é consenso entre os especialistas e muitos usuários das demonstrações financeiras ainda não têm pleno entendimento do conceito, principalmente no que concerne aos países em desenvolvimento onde o conceito é utilizado com menos freqüência. O assunto está sendo muito discutido nas varias partes do mundo, Estados Unidos, Europa, Brasil entre outros países. Defensores da utilização do Fair Value sustentam que este valor é muito relevante para as Demonstrações Financeiras, seus opositores, entretanto questionam este ponto, pois acreditam que o custo histórico apresenta maior utilidade, uma vez que é verificável facilmente, mais confiável. Primeiramente é preciso mostrar as definições para que o conceito seja entendido, e ainda apresentar como estes conceitos estão inseridos em diversas regulamentações contábeis, regulamentação americana, regulamentação internacional e regulamentação brasileira. Além de verificar como as demonstrações financeiras se diferenciam devido ao uso do Fair Value, para finalizar apresentaremos um levantamento realizado com base em cem demonstrações financeiras, cinqüenta elaboradas obedecendo às normas internacionais e cinqüenta elaboradas obedecendo às normas brasileiras, que demonstra como a utilização do Valor justo nas normas brasileiras é restrita quando comparando as normas internacionais. Fale desde já ressaltar que não consideramos este fato como um atraso da regulamentação brasileira, conforme exposto no trabalho.
Resumo:
Este estudo faz uma revisão das origens do VaR, bem como dos conceitos e teorias que o fundamentam, e sua aplicabilidade aos fundos de pensão. Descreve as principais metodologias de cálculo e as situações nas quais o uso de cada uma é mais adequado. Revisa a literatura internacional acerca do uso do VaR como medida de risco pelos fundos de pensão. A seguir faz a previsão do VaR para as carteiras reais de três fundos de pensão brasileiros com três metodologias distintas: paramétrica, simulação histórica e simulação de Monte Carlo, esta última com duas suposições distintas para a distribuição dos retornos dos fatores de risco (normal e histórica). A partir disso, realiza um teste qualitativo, através da comparação do número de perdas efetivas realizadas pelas carteiras dos três fundos de pensão com o número de perdas correspondente admitido para os diferentes níveis de confiança utilizados no cálculo do VaR. O trabalho não encontra evidências de superioridade de nenhuma das metodologias de cálculo, sendo que todas elas superestimaram as perdas verificadas na prática (o VaR foi excedido menos vezes do que o esperado).