992 resultados para Finanza matematica, Probabilità e statistica, Approssimazioni saddlepoint
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
Nesta tese mostramos que uma função de custo contínua e uma tecnologia uniproduto, convexa, monôtona não-crescente e regular implicam que a função de custo mínimo é semicontínua superior em relação ao produto e que a demanda por insumos é fechada. Se a imagem da tecnologia for compacta então a função de custo mínimo é contínua e a demanda por insumos é hemicontínua superior e valor-compacto em relação ao produto. Se a tecnologia possuir a propriedade de ser localmente não-disjunta então a função de custo mínimo é contínua e a demanda por insumos é hemicontínua superior e valorcompacto em relação ao produto. Se a função de custo for monôtona não-decrescente, semicontínua inferior em relação aos contornos inferiores e a tecnologia for uniproduto, convexa, monótona não-crescente, regular, fechada com imagem compacta então a função de custo mínimo é semicontínua inferior em relação ao produto e a demanda ampliada por insumos é hemicontínua superior e valor-compacto em relação ao produto. Se a tecnologia possuir a propriedade de ser localmente não-disjunta então o mesmo resultado é válido. Introduzimos as noções de função monótona não-decrescente e semicontínua inferior em relação aos contornos num espaço topológico ordenado, de correspondência localmente não-disjunta e de demanda ampliada. Mostramos que funções com a propriedade anterior são semicontínuas inferiores e que correspondências convexas localmente não-disjuntas são hemicontínuas inferiores.
Resumo:
Data available on continuos-time diffusions are always sampled discretely in time. In most cases, the likelihood function of the observations is not directly computable. This survey covers a sample of the statistical methods that have been developed to solve this problem. We concentrate on some recent contributions to the literature based on three di§erent approaches to the problem: an improvement of the Euler-Maruyama discretization scheme, the use of Martingale Estimating Functions and the application of Generalized Method of Moments (GMM).
Resumo:
Data available on continuous-time diffusions are always sampled discretely in time. In most cases, the likelihood function of the observations is not directly computable. This survey covers a sample of the statistical methods that have been developed to solve this problem. We concentrate on some recent contributions to the literature based on three di§erent approaches to the problem: an improvement of the Euler-Maruyama discretization scheme, the employment of Martingale Estimating Functions, and the application of Generalized Method of Moments (GMM).
Resumo:
We apply the concept of exchangeable random variables to the case of non-additive robability distributions exhibiting ncertainty aversion, and in the lass generated bya convex core convex non-additive probabilities, ith a convex core). We are able to rove two versions of the law of arge numbers (de Finetti's heorems). By making use of two efinitions. of independence we rove two versions of the strong law f large numbers. It turns out that e cannot assure the convergence of he sample averages to a constant. e then modal the case there is a true" probability distribution ehind the successive realizations of the uncertain random variable. In this case convergence occurs. This result is important because it renders true the intuition that it is possible "to learn" the "true" additive distribution behind an uncertain event if one repeatedly observes it (a sufficiently large number of times). We also provide a conjecture regarding the "Iearning" (or updating) process above, and prove a partia I result for the case of Dempster-Shafer updating rule and binomial trials.
Resumo:
Este trabalho apresenta um conjunto de técnicas para a modelagem paramétrica e geração de malhas de superfícies para uso em sistemas de análise e simulações numéricas pelo Método dos Elementos Finitos. Foram desenvolvidos algoritmos para a geração paramétrica de superfícies, para a determinação das curvas de interseções entre superfícies e para a geração de malhas em superfícies curvas e recortadas. Foram implementas linhas e curvas paramétricas básicas, a partir das quais são geradas superfícies paramétricas de vários tipos que proporcionam uma grande flexibilidade de modelamento geométrico. Curvas e superfícies são geradas e manipuladas de forma interativa. São apresentadas técnicas que simplificam a implementação de linhas e superfícies paramétricas. Foi desenvolvido um algoritmo para determinar as curvas de interseção entre superfícies paramétricas, que são utilizadas como linhas de recorte (trimming lines) para obter geometrias complexas e compostas de várias superfícies. O algoritmo desenvolvido emprega técnicas de subdivisão adaptativa, por quadtrees, em função da curvatura local das superfícies. Primeiramente, obtém-se uma aproximação das curvas de interseção no espaço 3D, através da aproximação por triângulos. Os resultados iniciais são refinados e projetados sobre as duas superfícies envolvidas com algoritmos que permitem obter grande precisão. As curvas de interseção finais são mapeadas nos espaços paramétricos das duas superfícies, porém com uma parametrização única, o que facilita a junção com superfícies adjacentes Um algoritmo de geração de malha foi desenvolvido para gerar malhas triangulares de qualidade sobre as superfícies curvas e recortadas. O algoritmo utiliza um processo de subdivisão adaptativa por quadtrees, similar ao utilizado no algoritmo de interseção, para definir tamanhos de elementos em função da curvatura local. Em seguida, aplica-se um algoritmo tipo advancing front para gerar a malha sobre a superfície. Os algoritmos foram implementados e testados em um ambiente gráfico interativo especialmente desenvolvido para este trabalho. São apresentados vários exemplos que comprovam a eficiência das técnicas e algoritmos propostos, incluindo exemplos de matrizes de conformação mecânica para uso com código de análise METAFOR, análise de sensibilidade para otimização de pré-formas e de modelagem de superfícies compostas recortadas com geração de malhas de qualidade, para uso em análise por Elementos Finitos ou como contorno para geração de elementos tridimensionais.
Resumo:
Neste trabalho, um problema de transferência de calor da dinâmica de gases rarefeitos, causado pela diferença de temperaturas nas superfícies de um canal, é abordado. O problema é formulado através dos modelos cinéticos BGK, S e Gross-Jackson da equação linearizada de Boltzmann e resolvido, de forma unificada, pelo método analítico de ordenadas discretas (método ADO). Resultados numéricos para as perturbações de densidade e temperatura e também para o fluxo de calor são apresentados e comparados, mostrando que não se pode dizer que algum dos três modelos seja uma melhor aproximação da solução aos resultados da equação linearizada de Boltzmann.
Resumo:
A comunicação é essencial para a vida em grupo, e se dá através da linguagem. Existem diversas formas de linguagem, porém a linguagem matemática vai além das demais, pois é universal. O advento dos aparelhos eletrônicos e, em especial, do computador, tornou possível o desenvolvimento de padrões e aplicativos que pudessem manipular símbolos matemáticos eletronicamente. A Web trouxe consigo a linguagem HTML para visualização de textos e, mais atualmente, o padrão de linguagem de marcação XML e seus aplicativos, que têm características melhores que o HTML quanto à estruturação, armazenamento e indexação de dados. Uma das aplicações advindas do XML foi a linguagem de marcação matemática MathML, que contribui para a manipulação e visualização de formalismos matemáticos na Web, e vem se tornando um padrão no meio acadêmico, educacional e comercial. As diversas aplicações matemáticas (editores, ambientes matemáticos) desenvolvidas para o computador geralmente não permitem a discussão em linguagem matemática de forma síncrona pela rede de computadores. Sabe-se que na Internet a conexão de pessoas num mesmo momento através de ferramentas síncronas é muito difundida, como é o caso de aplicativos do tipo bate-papo; no entanto, esses aplicativos não possuem funcionalidades que permitam a troca de textos matemáticos. Há, portanto, uma limitação em relação a ferramentas de comunicação síncrona para matemática na Web. Este trabalho quer oferecer uma alternativa ao público que deseje trocar formalismos matemáticos de forma síncrona pela Web, a fim de verificar se esse tipo de ferramenta é efetivamente usável para discussões matemáticas. Para isso, foi desenvolvido um protótipo que reúne as características de uma ferramenta típica de bate-papo com as vantagens advindas das linguagens de marcação: o ChatMath. O trabalho também aponta características de aplicativos matemáticos e de ferramentas síncronas textuais e descreve as linguagens de marcação matemática. Para fins de avaliação do protótipo desenvolvido, fez-se uma pesquisa a fim de verificar sua efetiva utilidade para troca de formalismos matemáticos, dentro do contexto educacional. Os resultados dessa pesquisa confirmam a hipótese levantada, embora identifiquem modificações funcionais e de uso da ferramenta, havendo necessidade de reaplicação da avaliação, para se obter resultados mais detalhados.
Resumo:
Este trabalho estuda a teoria de desenho de mecanismo. Desenho de mecanismo passou a fazer parte da teoria econômica à partir da década de 60. Seu desenvolvimento deve-se, em grande parte aos trabalhos de Vickrey, Clarke e Groves relacionados a problemas de incentivo. Esta dissertação apresenta os principais desenvolvimentos teóricos na área de desenho de mecanismo, destacando a importância dos conhecidos teoremas de envelope para estes problemas. É apresentada também uma nova versão do teorema de envelope desenvolvida por Milgrom e Segal que pode amplamente ser empregada em problemas de desenho de mecanismos. Essa nova versão do teorema de envelope de Milgron e Segal permite relaxar algumas hipóteses restritivas da teoria de desenho de mecanismos, permitindo obter novos resultados e explorar aqueles já estabelecidos, principalmente em problemas relacionados a desenhos de leilões.
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.
Resumo:
Trabalho com o objetivo de identificar as alterações do pé diabético causadas pelas lesões microangiopáticas e das lesões do fundo de olho secundárias aretinopatia diabética. Métodos:76 pacientes com Diabetes Melito tipos 1 e 2atendidos no ambulatório de Oftalmologia e Cirurgia Vascular do HUOL/UFRN, Natal, RN, no período de novembro de 2004 a janeiro de 2005, com queixas relativas a alterações da retinopatia diabéticae/oudo pé diabético. Em todos os pacientes foi realizado exame clínico geral, vascular e oftalmológico. Na avaliação específicado pé diabético deu-se ênfase paraa investigação do status vascular pela Classificação de Fontaine para Doença Arterial Obstrutiva Periférica, biomecânica,e teste do monofilamento de Semmes-Weinstein. O exame oftalmológico constou de refração e fundoscopiaatravés da qual identificou-se as formas clínicas da retinopatia diabética. Os dados foram submetidos à análise estatística das variáveis primárias que consistiu em caracterizar o grupo quanto a idade, tempo de doença, nível de glicose A segunda estratégia da análise dos dados constituiu na realização de testes de associação entrealgumas variáveis secundárias selecionadas. O software utilizado para os testes estatísticos foi o Statistica Versão 5, 1997.Resultado: Dos 76 pacientes diabéticos 97% tinham idade superior a 40 anos. O tempo de doença65% tinham mais de 10 anos. Com relação à glicose 72,72% apresentaram níveis de glicose em jejum acima de 100mg/dl. 55,26% apresentavam algum grau de retinopatia diabética contra 44,74% que não apresentavamesses sinais. Com as alterações do pé diabético, identificou-se 59,93% com lesões com área de predominância isquêmica, enquanto 41,07% tinham ausência de sinais. 58,82% apresentaram área de predominância neuropática, e 41,18% sem sinais de neuropatia. Dos com retinopatia diabética 78,57% tinham comprometimento isquêmico no pé e 47,62% tinham algum grau de neuropatia diabética. Observou-se que a retinopatia diabética não proliferativa, nos seus diversos graus de comprometimento apresentou-se com percentuais em torno de 80% junto às lesões do pé diabético, seja isquêmico ou neuropático. Dos pacientes que tinham retinopatia 60,46% tinham alterações biomecânicas dos pés. Conclusão: Concluiu-se que a RDNP leve foi mais freqüente nas lesões do pé diabético isquêmico, enquanto a RDNP severa mostrou-se mais presente no pé diabético neuropático
Resumo:
The theoretical foundation of this study addresses the construct Quality of Worklife involving pro-active reading organizations in face to social developments of the working class, which is a challenge to the people s management. In this sense, as a contribution to the studies of quality of worklife (QOWL), this study addresses the quality of lifework of nurses at Walfredo Gurgel and Santa Catarina public hospitals. The goal is to make a diagnosis about the quality of lifework of these employees taking as a basis dimensions and performance indicators shown in the model by Fernandes (1996). The research is characterized by field, in a descriptive way. This survey comprised 75 nurses, with 49 by Walfredo Gurgel hospital and 26 by Santa Catarina one. The data collection was carried out through structured questionnaire. The questions were processed in the software Statistic 6.0, with factor analysis and multiple regressions, after the systematization of data. As a result, the most nurses in hospitals are dissatisfied with the quality of lifework, with the highest incidence in Santa Catarina hospital. The variable occupational health assessment was more negative in the hospital Santa Catarina one, whereas in Walfredo Gurgel, was family assistance. The variable guarantee of employment was more positive assessment in two hospitals without, though, implying in high importance on QOWL of nurses. The factor structure and decision showed greater sensitivity to explain the QOWL of nurses, joining 17 variables from 40 of the model. The factor working conditions, joining 6 variables, showed the second highest sensitivity. The compensation factor, gathering 5 variables, showed the third highest sensitivity while image and health factors showed minor importance
Resumo:
This work addresses the production of lightweight concrete building elements, such as plates, prefabricated slabs for pre-molded and panels of fencing, presenting a singular concrete: the Lightweight Concrete, with special properties such low density and good strength, by means of the joint use of industrial waste of thermosetting unsaturated polyesters and biodegradable foaming agent, named Polymeric Lightweight Concrete. This study covered various features of the materials used in the composition of the Polymeric Lightweight Concrete, using a planning of factorial design 23, aiming at studying of the strength, production, dosage processes, characterization of mechanical properties and microstructural analysis of the transition zone between the light artificial aggregate and the matrix of cement. The results of the mechanical strength tests were analyzed using a computational statistics tool (Statistica software) to understand the behavior and obtain the ideal quantity of each material used in the formula of the Polymeric Lightweight Concrete. The definition of the ideal formula has the purpose of obtaining a material with the lowest possible dry density and resistance to compression in accordance with NBR 12.646/92 (≥ 2.5 MPa after 28 days). In the microstructural characterization by scanning electron microscopy it was observed an influence of the materials in the process of cement hydration, showing good interaction between the wrinkled face of the residue of unsaturated polyesters thermosetting and putty and, consequently, the final strength. The attaining of an ideal formula, given the Brazilian standards, the experimental results obtained in the characterization and comparison of these results with conventional materials, confirmed that the developed Polymeric Lightweight Concrete is suitable for the production of building elements that are advantageous for construction
Resumo:
Synthetic inorganic pigments are the most widely used in ceramic applications because they have excellent chemical and thermal stability and also, in general, a lower toxicity to man and to the environment. In the present work, the ceramic black pigment CoFe2O4 was synthesized by the polymerization Complex method (MPC) in order to form a material with good chemical homogeneity. Aiming to optimize the process of getting the pigment through the MPC was used a fractional factorial design 2(5-2), with resolution III. The factors studied in mathematical models were: citric acid concentration, the pyrolysis time, temperature, time and rate of calcination. The response surfaces using the software statistica 7.0. The powders were characterized by thermal analysis (TG/DSC), x-ray diffraction (XRD), scanning electron microscopy (SEM) and spectroscopy in the UV-visible. Based on the results, there was the formation of phase cobalt ferrite (CoFe2O4) with spinel structure. The color of the pigments obtained showed dark shades, from black to gray. The model chosen was appropriate since proved to be adjusted and predictive. Planning also showed that all factors were significant, with a confidence level of 95%