161 resultados para Estimadores entrópicos
Resumo:
Este trabalho analisa as propriedades de uma nova medida de má especificação de modelos de apreçamento, que está relacionada com o tamanho do ajuste multiplicativo necessário para que o modelo seja corretamente especificado. A partir disso, caracterizamos o parâmetro que minimiza a medida a partir de um programa dual, de solução mais simples. Os estimadores naturais para esse parâmetro pertencem à classe de Generalized Empirical Likelihood. Derivamos as propriedades assintóticas deste estimador sob a hipótese de má especificação. A metodologia é empregada para estudar como se comportam em amostras finitas as estimativas de aversão relativa ao risco em uma economia de desastres quando os estimadores estão associados a nossa medida de má especificação. Nas simulações vemos que em média a aversão ao risco é superestimada, mesmo quando ocorre um número significativo de desastres.
Resumo:
Se realizó un estudio en tres agroecosistemas de café con los objetivos de comparar tres métodos de cuantificación de enfermedades foliares del café, determinar el parámetro a estimar en la medición de la intensidad de la enfermedad (incidencia y/o severidad) considerando las característica físicas y biológicas de cada agroecosistema y proponer un tamaño de muestra que teniendo un costo menor principalmente en cuanto al tiempo, permita estimar la cantidad de enfermedad con una precisión determinada. Se seleccionaron 7 personas para que hicieran lecturas de dos enfermedades foliares en un cafetal, utilizando tres métodos de cuantificación de enfermedades y luego se compararon los métodos, usando para ello el coeficiente de variabilidad de la interacción métodos-personas. Se seleccionaron fincas con regímenes climáticos diferentes y en cada una se seleccionó un lote, en el cual se seleccionaron al azar cinco conglomerados de cinco plantas cada uno y en cada planta se marcaron al azar 6 bandolas para dar un total de 150 bandolas en el lote de observación. En cada bandola se hicieron lecturas semanales de incidencia y severidad1 también se recolectó información concerniente al nivel tecnológico, el manejo agronómico y las características físicas del lote observado. Con los datos obtenidos se hizo un estudio de la correlación incidencia-severidad y con base en una propuesta para el tamaño y arreglo de la muestra, también se hizo un estudio del tamaño y arreglo de la muestra y se calculó la eficiencia relativa del muestreo por conglomerados. El método de estimación visual fue el que presentó la menor variabilidad y el mayor ahorro de tiempo y esfuerzo físico en relación a los métodos basados en escala. No se puede generalizar un modelo de regresión único para la relación, incidencia-severidad ya que ésta cambia de acuerdo a un sin número de factores del agroecosistema, entre los cuales el patosistema, el microambiente y el mesoambiente parecen ser los más importantes. De las enfermedades foliares en café como roya, mancha de hierro y antracnosis es suficiente medir la incidencia. El tamaño de muestra aquí propuesto para evaluar porcentajes (bajos) de incidencia para las tres enfermedades en estudio es de 15 plantas distribuidas en 5 conglomerados de 3 plantas cada uno. Se pudo comprobar que las tres enfermedades en estudio se comportan de forma agregada consistentemente: la varianza es mayor que la media (o2 >m), al aplicar a los datos la ley ponderada de Taylor estos cumplen con la regla de que el coeficiente de regresión es mayor que uno (b > l) y, para cada enfermedad la varianza entre plantas es mayor que la varianza entre conglomerados (sitios).
Resumo:
Avaliar e comparar diferentes tipos de estimadores ótimos krigagem visando extrapolar seus potenciais na determinação da melhor distribuição espacial de variáveis agronômicas para a bacia hidrográfica do ribeirão São Domingos em Pindorama.
Resumo:
A procura de padrões nos dados de modo a formar grupos é conhecida como aglomeração de dados ou clustering, sendo uma das tarefas mais realizadas em mineração de dados e reconhecimento de padrões. Nesta dissertação é abordado o conceito de entropia e são usados algoritmos com critérios entrópicos para fazer clustering em dados biomédicos. O uso da entropia para efetuar clustering é relativamente recente e surge numa tentativa da utilização da capacidade que a entropia possui de extrair da distribuição dos dados informação de ordem superior, para usá-la como o critério na formação de grupos (clusters) ou então para complementar/melhorar algoritmos existentes, numa busca de obtenção de melhores resultados. Alguns trabalhos envolvendo o uso de algoritmos baseados em critérios entrópicos demonstraram resultados positivos na análise de dados reais. Neste trabalho, exploraram-se alguns algoritmos baseados em critérios entrópicos e a sua aplicabilidade a dados biomédicos, numa tentativa de avaliar a adequação destes algoritmos a este tipo de dados. Os resultados dos algoritmos testados são comparados com os obtidos por outros algoritmos mais “convencionais" como o k-médias, os algoritmos de spectral clustering e um algoritmo baseado em densidade.
Resumo:
Tesis (Doctor en Ciencias con Orientación en Matemáticas) UANL, 2013.
Resumo:
O objetivo deste trabalho é comparar diferentes métodos da volatilidade do Índice da Bolsa de Valores de São Paulo (IBOVESPA) utilizando uma nova metodologia proposta na literatura, denominada volatilidade realizada. Comparamos modelos da família GARCH com estimadores alternativos baseados em cotações de abertura, fechamento, máximo e mínimo. Concluímos que pode ser interessante a utilização de estimadores mais simples do que os derivados da família GARCH, que acabam sendo mais econômicos em termos de tempo dispendido no processo de estimação, sem perda de precisão.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
O objetivo deste trabalho é avaliar o desempenho de diferentes métodos de extração da volatilidade do Índice da Bolsa de Valores de São Paulo (IBOVESPA) tendo como referência a volatilidade realizada. Comparamos modelos da família GARCH com estimadores alternativos baseados em cotações de abertura, fechamento, máximo e mínimo. Os resultados indicam que os estimadores alternativos são tão precisos quanto os modelos do tipo GARCH, apesar de serem muito mais econômicos em termos computacionais.
Resumo:
In this work we studied the asymptotic unbiasedness, the strong and the uniform strong consistencies of a class of kernel estimators fn as an estimator of the density function f taking values on a k-dimensional sphere
Resumo:
In this work, the paper of Campos and Dorea [3] was detailed. In that article a Kernel Estimator was applied to a sequence of random variables with general state space, which were independent and identicaly distributed. In chapter 2, the estimator´s properties such as asymptotic unbiasedness, consistency in quadratic mean, strong consistency and asymptotic normality were verified. In chapter 3, using R software, numerical experiments were developed in order to give a visual idea of the estimate process
Resumo:
In this work, we studied the strong consistency for a class of estimates for a transition density of a Markov chain with general state space E ⊂ Rd. The strong ergodicity of the estimates for the density transition is obtained from the strong consistency of the kernel estimates for both the marginal density p(:) of the chain and the joint density q(., .). In this work the Markov chain is supposed to be homogeneous, uniformly ergodic and possessing a stationary density p(.,.)
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
Pós-graduação em Matemática Universitária - IGCE
Resumo:
The James-Stein estimator is a biased shrinkage estimator with uniformly smaller risk than the risk of the sample mean estimator for the mean of multivariate normal distribution, except in the one-dimensional or two-dimensional cases. In this work we have used more heuristic arguments and intensified the geometric treatment of the theory of James-Stein estimator. New type James-Stein shrinking estimators are proposed and the Mahalanobis metric used to address the James-Stein estimator. . To evaluate the performance of the estimator proposed, in relation to the sample mean estimator, we used the computer simulation by the Monte Carlo method by calculating the mean square error. The result indicates that the new estimator has better performance relative to the sample mean estimator.
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA