908 resultados para variáveis aleatórias independentese identicamente distribuídas
Resumo:
A análise das séries temporais de valores inteiros tornou-se, nos últimos anos, uma área de investigação importante, não só devido à sua aplicação a dados de contagem provenientes de diversos campos da ciência, mas também pelo facto de ser uma área pouco explorada, em contraste com a análise séries temporais de valores contínuos. Uma classe que tem obtido especial relevo é a dos modelos baseados no operador binomial thinning, da qual se destaca o modelo auto-regressivo de valores inteiros de ordem p. Esta classe é muito vasta, pelo que este trabalho tem como objectivo dar um contributo para a análise estatística de processos de contagem que lhe pertencem. Esta análise é realizada do ponto de vista da predição de acontecimentos, aos quais estão associados mecanismos de alarme, e também da introdução de novos modelos que se baseiam no referido operador. Em muitos fenómenos descritos por processos estocásticos a implementação de um sistema de alarmes pode ser fundamental para prever a ocorrência de um acontecimento futuro. Neste trabalho abordam-se, nas perspectivas clássica e bayesiana, os sistemas de alarme óptimos para processos de contagem, cujos parâmetros dependem de covariáveis de interesse e que variam no tempo, mais concretamente para o modelo auto-regressivo de valores inteiros não negativos com coeficientes estocásticos, DSINAR(1). A introdução de novos modelos que pertencem à classe dos modelos baseados no operador binomial thinning é feita quando se propõem os modelos PINAR(1)T e o modelo SETINAR(2;1). O modelo PINAR(1)T tem estrutura periódica, cujas inovações são uma sucessão periódica de variáveis aleatórias independentes com distribuição de Poisson, o qual foi estudado com detalhe ao nível das suas propriedades probabilísticas, métodos de estimação e previsão. O modelo SETINAR(2;1) é um processo auto-regressivo de valores inteiros, definido por limiares auto-induzidos e cujas inovações formam uma sucessão de variáveis independentes e identicamente distribuídas com distribuição de Poisson. Para este modelo estudam-se as suas propriedades probabilísticas e métodos para estimar os seus parâmetros. Para cada modelo introduzido, foram realizados estudos de simulação para comparar os métodos de estimação que foram usados.
Resumo:
Dinis Pestana
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015.
Resumo:
Este trabalho explora com cuidado o lado específico da implementação de um modelo de alocação de ativos em que o risco é tratado de maneira integrada, não somente através do desvio padrão do portfólio, mas também considerando outras métricas de risco como, por exemplo, o Expected Shortfall. Além disso, utilizamos algumas técnicas de como trabalhar com as variáveis de modo a extrair do mercado os chamados “invariantes de mercado”, fenômenos que se repetem e podem ser modelados como variáveis aleatórias independentes e identicamente distribuídas. Utilizamos as distribuições empíricas dos invariantes, juntamente com o método de Cópulas para gerar um conjunto de cenários multivariados simulados de preços. Esses cenários são independentes de distribuição, portanto são não paramétricos. Através dos mesmos, avaliamos a distribuição de retornos simulados de um portfólio através de um índice de satisfação que é baseado em uma função de utilidade quadrática e utiliza o Expected Shortfall como métrica de risco. O índice de satisfação incorpora o trade-off do investidor entre risco e retorno. Finalmente, escolhemos como alocação ótima aquela que maximiza o índice de satisfação ajustado a um parâmetro de aversão ao risco. Perseguindo esses passos, é possível obter um portfólio no qual a alocação em cada ativo, ou classe de ativos, reflete o prêmio esperado ao risco incorrido.
Resumo:
In this work, the paper of Campos and Dorea [3] was detailed. In that article a Kernel Estimator was applied to a sequence of random variables with general state space, which were independent and identicaly distributed. In chapter 2, the estimator´s properties such as asymptotic unbiasedness, consistency in quadratic mean, strong consistency and asymptotic normality were verified. In chapter 3, using R software, numerical experiments were developed in order to give a visual idea of the estimate process
Resumo:
Apesar desta tese se propor abordar exclusivamente variáveis categorizadas e medidas que descrevem a relação entre estas variáveis, consideramos extremamente relevante estender ao caso em que uma das variáveis em estudo de uma variável contínua. Tais medidas, quando usadas corretamente, fornecem uma descrição útil da estrutura implícita numa tabela de contingência. Ao longo dos anos, muitos cientistas deduziram medidas de associação de acordo com o que se propunham avaliar. Perante um conjunto tão variado de medidas, o nosso objetivo foi sumarizá-las, classificá-las em grupos mais gerais e estabelecer em que situações de que a sua utilização é indicada. Apesar de estarmos interessados em avaliar a concordância, realizámos que era essencial incluir nesta tese os testes de ajustamento e a análise de tabelas de contingência.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Esta dissertação tem por objetivo estabelecer intervalos de confiança para rendas vitalícias, que podem vir a ser aplicados no cálculo de responsabilidades atuariais. Para este efeito, foi ne-cessário fazer uma revisão sobre conceitos de mortalidade, tempo de vida futura e rendas vitalí-cias. Posteriormente, serão apresentadas relações entre rendas vitalícias e variáveis aleatórias, que dependem da aleatoriedade do tempo de vida futura. De seguida, serão obtidos os intervalos de confiança para as rendas vitalícias considerando o Teorema Limite Central de Lyapunov, e será elaborada uma revisão de alguns conceitos sobre fundos de pensões para enquadramento da aplicação prática. Por último, será efetuada uma aplicação prática das metodologias desenvolvidas ao longo da dissertação, onde serão apresentados intervalos de confiança para o cálculo das responsabili-dades de um plano de pensões. A construção de intervalos de confiança para as responsabilidades atuariais, custo normal ou mesmo valor atual dos benefícios totais traduz-se numa mais-valia para a gestão de um fundo. Por vezes a estimação pontual de um parâmetro não fornece informação suficiente sobre esse mesmo parâmetro, é importante questionarmo-nos sobre a proximidade dessa estimativa ao seu verdadeiro valor.
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
Atualmente observa-se que uma grande parte das estruturas de concreto armado estão apresentando problemas relacionados à corrosão das armaduras, principalmente aquela iniciada pelos íons cloreto. Nesse sentido, muitos estudos estão sendo realizados a fim de prever o tempo necessário para que os íons cloreto atinjam a armadura, iniciando assim a propagação do processo corrosivo. Existem alguns parâmetros relacionados ao concreto e ao meio ambiente que exercem uma grande influência na penetração de íons cloreto. Entre os fatores relacionados ao concreto, verifica-se que o coeficiente de difusão de cloretos, a concentração superficial de cloretos, a relação água/cimento, a espessura de cobrimento, a presença e a quantidade de adições são alguns parâmetros que interferem na vida útil de projeto das estruturas. Já em relação às condições ambientais, os principais fatores que afetam a vida útil são a umidade relativa e a temperatura de exposição. Assim, procurou-se avaliar o efeito de tais variáveis na vida útil das estruturas, considerando as mesmas como grandezas aleatórias, apresentando um determinado valor médio e um desvio-padrão característico. Essas variáveis aleatórias foram inseridas em alguns modelos matemáticos que são empregados para a previsão da vida útil das estruturas − 2ª Lei de Fick e os modelos propostos por UJI et al. (1990) e por MEJLBRO (1996). A partir daí, realizou-se uma análise de confiabilidade a partir de um método de simulação numérica (Simulação de Monte Carlo) a fim de se determinar a probabilidade de falha no tempo para concretos feitos com diferentes tipos de cimento e adições, quando inseridos em condições ambientais distintas A fim de contribuir no processo de previsão da vida útil das estruturas quando inseridas em ambientes contendo cloretos, foi desenvolvido um modelo matemático baseado na análise em Grupos Focalizados (ou Focus Groups). Algumas das principais características do modelo proposto são a lógica empregada no seu desenvolvimento e a grande facilidade de aplicação do mesmo. O comportamento do modelo se mostrou consistente com os resultados de investigações experimentais realizadas por outros pesquisadores, onde o mesmo foi aplicado em um estudo de caso para verificar a resposta em relação à penetração de cloretos em alguns pontos de uma estrutura de concreto armado inserida em área salina.
Resumo:
Consumers often pay different prices for the same product bought in the same store at the same time. However, the demand estimation literature has ignored that fact using, instead, aggregate measures such as the “list” or average price. In this paper we show that this will lead to biased price coefficients. Furthermore, we perform simple comparative statics simulation exercises for the logit and random coefficient models. In the “list” price case we find that the bias is larger when discounts are higher, proportion of consumers facing discount prices is higher and when consumers are more unwilling to buy the product so that they almost only do it when facing discount. In the average price case we find that the bias is larger when discounts are higher, proportion of consumers that have access to discount are similar to the ones that do not have access and when consumers willingness to buy is very dependent on idiosyncratic shocks. Also bias is less problematic in the average price case in markets with a lot of bargain deals, so that prices are as good as individual. We conclude by proposing ways that the econometrician can reduce this bias using different information that he may have available.
Resumo:
Trabalho apresentado no 37th Conference on Stochastic Processes and their Applications - July 28 - August 01, 2014 -Universidad de Buenos Aires
Resumo:
Trabalho apresentado no Congresso Nacional de Matemática Aplicada à Indústria, 18 a 21 de novembro de 2014, Caldas Novas - Goiás
Resumo:
A soma de variáveis aleatórias com número de parcelas é aleatório, para além do evidente interesse conceptual e teórico, tem larga ressonância na investigação do processo de risco e em processos de ramificação. Reformulamos a teoria de Panjer (1981), que permite o cálculo iterativo do risco agregado, com o recurso a valores médios de uniformes, descrevendo uma extensão da classe de Panjer, e estudando em detalhe a equação funcional que a caracteriza. Aplicamos essas ideias na caracterização de aleatoriedade discreta, exemplificando com o comportamento das fêmeas de pássaros que investem na promiscuidade de parceiros para garantir a diversidade genética da progénie, tendo no entanto o cuidado de manter as aparências de fidelidade, para garantir a cooperação do parceiro no sucesso da ninhada. Apresentamos as transformadas de Laplace e funções geradoras numa perspectiva que leva a uma introdção natural de transformadas de Pareto, cuja relevância exemplificamos.
Resumo:
Pós-graduação em Engenharia Mecânica - FEG