982 resultados para Função densidade de probabilidade - pdf
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Engenharia Mecânica - FEIS
Resumo:
This present work uses a generalized similarity measure called correntropy to develop a new method to estimate a linear relation between variables given their samples. Towards this goal, the concept of correntropy is extended from two variables to any two vectors (even with different dimensions) using a statistical framework. With this multidimensionals extensions of Correntropy the regression problem can be formulated in a different manner by seeking the hyperplane that has maximum probability density with the target data. Experiments show that the new algorithm has a nice fixed point update for the parameters and robust performs in the presence of outlier noise.
Resumo:
In this work, we propose a two-stage algorithm for real-time fault detection and identification of industrial plants. Our proposal is based on the analysis of selected features using recursive density estimation and a new evolving classifier algorithm. More specifically, the proposed approach for the detection stage is based on the concept of density in the data space, which is not the same as probability density function, but is a very useful measure for abnormality/outliers detection. This density can be expressed by a Cauchy function and can be calculated recursively, which makes it memory and computational power efficient and, therefore, suitable for on-line applications. The identification/diagnosis stage is based on a self-developing (evolving) fuzzy rule-based classifier system proposed in this work, called AutoClass. An important property of AutoClass is that it can start learning from scratch". Not only do the fuzzy rules not need to be prespecified, but neither do the number of classes for AutoClass (the number may grow, with new class labels being added by the on-line learning process), in a fully unsupervised manner. In the event that an initial rule base exists, AutoClass can evolve/develop it further based on the newly arrived faulty state data. In order to validate our proposal, we present experimental results from a level control didactic process, where control and error signals are used as features for the fault detection and identification systems, but the approach is generic and the number of features can be significant due to the computationally lean methodology, since covariance or more complex calculations, as well as storage of old data, are not required. The obtained results are significantly better than the traditional approaches used for comparison
Resumo:
Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
Mapas simpléticos têm sido amplamente utilizados para modelar o transporte caótico em plasmas e fluidos. Neste trabalho, propomos três tipos de mapas simpléticos que descrevem o movimento de deriva elétrica em plasmas magnetizados. Efeitos de raio de Larmor finito são incluídos em cada um dos mapas. No limite do raio de Larmor tendendo a zero, o mapa com frequência monotônica se reduz ao mapa de Chirikov-Taylor, e, nos casos com frequência não-monotônica, os mapas se reduzem ao mapa padrão não-twist. Mostramos como o raio de Larmor finito pode levar à supressão de caos, modificar a topologia do espaço de fases e a robustez de barreiras de transporte. Um método baseado na contagem dos tempos de recorrência é proposto para analisar a influência do raio de Larmor sobre os parâmetros críticos que definem a quebra de barreiras de transporte. Também estudamos um modelo para um sistema de partículas onde a deriva elétrica é descrita pelo mapa de frequência monotônica, e o raio de Larmor é uma variável aleatória que assume valores específicos para cada partícula do sistema. A função densidade de probabilidade para o raio de Larmor é obtida a partir da distribuição de Maxwell-Boltzmann, que caracteriza plasmas na condição de equilíbrio térmico. Um importante parâmetro neste modelo é a variável aleatória gama, definida pelo valor da função de Bessel de ordem zero avaliada no raio de Larmor da partícula. Resultados analíticos e numéricos descrevendo as principais propriedades estatísticas do parâmetro gama são apresentados. Tais resultados são então aplicados no estudo de duas medidas de transporte: a taxa de escape e a taxa de aprisionamento por ilhas de período um.
Resumo:
A metodologia tradicional de identificação de parâmetros na análise modal de estruturas é realizada a partir de sinais medidos de força de entrada e de movimento de resposta da estrutura em condições laboratoriais controladas. Entretanto, quando é necessária a obtenção dos parâmetros modais de estruturas de máquinas em operação, as condições para controlar e medir a excitação nestas situações impossibilita a realização da análise modal tradicional. Neste caso, o teste modal é realizado utilizando somente dados de resposta do sistema. A Análise Modal Operacional (AMO) é um método de extração modal em que nenhuma excitação artificial necessita ser aplicada ao sistema, utilizando-se a própria excitação operacional como entrada para medição da resposta do sistema. A técnica clássica de Análise Modal Operacional NExT considera, para isso, que a excitação operacional do sistema seja um ruído branco. Esta técnica faz a consideração de que as funções de correlação obtidas de estruturas podem ser consideradas como funções de resposta ao impulso e então métodos tradicionais de identificação modal no domínio do tempo podem ser empregados. Entretanto, caso a excitação operacional contenha componentes harmônicos que se sobressaiam, estes podem ser confundidos como modos naturais do sistema. Neste trabalho é demonstrada que através da função densidade de probabilidade da banda estreita contendo o pico de um modo, é possível identifica-lo como natural ou operacional (proveniente da excitação operacional da estrutura). É apresentada também uma modificação no método de identificação modal Exponencial Complexa Mínimos Quadrados (LSCE), passando a considerar sinais harmônicos de freqüências conhecidas presentes na excitação operacional, em um ensaio utilizando a técnica NExT. Para validação desses métodos, utiliza-se um modelo teórico de parâmetros modais conhecidos analiticamente e como estudo de caso experimental, um sistema formado por uma viga bi-apoiada suportando um motor elétrico com desbalanceamento de massa.
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
O agronegócio da soja, caracterizado como investimento em atividade produtiva, envolve problemas de incertezas com o comprometimento definitivo de recursos, com a impossibilidade de reverter decisões tomadas e, também, com o esforço de prever a renda a ser obtida com a colheita. A questão relevante para o sojicultor é como avaliar o rendimento esperado de grãos em um contexto de incertezas, base para o cômputo da taxa de retorno do investimento na produção de soja. Este trabalho teve como objetivo estabelecer uma metodologia que associa um modelo estocástico de precipitação a um modelo de predição do rendimento da cultura de grãos de modo a permitir a atribuição de probabilidades aos rendimentos esperados de soja. Foram utilizados dados meteorológicos diários referentes à precipitação pluvial, temperatura máxima, mínima e média do ar, umidade relativa do ar, radiação solar global e velocidade do vento a 2 metros, bem como o rendimento de soja de Cruz Alta(RS) do período 1/1/1975-31/12/1997 A precipitação pluvial diária foi ajustada à cadeia de Markov de primeira ordem e dois estados e na função gama com variação sazonal para os meses de outubro a abril. Os resultados indicaram que a metodologia associando a geração de séries de precipitação pluvial, evapotranspiração da soja e evapotranspiração real, aplicadas como variáveis de entrada no modelo de predição do rendimento de grãos, possibilitou a definição da densidade de probabilidade do rendimento esperado de soja e, por conseguinte, a quantificação do risco na forma da distribuição de probabilidade acumulada do rendimento. O risco de ocorrência de um valor de rendimento de soja, menor que um valor mínimo de aceitação, quantiifcado pela sua distribuição de probabilidade acumulada, fundamentada em um fenômeno da natureza - a precipitação pluvial - que não depende da vontade humana. A obtenção do rendimento desejado envolve um processo que depende de organização, isto é, depende de fatores subjetivos, de decisões e escolhas. Enfim, um processo que comporta alternativas e depende de iniciativas humanas.
Resumo:
In this work we study the Hidden Markov Models with finite as well as general state space. In the finite case, the forward and backward algorithms are considered and the probability of a given observed sequence is computed. Next, we use the EM algorithm to estimate the model parameters. In the general case, the kernel estimators are used and to built a sequence of estimators that converge in L1-norm to the density function of the observable process
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)