1000 resultados para Funções de densidade de probabilidade
Resumo:
Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.
Resumo:
In this work, we propose a two-stage algorithm for real-time fault detection and identification of industrial plants. Our proposal is based on the analysis of selected features using recursive density estimation and a new evolving classifier algorithm. More specifically, the proposed approach for the detection stage is based on the concept of density in the data space, which is not the same as probability density function, but is a very useful measure for abnormality/outliers detection. This density can be expressed by a Cauchy function and can be calculated recursively, which makes it memory and computational power efficient and, therefore, suitable for on-line applications. The identification/diagnosis stage is based on a self-developing (evolving) fuzzy rule-based classifier system proposed in this work, called AutoClass. An important property of AutoClass is that it can start learning from scratch". Not only do the fuzzy rules not need to be prespecified, but neither do the number of classes for AutoClass (the number may grow, with new class labels being added by the on-line learning process), in a fully unsupervised manner. In the event that an initial rule base exists, AutoClass can evolve/develop it further based on the newly arrived faulty state data. In order to validate our proposal, we present experimental results from a level control didactic process, where control and error signals are used as features for the fault detection and identification systems, but the approach is generic and the number of features can be significant due to the computationally lean methodology, since covariance or more complex calculations, as well as storage of old data, are not required. The obtained results are significantly better than the traditional approaches used for comparison
Resumo:
O presente trabalho teve por objetivo a apresentação de um modelo iterativo para utilização em microcomputadores capaz de estimar valores de evapotranspiracão de referencia em diversos níveis de probabilidade, a partir de uma série de dados. O procedimento matemático envolvido na técnica iterativa empregada relaciona-se à utilização das funções de densidade gama incompleta e beta. Para tanto, foram utilizados dados quinzenais de evapotranspiracão do mês de março, a partir de uma série de 30 anos para a região de Piracicaba-SP. Através do teste de Kolmogorov-Smirnov, verificou-se que dados estimados através do modelo apresentaram alto grau de ajuste com dados relatados em literatura, justificando assim sua utilização.
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
A metodologia tradicional de identificação de parâmetros na análise modal de estruturas é realizada a partir de sinais medidos de força de entrada e de movimento de resposta da estrutura em condições laboratoriais controladas. Entretanto, quando é necessária a obtenção dos parâmetros modais de estruturas de máquinas em operação, as condições para controlar e medir a excitação nestas situações impossibilita a realização da análise modal tradicional. Neste caso, o teste modal é realizado utilizando somente dados de resposta do sistema. A Análise Modal Operacional (AMO) é um método de extração modal em que nenhuma excitação artificial necessita ser aplicada ao sistema, utilizando-se a própria excitação operacional como entrada para medição da resposta do sistema. A técnica clássica de Análise Modal Operacional NExT considera, para isso, que a excitação operacional do sistema seja um ruído branco. Esta técnica faz a consideração de que as funções de correlação obtidas de estruturas podem ser consideradas como funções de resposta ao impulso e então métodos tradicionais de identificação modal no domínio do tempo podem ser empregados. Entretanto, caso a excitação operacional contenha componentes harmônicos que se sobressaiam, estes podem ser confundidos como modos naturais do sistema. Neste trabalho é demonstrada que através da função densidade de probabilidade da banda estreita contendo o pico de um modo, é possível identifica-lo como natural ou operacional (proveniente da excitação operacional da estrutura). É apresentada também uma modificação no método de identificação modal Exponencial Complexa Mínimos Quadrados (LSCE), passando a considerar sinais harmônicos de freqüências conhecidas presentes na excitação operacional, em um ensaio utilizando a técnica NExT. Para validação desses métodos, utiliza-se um modelo teórico de parâmetros modais conhecidos analiticamente e como estudo de caso experimental, um sistema formado por uma viga bi-apoiada suportando um motor elétrico com desbalanceamento de massa.
Resumo:
Pós-graduação em Física - FEG
Resumo:
A distribuição dos diâmetros é uma das análises mais empregadas para retratar o comportamento estrutural de um povoamento. Assim, este estudo objetivou avaliar a estrutura diamétrica da comunidade e das principais espécies lenhosas por meio das funções de densidade probabilísticas em uma floresta de terra firme no módulo IV da Floresta Estadual do Amapá (FLOTA/AP) no Município de Calçoene/AP. Os dados de diâmetro à altura do peito (DAP) foram obtidos de um inventário realizado em uma área de 1 hectare (100 x 100 m). A estrutura diamétrica foi analisada para toda a comunidade e para as quatro principais espécies ranqueadas segundo seus índices de valor de importância. Para avaliação dos ajustes das funções: Normal, Log-normal, Gamma e Weibull 3P foi utilizado o teste de Kolmogorov-Smirnov (a = 0,05). A maioria das espécies apresentaram assimetria positiva e curtose do tipo platicúrtica, o que demonstra o padrão típico de floresta nativa em forma de "J" invertido. A função Weibull 3P e Gamma foram aderentes no teste K-S aos dados das quatro espécies analisadas, sendo a primeira a mais indicada para descrever a distribuição diamétrica de três das quatro espécies de maior IVI, e também da referida floresta de terra firme. Conclui-se, ainda, que estudos como este devem ser realizados constantemente visando introduzir e avaliar a eficiência de outras funções densidade de probabilidade para a descrição da distribuição diamétrica de povoamentos em florestas inequiâneas.
Resumo:
OBJETIVO: Estimar valores de referência e função de hierarquia de docentes em Saúde Coletiva do Brasil por meio de análise da distribuição do índice h. MÉTODOS: A partir do portal da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior, 934 docentes foram identificados em 2008, dos quais 819 foram analisados. O índice h de cada docente foi obtido na Web of Science mediante algoritmos de busca com controle para homonímias e alternativas de grafia de nome. Para cada região e para o Brasil como um todo ajustou-se função densidade de probabilidade exponencial aos parâmetros média e taxa de decréscimo por região. Foram identificadas medidas de posição e, com o complemento da função probabilidade acumulada, função de hierarquia entre autores conforme o índice h por região. RESULTADOS: Dos docentes, 29,8% não tinham qualquer registro de citação (h = 0). A média de h para o País foi 3,1, com maior média na região Sul (4,7). A mediana de h para o País foi 2,1, também com maior mediana na Sul (3,2). Para uma padronização de população de autores em cem, os primeiros colocados para o País devem ter h = 16; na estratificação por região, a primeira posição demanda valores mais altos no Nordeste, Sudeste e Sul, sendo nesta última h = 24. CONCLUSÕES: Avaliados pelos índices h da Web of Science, a maioria dos autores em Saúde Coletiva não supera h = 5. Há diferenças entres as regiões, com melhor desempenho para a Sul e valores semelhantes entre Sudeste e Nordeste.
Resumo:
OBJETIVO: Estimar valores de referência e função de hierarquia de docentes em Saúde Coletiva do Brasil por meio de análise da distribuição do índice h. MÉTODOS: A partir do portal da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior, 934 docentes foram identificados em 2008, dos quais 819 foram analisados. O índice h de cada docente foi obtido na Web of Science mediante algoritmos de busca com controle para homonímias e alternativas de grafia de nome. Para cada região e para o Brasil como um todo ajustou-se função densidade de probabilidade exponencial aos parâmetros média e taxa de decréscimo por região. Foram identificadas medidas de posição e, com o complemento da função probabilidade acumulada, função de hierarquia entre autores conforme o índice h por região. RESULTADOS: Dos docentes, 29,8% não tinham qualquer registro de citação (h = 0). A média de h para o País foi 3,1, com maior média na região Sul (4,7). A mediana de h para o País foi 2,1, também com maior mediana na Sul (3,2). Para uma padronização de população de autores em cem, os primeiros colocados para o País devem ter h = 16; na estratificação por região, a primeira posição demanda valores mais altos no Nordeste, Sudeste e Sul, sendo nesta última h = 24. CONCLUSÕES: Avaliados pelos índices h da Web of Science, a maioria dos autores em Saúde Coletiva não supera h = 5. Há diferenças entres as regiões, com melhor desempenho para a Sul e valores semelhantes entre Sudeste e Nordeste.
Resumo:
A deteção e seguimento de pessoas tem uma grande variedade de aplicações em visão computacional. Embora tenha sido alvo de anos de investigação, continua a ser um tópico em aberto, e ainda hoje, um grande desafio a obtenção de uma abordagem que inclua simultaneamente exibilidade e precisão. O trabalho apresentado nesta dissertação desenvolve um caso de estudo sobre deteção e seguimento automático de faces humanas, em ambiente de sala de reuniões, concretizado num sistema flexível de baixo custo. O sistema proposto é baseado no sistema operativo GNU's Not Unix (GNU) linux, e é dividido em quatro etapas, a aquisição de vídeo, a deteção da face, o tracking e reorientação da posição da câmara. A aquisição consiste na captura de frames de vídeo das três câmaras Internet Protocol (IP) Sony SNC-RZ25P, instaladas na sala, através de uma rede Local Area Network (LAN) também ele já existente. Esta etapa fornece os frames de vídeo para processamento à detecção e tracking. A deteção usa o algoritmo proposto por Viola e Jones, para a identificação de objetos, baseando-se nas suas principais características, que permite efetuar a deteção de qualquer tipo de objeto (neste caso faces humanas) de uma forma genérica e em tempo real. As saídas da deteção, quando é identificado com sucesso uma face, são as coordenadas do posicionamento da face, no frame de vídeo. As coordenadas da face detetada são usadas pelo algoritmo de tracking, para a partir desse ponto seguir a face pelos frames de vídeo subsequentes. A etapa de tracking implementa o algoritmo Continuously Adaptive Mean-SHIFT (Camshift) que baseia o seu funcionamento na pesquisa num mapa de densidade de probabilidade, do seu valor máximo, através de iterações sucessivas. O retorno do algoritmo são as coordenadas da posição e orientação da face. Estas coordenadas permitem orientar o posicionamento da câmara de forma que a face esteja sempre o mais próximo possível do centro do campo de visão da câmara. Os resultados obtidos mostraram que o sistema de tracking proposto é capaz de reconhecer e seguir faces em movimento em sequências de frames de vídeo, mostrando adequabilidade para aplicação de monotorização em tempo real.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa, para a obtenção do Grau de Mestre em Engenharia de Gestão Industrial, na especialidade de Fiabilidade e Gestão da Manutenção
Resumo:
A condutividade hidráulica do solo saturado (Kθs) é uma propriedade com grande variabilidade, o que exige a utilização de um número maior de determinações para que sua descrição possa ser feita adequadamente pela função densidade de probabilidade normal. Consequentemente, há aumento de trabalho e de tempo para a obtenção dos resultados, principalmente se as determinações forem feitas com equipamentos de pouca praticidade. A construção de equipamentos de maior praticidade e o desenvolvimento de ferramentas computacionais podem tornar o processo de análise mais rápido e preciso. Com esse objetivo, foi construído um permeâmetro de carga decrescente e desenvolvido um software para a aquisição de dados. As medidas de Kθs obtidas com esses equipamentos, em amostras de um Argissolo, mostraram menor variabilidade, avaliada pelo coeficiente de variação, o que resultou em maior precisão das determinações. Além disso, o tempo de análise foi reduzido em 30 %.
Resumo:
O objetivo deste trabalho foi verificar a qualidade da modelagem da distribuição diamétrica de povoamentos equiâneos de eucalipto, de acordo com a variação na amplitude de classe utilizada. Avaliaram-se tanto o ajuste da função aos dados observados quanto a projeção dos parâmetros da função, por meio de um modelo de distribuição diamétrica. Foram utilizados dados de 48 parcelas permanentes, obtidos em quatro ocasiões. Constatou-se equivalência estatística entre as distribuições observadas e as estimadas pela função Weibull, em todas as situações. A função Weibull ajustou-se adequadamente aos dados, independentemente da amplitude de classe; no entanto, a redistribuição teórica dos diâmetros por classe, por meio de um modelo de distribuição diamétrica, foi afetada pela amplitude de classe.
Resumo:
O objetivo deste trabalho foi determinar os parâmetros estatísticos da função densidade de probabilidade (FDP) com melhor ajuste aos valores decendiais de precipitação pluvial observados em diversas localidades brasileiras, e também determinar a relação entre precipitação provável (75% de probabilidade, P75%) e precipitação média (der=0 width=10 height=18 id="_x0000_i1050" src="../img/a01img01.jpg">) nestas localidades. Foram avaliadas cinco FDPs (normal, triangular, gama, exponencial e uniforme), ajustadas a dados provenientes de 43 municípios, de oito estados, em quatro regiões brasileiras. As localidades foram avaliadas isoladamente ou agrupadas de acordo com estados ou tipos climáticos. O teste de aderência de Kolmogorov‑Smirnov foi utilizado para avaliar o ajuste estatístico das FDPs às séries de dados. As distribuições gama e exponencial foram as que mais frequentemente melhor se ajustaram às séries de precipitação pluvial decendial (41,2 e 30,8%, respectivamente). As relações funcionais mais promissoras entre der=0 width=10 height=18 id="_x0000_i1049" src="../img/a01img01.jpg">e P75% foram obtidas nos climas Cwa (R² = 0,82), Aw (R² = 0,70), As (R² = 0,68) e Cwb (R² = 0,62), e nos estados de Goiás (R² = 0,80), São Paulo (R² = 0,76) e Minas Gerais (R² = 0,70). As distribuições normal (19,3%), triangular (2,2%) e uniforme (3,5%) têm menor participação nos melhores ajustes, mas são importantes nas análises para o período seco.