1000 resultados para Função densidade de probabilidade - pdf
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Engenharia Mecânica - FEIS
Resumo:
This present work uses a generalized similarity measure called correntropy to develop a new method to estimate a linear relation between variables given their samples. Towards this goal, the concept of correntropy is extended from two variables to any two vectors (even with different dimensions) using a statistical framework. With this multidimensionals extensions of Correntropy the regression problem can be formulated in a different manner by seeking the hyperplane that has maximum probability density with the target data. Experiments show that the new algorithm has a nice fixed point update for the parameters and robust performs in the presence of outlier noise.
Resumo:
In this work, we propose a two-stage algorithm for real-time fault detection and identification of industrial plants. Our proposal is based on the analysis of selected features using recursive density estimation and a new evolving classifier algorithm. More specifically, the proposed approach for the detection stage is based on the concept of density in the data space, which is not the same as probability density function, but is a very useful measure for abnormality/outliers detection. This density can be expressed by a Cauchy function and can be calculated recursively, which makes it memory and computational power efficient and, therefore, suitable for on-line applications. The identification/diagnosis stage is based on a self-developing (evolving) fuzzy rule-based classifier system proposed in this work, called AutoClass. An important property of AutoClass is that it can start learning from scratch". Not only do the fuzzy rules not need to be prespecified, but neither do the number of classes for AutoClass (the number may grow, with new class labels being added by the on-line learning process), in a fully unsupervised manner. In the event that an initial rule base exists, AutoClass can evolve/develop it further based on the newly arrived faulty state data. In order to validate our proposal, we present experimental results from a level control didactic process, where control and error signals are used as features for the fault detection and identification systems, but the approach is generic and the number of features can be significant due to the computationally lean methodology, since covariance or more complex calculations, as well as storage of old data, are not required. The obtained results are significantly better than the traditional approaches used for comparison
Resumo:
OBJETIVO: Estimar valores de referência e função de hierarquia de docentes em Saúde Coletiva do Brasil por meio de análise da distribuição do índice h. MÉTODOS: A partir do portal da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior, 934 docentes foram identificados em 2008, dos quais 819 foram analisados. O índice h de cada docente foi obtido na Web of Science mediante algoritmos de busca com controle para homonímias e alternativas de grafia de nome. Para cada região e para o Brasil como um todo ajustou-se função densidade de probabilidade exponencial aos parâmetros média e taxa de decréscimo por região. Foram identificadas medidas de posição e, com o complemento da função probabilidade acumulada, função de hierarquia entre autores conforme o índice h por região. RESULTADOS: Dos docentes, 29,8% não tinham qualquer registro de citação (h = 0). A média de h para o País foi 3,1, com maior média na região Sul (4,7). A mediana de h para o País foi 2,1, também com maior mediana na Sul (3,2). Para uma padronização de população de autores em cem, os primeiros colocados para o País devem ter h = 16; na estratificação por região, a primeira posição demanda valores mais altos no Nordeste, Sudeste e Sul, sendo nesta última h = 24. CONCLUSÕES: Avaliados pelos índices h da Web of Science, a maioria dos autores em Saúde Coletiva não supera h = 5. Há diferenças entres as regiões, com melhor desempenho para a Sul e valores semelhantes entre Sudeste e Nordeste.
Resumo:
O objetivo deste estudo foi propor um modelo de distribuição diamétrica para povoamentos de eucalipto submetidos ao desbaste, com a inclusão do parâmetro de locação da função Weibull. Essa função foi ajustada a dados de 48 parcelas permanentes instaladas em um povoamento desbastado de um clone híbrido de eucalipto (Eucalyptus grandis x Eucalyptus urophylla), localizado na região Nordeste do Estado da Bahia, Brasil. A aderência foi avaliada pelo teste de Kolmogorov-Smirnorv (K-S). A redistribuição teórica dos diâmetros foi feita a partir de equações lineares e não lineares entre os parâmetros da função Weibull em uma idade futura e os parâmetros, em uma idade atual e associados a algumas características do povoamento em idades atual e futura. O sistema de equações gerado foi avaliado utilizando-se o coeficiente de determinação ajustado e o coeficiente de correlação entre frequências observadas e frequências estimadas e a análise gráfica dos resíduos. O sistema proposto resultou em estimativas precisas e consistentes de crescimento por classe de diâmetro.
Resumo:
Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
Mapas simpléticos têm sido amplamente utilizados para modelar o transporte caótico em plasmas e fluidos. Neste trabalho, propomos três tipos de mapas simpléticos que descrevem o movimento de deriva elétrica em plasmas magnetizados. Efeitos de raio de Larmor finito são incluídos em cada um dos mapas. No limite do raio de Larmor tendendo a zero, o mapa com frequência monotônica se reduz ao mapa de Chirikov-Taylor, e, nos casos com frequência não-monotônica, os mapas se reduzem ao mapa padrão não-twist. Mostramos como o raio de Larmor finito pode levar à supressão de caos, modificar a topologia do espaço de fases e a robustez de barreiras de transporte. Um método baseado na contagem dos tempos de recorrência é proposto para analisar a influência do raio de Larmor sobre os parâmetros críticos que definem a quebra de barreiras de transporte. Também estudamos um modelo para um sistema de partículas onde a deriva elétrica é descrita pelo mapa de frequência monotônica, e o raio de Larmor é uma variável aleatória que assume valores específicos para cada partícula do sistema. A função densidade de probabilidade para o raio de Larmor é obtida a partir da distribuição de Maxwell-Boltzmann, que caracteriza plasmas na condição de equilíbrio térmico. Um importante parâmetro neste modelo é a variável aleatória gama, definida pelo valor da função de Bessel de ordem zero avaliada no raio de Larmor da partícula. Resultados analíticos e numéricos descrevendo as principais propriedades estatísticas do parâmetro gama são apresentados. Tais resultados são então aplicados no estudo de duas medidas de transporte: a taxa de escape e a taxa de aprisionamento por ilhas de período um.
Resumo:
OBJETIVO: Estimar valores de referência e função de hierarquia de docentes em Saúde Coletiva do Brasil por meio de análise da distribuição do índice h. MÉTODOS: A partir do portal da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior, 934 docentes foram identificados em 2008, dos quais 819 foram analisados. O índice h de cada docente foi obtido na Web of Science mediante algoritmos de busca com controle para homonímias e alternativas de grafia de nome. Para cada região e para o Brasil como um todo ajustou-se função densidade de probabilidade exponencial aos parâmetros média e taxa de decréscimo por região. Foram identificadas medidas de posição e, com o complemento da função probabilidade acumulada, função de hierarquia entre autores conforme o índice h por região. RESULTADOS: Dos docentes, 29,8% não tinham qualquer registro de citação (h = 0). A média de h para o País foi 3,1, com maior média na região Sul (4,7). A mediana de h para o País foi 2,1, também com maior mediana na Sul (3,2). Para uma padronização de população de autores em cem, os primeiros colocados para o País devem ter h = 16; na estratificação por região, a primeira posição demanda valores mais altos no Nordeste, Sudeste e Sul, sendo nesta última h = 24. CONCLUSÕES: Avaliados pelos índices h da Web of Science, a maioria dos autores em Saúde Coletiva não supera h = 5. Há diferenças entres as regiões, com melhor desempenho para a Sul e valores semelhantes entre Sudeste e Nordeste.
Resumo:
No estudo da Teoria da Probabilidade está sempre presente o tratamento dos momentos das diversas distribuições estudadas, desde que os mesmos existam. O seu significado pleno, contudo, fica longe de ser percebido e integrado na compreensão adequada das correspondentes distribuições. Em contrapartida, de um modo muito geral, as funções geradoras de probabilidades e de momentos, a função caraterística e os cumulantes, só muito ligeiramente são abordados, passando completamente em claro o seu significado, as suas relações, as respetivas potencialidades, e, mais ainda que tudo isto, o seu potencial explicativo sobre o tipo de distribuição resultante de operações algébricas, ou mesmo transcendentes, entre variáveis aleatórias diversas.
Resumo:
A condutividade hidráulica do solo saturado (Kθs) é uma propriedade com grande variabilidade, o que exige a utilização de um número maior de determinações para que sua descrição possa ser feita adequadamente pela função densidade de probabilidade normal. Consequentemente, há aumento de trabalho e de tempo para a obtenção dos resultados, principalmente se as determinações forem feitas com equipamentos de pouca praticidade. A construção de equipamentos de maior praticidade e o desenvolvimento de ferramentas computacionais podem tornar o processo de análise mais rápido e preciso. Com esse objetivo, foi construído um permeâmetro de carga decrescente e desenvolvido um software para a aquisição de dados. As medidas de Kθs obtidas com esses equipamentos, em amostras de um Argissolo, mostraram menor variabilidade, avaliada pelo coeficiente de variação, o que resultou em maior precisão das determinações. Além disso, o tempo de análise foi reduzido em 30 %.
Resumo:
O objetivo deste trabalho foi determinar os parâmetros estatísticos da função densidade de probabilidade (FDP) com melhor ajuste aos valores decendiais de precipitação pluvial observados em diversas localidades brasileiras, e também determinar a relação entre precipitação provável (75% de probabilidade, P75%) e precipitação média (der=0 width=10 height=18 id="_x0000_i1050" src="../img/a01img01.jpg">) nestas localidades. Foram avaliadas cinco FDPs (normal, triangular, gama, exponencial e uniforme), ajustadas a dados provenientes de 43 municípios, de oito estados, em quatro regiões brasileiras. As localidades foram avaliadas isoladamente ou agrupadas de acordo com estados ou tipos climáticos. O teste de aderência de Kolmogorov‑Smirnov foi utilizado para avaliar o ajuste estatístico das FDPs às séries de dados. As distribuições gama e exponencial foram as que mais frequentemente melhor se ajustaram às séries de precipitação pluvial decendial (41,2 e 30,8%, respectivamente). As relações funcionais mais promissoras entre
der=0 width=10 height=18 id="_x0000_i1049" src="../img/a01img01.jpg">e P75% foram obtidas nos climas Cwa (R² = 0,82), Aw (R² = 0,70), As (R² = 0,68) e Cwb (R² = 0,62), e nos estados de Goiás (R² = 0,80), São Paulo (R² = 0,76) e Minas Gerais (R² = 0,70). As distribuições normal (19,3%), triangular (2,2%) e uniforme (3,5%) têm menor participação nos melhores ajustes, mas são importantes nas análises para o período seco.
Resumo:
O objetivo deste trabalho foi estimar a duração dos subperíodos fenológicos e do ciclo de desenvolvimento da soja, de acordo com grupos de maturidade e datas de semeadura, e determinar as funções de distribuição de probabilidades que melhor caracterizam a distribuição destes dados. Foram avaliadas as funções exponencial, gama, lognormal, normal e Weibull, tendo-se verificado a de melhor ajuste aos dados de desenvolvimento simulado da cultura, de acordo com dados meteorológicos diários coletados de outubro de 1968 a julho de 2012, na estação climatológica principal de Santa Maria, RS. A simulação do desenvolvimento da cultura foi feita para diferentes datas de semeadura, com os grupos de maturidade (GM): 5.9-6.8, ciclo precoce/semiprecoce; 6.9-7.3, ciclo médio; e 7.4-8.0, ciclo semitardio/tardio. A função lognormal é a que melhor se ajusta à duração dos subperíodos e do ciclo da soja. Esta duração varia conforme a data de semeadura, com ciclo maior nas semeaduras antecipadas (outubro) e menor nas tardias (dezembro).