1000 resultados para densidade de probabilidade
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Engenharia Mecânica - FEIS
Resumo:
O objetivo deste trabalho foi determinar regiões homogêneas baseadas na sazonalidade da precipitação pluvial mensal e a distribuição de probabilidade que melhor se ajusta à precipitação dessas regiões no Estado de Táchira, Venezuela. Utilizaram-se valores da precipitação mensal de 25 estações climatológicas, que apresentam séries entre 24 e 62 anos. Aplicou-se o método de Ward no agrupamento dos meses com precipitação pluvial mensal similar e também no das localidades com precipitação similar (regiões homogêneas). Avaliaram-se os ajustes das funções de densidade exponencial, gama, Gumbel, normal, log-normal a três parâmetros, e Weibull aos dados observados de precipitação mensal. A variação sazonal da precipitação no Estado de Táchira apresenta três períodos estatisticamente definidos como: seco, transição e úmido. Os períodos seco e úmido apresentam quatro regiões homogêneas de precipitação mensal similar e o de transição três. No período seco, a distribuição de probabilidade recomendada para as estimativas mensais é a exponencial, com exceção da região homogênea com os maiores valores de precipitação pluvial do período, onde a gama se sobressai. No período chuvoso, em todas as regiões homogêneas, a distribuição normal predomina, com exceção de agosto, em que a gama prevalece. Já nos meses de transição, destacam-se as distribuições gama, em abril, e normal, em novembro.
Resumo:
In this work, we propose a two-stage algorithm for real-time fault detection and identification of industrial plants. Our proposal is based on the analysis of selected features using recursive density estimation and a new evolving classifier algorithm. More specifically, the proposed approach for the detection stage is based on the concept of density in the data space, which is not the same as probability density function, but is a very useful measure for abnormality/outliers detection. This density can be expressed by a Cauchy function and can be calculated recursively, which makes it memory and computational power efficient and, therefore, suitable for on-line applications. The identification/diagnosis stage is based on a self-developing (evolving) fuzzy rule-based classifier system proposed in this work, called AutoClass. An important property of AutoClass is that it can start learning from scratch". Not only do the fuzzy rules not need to be prespecified, but neither do the number of classes for AutoClass (the number may grow, with new class labels being added by the on-line learning process), in a fully unsupervised manner. In the event that an initial rule base exists, AutoClass can evolve/develop it further based on the newly arrived faulty state data. In order to validate our proposal, we present experimental results from a level control didactic process, where control and error signals are used as features for the fault detection and identification systems, but the approach is generic and the number of features can be significant due to the computationally lean methodology, since covariance or more complex calculations, as well as storage of old data, are not required. The obtained results are significantly better than the traditional approaches used for comparison
Resumo:
OBJETIVO: Estimar valores de referência e função de hierarquia de docentes em Saúde Coletiva do Brasil por meio de análise da distribuição do índice h. MÉTODOS: A partir do portal da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior, 934 docentes foram identificados em 2008, dos quais 819 foram analisados. O índice h de cada docente foi obtido na Web of Science mediante algoritmos de busca com controle para homonímias e alternativas de grafia de nome. Para cada região e para o Brasil como um todo ajustou-se função densidade de probabilidade exponencial aos parâmetros média e taxa de decréscimo por região. Foram identificadas medidas de posição e, com o complemento da função probabilidade acumulada, função de hierarquia entre autores conforme o índice h por região. RESULTADOS: Dos docentes, 29,8% não tinham qualquer registro de citação (h = 0). A média de h para o País foi 3,1, com maior média na região Sul (4,7). A mediana de h para o País foi 2,1, também com maior mediana na Sul (3,2). Para uma padronização de população de autores em cem, os primeiros colocados para o País devem ter h = 16; na estratificação por região, a primeira posição demanda valores mais altos no Nordeste, Sudeste e Sul, sendo nesta última h = 24. CONCLUSÕES: Avaliados pelos índices h da Web of Science, a maioria dos autores em Saúde Coletiva não supera h = 5. Há diferenças entres as regiões, com melhor desempenho para a Sul e valores semelhantes entre Sudeste e Nordeste.
Resumo:
Técnicas de estatística descritiva e métodos do modelo ponto evento foram utilizados para estudar-se séries temporais de meningite meningocócica de 100 municípios do Estado do Rio Grande do Sul, Brasil, no período de 1974 a 1980. Os dados foram separados por estado epidemiológico (epidemia ou endemia), e agregados em 5 grupos segundo as populações municipais. O número de casos notificados semanalmente da moléstia foram analisados através dos coeficientes de incidência, visando o estudo de limiares epidêmicos para o Estado. Os intervalos de tempo entre os eventos foram analisados pelas suas funções de densidade de probabilidade e das funções de densidade esperada, visando a estudar o relacionamento e a dependência entre os eventos. A análise dos limiares epidêmicos sugere que não deva ser utilizado um único valor de limiar, para detecção de surtos da moléstia para todo o Estado. A função de densidade esperada, analisada através de comparações entre os dados para o estado epidêmico e para o estado endêmico, sugere que os eventos dos estados epidêmicos apresentem-se correlacionados, com indicação de dependência entre aqueles separados até 14 semanas. Para o estado endêmico não foram encontradas correlações significativas, utilizando-se como modelo de base o embaralhamento da ordem dos intervalos originais.
Resumo:
OBJETIVO: Estimar valores de referência e função de hierarquia de docentes em Saúde Coletiva do Brasil por meio de análise da distribuição do índice h. MÉTODOS: A partir do portal da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior, 934 docentes foram identificados em 2008, dos quais 819 foram analisados. O índice h de cada docente foi obtido na Web of Science mediante algoritmos de busca com controle para homonímias e alternativas de grafia de nome. Para cada região e para o Brasil como um todo ajustou-se função densidade de probabilidade exponencial aos parâmetros média e taxa de decréscimo por região. Foram identificadas medidas de posição e, com o complemento da função probabilidade acumulada, função de hierarquia entre autores conforme o índice h por região. RESULTADOS: Dos docentes, 29,8% não tinham qualquer registro de citação (h = 0). A média de h para o País foi 3,1, com maior média na região Sul (4,7). A mediana de h para o País foi 2,1, também com maior mediana na Sul (3,2). Para uma padronização de população de autores em cem, os primeiros colocados para o País devem ter h = 16; na estratificação por região, a primeira posição demanda valores mais altos no Nordeste, Sudeste e Sul, sendo nesta última h = 24. CONCLUSÕES: Avaliados pelos índices h da Web of Science, a maioria dos autores em Saúde Coletiva não supera h = 5. Há diferenças entres as regiões, com melhor desempenho para a Sul e valores semelhantes entre Sudeste e Nordeste.
Resumo:
A deteção e seguimento de pessoas tem uma grande variedade de aplicações em visão computacional. Embora tenha sido alvo de anos de investigação, continua a ser um tópico em aberto, e ainda hoje, um grande desafio a obtenção de uma abordagem que inclua simultaneamente exibilidade e precisão. O trabalho apresentado nesta dissertação desenvolve um caso de estudo sobre deteção e seguimento automático de faces humanas, em ambiente de sala de reuniões, concretizado num sistema flexível de baixo custo. O sistema proposto é baseado no sistema operativo GNU's Not Unix (GNU) linux, e é dividido em quatro etapas, a aquisição de vídeo, a deteção da face, o tracking e reorientação da posição da câmara. A aquisição consiste na captura de frames de vídeo das três câmaras Internet Protocol (IP) Sony SNC-RZ25P, instaladas na sala, através de uma rede Local Area Network (LAN) também ele já existente. Esta etapa fornece os frames de vídeo para processamento à detecção e tracking. A deteção usa o algoritmo proposto por Viola e Jones, para a identificação de objetos, baseando-se nas suas principais características, que permite efetuar a deteção de qualquer tipo de objeto (neste caso faces humanas) de uma forma genérica e em tempo real. As saídas da deteção, quando é identificado com sucesso uma face, são as coordenadas do posicionamento da face, no frame de vídeo. As coordenadas da face detetada são usadas pelo algoritmo de tracking, para a partir desse ponto seguir a face pelos frames de vídeo subsequentes. A etapa de tracking implementa o algoritmo Continuously Adaptive Mean-SHIFT (Camshift) que baseia o seu funcionamento na pesquisa num mapa de densidade de probabilidade, do seu valor máximo, através de iterações sucessivas. O retorno do algoritmo são as coordenadas da posição e orientação da face. Estas coordenadas permitem orientar o posicionamento da câmara de forma que a face esteja sempre o mais próximo possível do centro do campo de visão da câmara. Os resultados obtidos mostraram que o sistema de tracking proposto é capaz de reconhecer e seguir faces em movimento em sequências de frames de vídeo, mostrando adequabilidade para aplicação de monotorização em tempo real.
Resumo:
Trabalho Final de Mestrado para a obtenção do grau de Mestre em Engenharia Mecânica /Energia
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa, para a obtenção do Grau de Mestre em Engenharia de Gestão Industrial, na especialidade de Fiabilidade e Gestão da Manutenção
Resumo:
No estudo da Teoria da Probabilidade está sempre presente o tratamento dos momentos das diversas distribuições estudadas, desde que os mesmos existam. O seu significado pleno, contudo, fica longe de ser percebido e integrado na compreensão adequada das correspondentes distribuições. Em contrapartida, de um modo muito geral, as funções geradoras de probabilidades e de momentos, a função caraterística e os cumulantes, só muito ligeiramente são abordados, passando completamente em claro o seu significado, as suas relações, as respetivas potencialidades, e, mais ainda que tudo isto, o seu potencial explicativo sobre o tipo de distribuição resultante de operações algébricas, ou mesmo transcendentes, entre variáveis aleatórias diversas.
Resumo:
A condutividade hidráulica do solo saturado (Kθs) é uma propriedade com grande variabilidade, o que exige a utilização de um número maior de determinações para que sua descrição possa ser feita adequadamente pela função densidade de probabilidade normal. Consequentemente, há aumento de trabalho e de tempo para a obtenção dos resultados, principalmente se as determinações forem feitas com equipamentos de pouca praticidade. A construção de equipamentos de maior praticidade e o desenvolvimento de ferramentas computacionais podem tornar o processo de análise mais rápido e preciso. Com esse objetivo, foi construído um permeâmetro de carga decrescente e desenvolvido um software para a aquisição de dados. As medidas de Kθs obtidas com esses equipamentos, em amostras de um Argissolo, mostraram menor variabilidade, avaliada pelo coeficiente de variação, o que resultou em maior precisão das determinações. Além disso, o tempo de análise foi reduzido em 30 %.
Resumo:
O objetivo deste trabalho foi verificar a qualidade da modelagem da distribuição diamétrica de povoamentos equiâneos de eucalipto, de acordo com a variação na amplitude de classe utilizada. Avaliaram-se tanto o ajuste da função aos dados observados quanto a projeção dos parâmetros da função, por meio de um modelo de distribuição diamétrica. Foram utilizados dados de 48 parcelas permanentes, obtidos em quatro ocasiões. Constatou-se equivalência estatística entre as distribuições observadas e as estimadas pela função Weibull, em todas as situações. A função Weibull ajustou-se adequadamente aos dados, independentemente da amplitude de classe; no entanto, a redistribuição teórica dos diâmetros por classe, por meio de um modelo de distribuição diamétrica, foi afetada pela amplitude de classe.
Resumo:
O objetivo deste trabalho foi determinar os parâmetros estatísticos da função densidade de probabilidade (FDP) com melhor ajuste aos valores decendiais de precipitação pluvial observados em diversas localidades brasileiras, e também determinar a relação entre precipitação provável (75% de probabilidade, P75%) e precipitação média (der=0 width=10 height=18 id="_x0000_i1050" src="../img/a01img01.jpg">) nestas localidades. Foram avaliadas cinco FDPs (normal, triangular, gama, exponencial e uniforme), ajustadas a dados provenientes de 43 municípios, de oito estados, em quatro regiões brasileiras. As localidades foram avaliadas isoladamente ou agrupadas de acordo com estados ou tipos climáticos. O teste de aderência de Kolmogorov‑Smirnov foi utilizado para avaliar o ajuste estatístico das FDPs às séries de dados. As distribuições gama e exponencial foram as que mais frequentemente melhor se ajustaram às séries de precipitação pluvial decendial (41,2 e 30,8%, respectivamente). As relações funcionais mais promissoras entre der=0 width=10 height=18 id="_x0000_i1049" src="../img/a01img01.jpg">e P75% foram obtidas nos climas Cwa (R² = 0,82), Aw (R² = 0,70), As (R² = 0,68) e Cwb (R² = 0,62), e nos estados de Goiás (R² = 0,80), São Paulo (R² = 0,76) e Minas Gerais (R² = 0,70). As distribuições normal (19,3%), triangular (2,2%) e uniforme (3,5%) têm menor participação nos melhores ajustes, mas são importantes nas análises para o período seco.
Resumo:
O objetivo deste trabalho foi estimar a duração dos subperíodos fenológicos e do ciclo de desenvolvimento da soja, de acordo com grupos de maturidade e datas de semeadura, e determinar as funções de distribuição de probabilidades que melhor caracterizam a distribuição destes dados. Foram avaliadas as funções exponencial, gama, lognormal, normal e Weibull, tendo-se verificado a de melhor ajuste aos dados de desenvolvimento simulado da cultura, de acordo com dados meteorológicos diários coletados de outubro de 1968 a julho de 2012, na estação climatológica principal de Santa Maria, RS. A simulação do desenvolvimento da cultura foi feita para diferentes datas de semeadura, com os grupos de maturidade (GM): 5.9-6.8, ciclo precoce/semiprecoce; 6.9-7.3, ciclo médio; e 7.4-8.0, ciclo semitardio/tardio. A função lognormal é a que melhor se ajusta à duração dos subperíodos e do ciclo da soja. Esta duração varia conforme a data de semeadura, com ciclo maior nas semeaduras antecipadas (outubro) e menor nas tardias (dezembro).