1000 resultados para Distribuição (Teoria da probabilidade)
Resumo:
Os problemas relacionados com a axiomatização da Teoria da Probabilidade remontam ao início do nosso século. Se bem que, as várias tentativas de axiomatização, não surjam exclusivamente como uma resposta de índole matemática, foram vários os matemáticos que tentaram ver na construção axiomática, um processo de filiação da Teoria da Probabilidade como um subcapítulo da Teoria da Medida. O objectivo desta comunicação visa arrumar de alguma forma a dualidade que quase sempre está presente, separando o formalismo matemático (de que a Probabilidade se serve) da questão filosófica: “o que é a Probabilidade?” Basicamente, concluir-se-á que a pergunta acima formulada não faz sentido num contexto puramente matemático.
Resumo:
O Teorema Central do Limite e a Lei dos Grandes Números estão entre os mais importantes resultados da teoria da probabilidade. O primeiro deles busca condições sob as quais [fórmula] converge em distribuição para a distribuição normal com parâmetros 0 e 1, quando n tende ao infinito, onde Sn é a soma de n variáveis aleatórias independentes. Ao mesmo tempo, o segundo estabelece condições para que [fórmula] convirja a zero, ou equivalentemente, para que [fórmula] convirja para a esperança das variáveis aleatórias, caso elas sejam identicamente distribuídas. Em ambos os casos as sequências abordadas são do tipo [fórmula], onde [fórmula] e [fórmula] são constantes reais. Caracterizar os possíveis limites de tais sequências é um dos objetivos dessa dissertação, já que elas não convergem exclusivamente para uma variável aleatória degenerada ou com distribuição normal como na Lei dos Grandes Números e no Teorema Central do Limite, respectivamente. Assim, somos levados naturalmente ao estudo das distribuições infinitamente divisíveis e estáveis, e os respectivos teoremas limites, e este vem a ser o objetivo principal desta dissertação. Para as demonstrações dos teoremas utiliza-se como estratégia principal a aplicação do método de Lyapunov, o qual consiste na análise da convergência da sequência de funções características correspondentes às variáveis aleatórias. Nesse sentido, faremos também uma abordagem detalhada de tais funções neste trabalho.
Resumo:
No estudo da Teoria da Probabilidade está sempre presente o tratamento dos momentos das diversas distribuições estudadas, desde que os mesmos existam. O seu significado pleno, contudo, fica longe de ser percebido e integrado na compreensão adequada das correspondentes distribuições. Em contrapartida, de um modo muito geral, as funções geradoras de probabilidades e de momentos, a função caraterística e os cumulantes, só muito ligeiramente são abordados, passando completamente em claro o seu significado, as suas relações, as respetivas potencialidades, e, mais ainda que tudo isto, o seu potencial explicativo sobre o tipo de distribuição resultante de operações algébricas, ou mesmo transcendentes, entre variáveis aleatórias diversas.
Resumo:
A sociedade mudou nas últimas décadas abrindo a possibilidade para cientistas sociais estudarem essas mudanças e analisar os seus impactos na unidade familiar. Nesta tese pretendemos analisar como as decisões dos agentes com relação a decisão de casar e estudar pode estar conectado considerando que homens e mulheres têm preferências pelo casamento intragrupo. No modelo estudado encontramos que as preferências para o casamento intragrupo podem aumentar a proporção de homens e mulheres que decidem se casar e estudar. Mostramos também que empiricamente há um positive assortative mating entre pessoas com as mesmas características, tais como, educação, religião ou raça. Além disso, a probabilidade de casais casados na mesma religião aumenta a probabilidade dos casais estarem casados dentro do mesmo nível de escolaridade. Considerando as mudanças em como os casais se formam, a composição educacional e os retornos da educação que aconteceram no Brasil nos últimos anos, investiga-se os impactos dessas mudanças na desigualdade de renda dos casais. Calculamos cenários contrafactuais para o Coeficiente de Gini mantendo uma dessas três variáveis fixas em um determinado ano, comparando o contrafactual estimado com o Gini real. Se o casamento for formado aleatoriamente com relação à educação, o Coeficiente de Gini seria menor do que o real. Mantendo os retornos da educação fixos no ano de 2014 encontramos um Gini contrafactual menor do que o real.
Resumo:
Universidade Estadual de Campinas . Faculdade de Educação Física
Resumo:
O objetivo deste trabalho é apresentar a base teórica para o problema de aprendizagem através de exemplos conforme as ref. [14], [15] e [16]. Aprender através de exemplos pode ser examinado como o problema de regressão da aproximação de uma função multivaluada sobre um conjunto de dados esparsos. Tal problema não é bem posto e a maneira clássica de resolvê-lo é através da teoria de regularização. A teoria de regularização clássica, como será considerada aqui, formula este problema de regressão como o problema variacional de achar a função f que minimiza o funcional Q[f] = 1 n n Xi=1 (yi ¡ f(xi))2 + ¸kfk2 K; onde kfk2 K é a norma em um espa»co de Hilbert especial que chamaremos de Núcleo Reprodutivo (Reproducing Kernel Hilbert Spaces), ou somente RKHS, IH definido pela função positiva K, o número de pontos do exemplo n e o parâmetro de regularização ¸. Sob condições gerais a solução da equação é dada por f(x) = n Xi=1 ciK(x; xi): A teoria apresentada neste trabalho é na verdade a fundamentação para uma teoria mais geral que justfica os funcionais regularizados para a aprendizagem através de um conjunto infinito de dados e pode ser usada para estender consideravelmente a estrutura clássica a regularização, combinando efetivamente uma perspectiva de análise funcional com modernos avanços em Teoria de Probabilidade e Estatística.
Resumo:
The idea of considering imprecision in probabilities is old, beginning with the Booles George work, who in 1854 wanted to reconcile the classical logic, which allows the modeling of complete ignorance, with probabilities. In 1921, John Maynard Keynes in his book made explicit use of intervals to represent the imprecision in probabilities. But only from the work ofWalley in 1991 that were established principles that should be respected by a probability theory that deals with inaccuracies. With the emergence of the theory of fuzzy sets by Lotfi Zadeh in 1965, there is another way of dealing with uncertainty and imprecision of concepts. Quickly, they began to propose several ways to consider the ideas of Zadeh in probabilities, to deal with inaccuracies, either in the events associated with the probabilities or in the values of probabilities. In particular, James Buckley, from 2003 begins to develop a probability theory in which the fuzzy values of the probabilities are fuzzy numbers. This fuzzy probability, follows analogous principles to Walley imprecise probabilities. On the other hand, the uses of real numbers between 0 and 1 as truth degrees, as originally proposed by Zadeh, has the drawback to use very precise values for dealing with uncertainties (as one can distinguish a fairly element satisfies a property with a 0.423 level of something that meets with grade 0.424?). This motivated the development of several extensions of fuzzy set theory which includes some kind of inaccuracy. This work consider the Krassimir Atanassov extension proposed in 1983, which add an extra degree of uncertainty to model the moment of hesitation to assign the membership degree, and therefore a value indicate the degree to which the object belongs to the set while the other, the degree to which it not belongs to the set. In the Zadeh fuzzy set theory, this non membership degree is, by default, the complement of the membership degree. Thus, in this approach the non-membership degree is somehow independent of the membership degree, and this difference between the non-membership degree and the complement of the membership degree reveals the hesitation at the moment to assign a membership degree. This new extension today is called of Atanassov s intuitionistic fuzzy sets theory. It is worth noting that the term intuitionistic here has no relation to the term intuitionistic as known in the context of intuitionistic logic. In this work, will be developed two proposals for interval probability: the restricted interval probability and the unrestricted interval probability, are also introduced two notions of fuzzy probability: the constrained fuzzy probability and the unconstrained fuzzy probability and will eventually be introduced two notions of intuitionistic fuzzy probability: the restricted intuitionistic fuzzy probability and the unrestricted intuitionistic fuzzy probability
Resumo:
The segmentation of an image aims to subdivide it into constituent regions or objects that have some relevant semantic content. This subdivision can also be applied to videos. However, in these cases, the objects appear in various frames that compose the videos. The task of segmenting an image becomes more complex when they are composed of objects that are defined by textural features, where the color information alone is not a good descriptor of the image. Fuzzy Segmentation is a region-growing segmentation algorithm that uses affinity functions in order to assign to each element in an image a grade of membership for each object (between 0 and 1). This work presents a modification of the Fuzzy Segmentation algorithm, for the purpose of improving the temporal and spatial complexity. The algorithm was adapted to segmenting color videos, treating them as 3D volume. In order to perform segmentation in videos, conventional color model or a hybrid model obtained by a method for choosing the best channels were used. The Fuzzy Segmentation algorithm was also applied to texture segmentation by using adaptive affinity functions defined for each object texture. Two types of affinity functions were used, one defined using the normal (or Gaussian) probability distribution and the other using the Skew Divergence. This latter, a Kullback-Leibler Divergence variation, is a measure of the difference between two probability distributions. Finally, the algorithm was tested in somes videos and also in texture mosaic images composed by images of the Brodatz album
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Pós-graduação em Agronomia (Irrigação e Drenagem) - FCA
Resumo:
Um evento extremo de precipitação ocorreu na primeira semana do ano 2000, de 1º a 5 de janeiro, no Vale do Paraíba, parte leste do Estado de São Paulo, Brasil, causando enorme impacto socioeconômico, com mortes e destruição. Este trabalho estudou este evento em 10 estações meteorológicas selecionadas que foram consideradas como aquelas tendo dados mais homogêneos do Que outras estações na região. O modelo de distribuição generalizada de Pareto (DGP) para valores extremos de precipitação de 5 dias foi desenvolvido, individualmente para cada uma dessas estações. Na modelagem da DGP, foi adotada abordagem não-estacionaria considerando o ciclo anual e tendência de longo prazo como co-variaveis. Uma conclusão desta investigação é que as quantidades de precipitação acumulada durante os 5 dias do evento estudado podem ser classificadas como extremamente raras para a região, com probabilidade de ocorrência menor do que 1% para maioria das estações, e menor do que 0,1% em três estações.
Resumo:
Foram selecionadas 874 chuvas individuais erosivas, de uma série contínua de 23 anos de registros de dados pluviográficos. As chuvas selecionadas foram cotadas, digitalizadas e, posteriormente, analisadas. O índice de erosividade, EI30, médio anual calculado foi de 7.074 MJ mm ha-1 h-1 ano-1. Espera-se que este índice ocorra no local pelo menos uma vez a cada 2,33 anos, com uma probabilidade de 42,92%. Os valores dos índices anuais de erosividade de Piraju, esperados nos períodos de retorno de 2, 5, 10, 20, 50 e 100 anos, foram, respectivamente, de 6.696, 8.730, 10.076, 11.367, 13.039 e 14.292 MJ mm ha-1 h-1 ano-1. Foi observada uma distribuição de 78,5% do total da erosividade anual durante o semestre de outubro a março, indicando que, nesse período, era esperada a maior parte das perdas de solo por erosão. Observou-se elevada correlação entre o índice de erosividade, EI30, médio mensal e o coeficiente de chuva. Portanto, a equação de regressão determinada permite que seja estimado, com boa margem de segurança, o EI30 para outros locais que não possuam dados pluviográficos, mas que disponham de dados pluviométricos e condições climáticas semelhantes às de Piraju (SP).
Resumo:
A aplicação da Equação Universal de Perdas de Solo para previsão de perdas por erosão e para planejamento conservacionista requer a avaliação de valores locais de índices de erosividade da chuva. Visando contribuir para o conhecimento desses índices na zona litorânea do estado do Ceará, os objetivos do presente estudo foram: (a) determinar o fator R e os valores anuais do índice EI30, sua distribuição mensal, probabilidade de ocorrência e períodos de retorno em Fortaleza (CE) no período de 1962 a 1981, e (b) criar um banco de dados que permita, numa análise posterior, avaliar as correlações entre o índice EI30 e as chuvas mensais, com vistas em simplificar o cálculo desse índice e atualizar seus valores durante o período de 1982 a 2000. A energia cinética total, intensidades uniformes, intensidades máximas em 30 minutos e o índice EI30 em chuvas individuais foram determinados em 7.300 diagramas diários de pluviógrafo do período de 1962 a 1981, disponíveis na Estação Meteorológica da Universidade Federal do Ceará, em Fortaleza. Distribuições de freqüência dos valores máximos individuais e anuais do índice EI30 e seus períodos de retorno foram calculados e plotados em curvas de probabilidades de ocorrência desses valores. No período de 20 anos, o valor do fator R em Fortaleza foi de 6.774 com uma amplitude de 2.237 a 12.882 MJ mm (ha h ano)-1. Esse valor médio anual pode ocorrer ou ser superado pelo menos uma vez a cada 2,2 anos, com uma probabilidade de 46 %. Os valores individuais máximos estimados para os períodos de retorno de 2, 5, 20, 50 e 100 anos foram de 1.363, 2.415, 3.783, 5.950 e 8.000 MJ mm (ha h)-1, respectivamente. Nos meses de fevereiro a maio, são esperadas as mais altas perdas de solo e água, posto que 70 % do valor anual do índice de erosividade ocorre nesse período, quando é utilizado o preparo convencional do solo e a cobertura vegetal é incipiente.