1000 resultados para Distribuições de probabilidade
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
A aplicação da Equação Universal de Perdas de Solo para previsão de perdas por erosão e para planejamento conservacionista requer a avaliação de valores locais de índices de erosividade da chuva. Visando contribuir para o conhecimento desses índices na zona litorânea do estado do Ceará, os objetivos do presente estudo foram: (a) determinar o fator R e os valores anuais do índice EI30, sua distribuição mensal, probabilidade de ocorrência e períodos de retorno em Fortaleza (CE) no período de 1962 a 1981, e (b) criar um banco de dados que permita, numa análise posterior, avaliar as correlações entre o índice EI30 e as chuvas mensais, com vistas em simplificar o cálculo desse índice e atualizar seus valores durante o período de 1982 a 2000. A energia cinética total, intensidades uniformes, intensidades máximas em 30 minutos e o índice EI30 em chuvas individuais foram determinados em 7.300 diagramas diários de pluviógrafo do período de 1962 a 1981, disponíveis na Estação Meteorológica da Universidade Federal do Ceará, em Fortaleza. Distribuições de freqüência dos valores máximos individuais e anuais do índice EI30 e seus períodos de retorno foram calculados e plotados em curvas de probabilidades de ocorrência desses valores. No período de 20 anos, o valor do fator R em Fortaleza foi de 6.774 com uma amplitude de 2.237 a 12.882 MJ mm (ha h ano)-1. Esse valor médio anual pode ocorrer ou ser superado pelo menos uma vez a cada 2,2 anos, com uma probabilidade de 46 %. Os valores individuais máximos estimados para os períodos de retorno de 2, 5, 20, 50 e 100 anos foram de 1.363, 2.415, 3.783, 5.950 e 8.000 MJ mm (ha h)-1, respectivamente. Nos meses de fevereiro a maio, são esperadas as mais altas perdas de solo e água, posto que 70 % do valor anual do índice de erosividade ocorre nesse período, quando é utilizado o preparo convencional do solo e a cobertura vegetal é incipiente.
Resumo:
O objetivo deste trabalho foi determinar regiões homogêneas baseadas na sazonalidade da precipitação pluvial mensal e a distribuição de probabilidade que melhor se ajusta à precipitação dessas regiões no Estado de Táchira, Venezuela. Utilizaram-se valores da precipitação mensal de 25 estações climatológicas, que apresentam séries entre 24 e 62 anos. Aplicou-se o método de Ward no agrupamento dos meses com precipitação pluvial mensal similar e também no das localidades com precipitação similar (regiões homogêneas). Avaliaram-se os ajustes das funções de densidade exponencial, gama, Gumbel, normal, log-normal a três parâmetros, e Weibull aos dados observados de precipitação mensal. A variação sazonal da precipitação no Estado de Táchira apresenta três períodos estatisticamente definidos como: seco, transição e úmido. Os períodos seco e úmido apresentam quatro regiões homogêneas de precipitação mensal similar e o de transição três. No período seco, a distribuição de probabilidade recomendada para as estimativas mensais é a exponencial, com exceção da região homogênea com os maiores valores de precipitação pluvial do período, onde a gama se sobressai. No período chuvoso, em todas as regiões homogêneas, a distribuição normal predomina, com exceção de agosto, em que a gama prevalece. Já nos meses de transição, destacam-se as distribuições gama, em abril, e normal, em novembro.
Resumo:
As funções de densidade probabilidade Weibull e Hiperbólica foram comparadas quanto a eficiência de descrever a estrutura diamétrica de povoamentos de Teca (Tectona grandis L. f.) submetidas a desbaste. As duas funções com três e quatro parâmetros, foram ajustadas com dados de 98 parcelas permanentes, retangulares (490 m²), instaladas em um povoamento desbastado de Tectona grandis, no Estado do Mato Grosso e medidas durante 10 anos. Os ajustes foram feitos por Máxima Verossimilhança e a aderência foi avaliada pelo teste Kolmogorov-Smirnorv (a = 1%). Também foram comparadas a soma de quadrados dos resíduos (SQR) dos diferentes ajustamentos. Todas as funções apresentaram aderência aos dados pelo teste de Kolmogorov-Smirnorv (a = 1%). A função hiperbólica apresentou menor soma de quadrados de resíduos e menores valores para o teste de aderência. Foi possível concluir que a função hiperbólica foi mais eficiente para descrever a estrutura diametrica dos povoamentos estudados.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Size distributions in woody plant populations have been used to assess their regeneration status, assuming that size structures with reverse-J shapes represent stable populations. We present an empirical approach of this issue using five woody species from the Cerrado. Considering count data for all plants of these five species over a 12-year period, we analyzed size distribution by: a) plotting frequency distributions and their adjustment to the negative exponential curve and b) calculating the Gini coefficient. To look for a relationship between size structure and future trends, we considered the size structures from the first census year. We analyzed changes in number over time and performed a simple population viability analysis, which gives the mean population growth rate, its variance and the probability of extinction in a given time period. Frequency distributions and the Gini coefficient were not able to predict future trends in population numbers. We recommend that managers should not use measures of size structure as a basis for management decisions without applying more appropriate demographic studies.
Resumo:
Um evento extremo de precipitação ocorreu na primeira semana do ano 2000, de 1º a 5 de janeiro, no Vale do Paraíba, parte leste do Estado de São Paulo, Brasil, causando enorme impacto socioeconômico, com mortes e destruição. Este trabalho estudou este evento em 10 estações meteorológicas selecionadas que foram consideradas como aquelas tendo dados mais homogêneos do Que outras estações na região. O modelo de distribuição generalizada de Pareto (DGP) para valores extremos de precipitação de 5 dias foi desenvolvido, individualmente para cada uma dessas estações. Na modelagem da DGP, foi adotada abordagem não-estacionaria considerando o ciclo anual e tendência de longo prazo como co-variaveis. Uma conclusão desta investigação é que as quantidades de precipitação acumulada durante os 5 dias do evento estudado podem ser classificadas como extremamente raras para a região, com probabilidade de ocorrência menor do que 1% para maioria das estações, e menor do que 0,1% em três estações.
Resumo:
O Teorema Central do Limite e a Lei dos Grandes Números estão entre os mais importantes resultados da teoria da probabilidade. O primeiro deles busca condições sob as quais [fórmula] converge em distribuição para a distribuição normal com parâmetros 0 e 1, quando n tende ao infinito, onde Sn é a soma de n variáveis aleatórias independentes. Ao mesmo tempo, o segundo estabelece condições para que [fórmula] convirja a zero, ou equivalentemente, para que [fórmula] convirja para a esperança das variáveis aleatórias, caso elas sejam identicamente distribuídas. Em ambos os casos as sequências abordadas são do tipo [fórmula], onde [fórmula] e [fórmula] são constantes reais. Caracterizar os possíveis limites de tais sequências é um dos objetivos dessa dissertação, já que elas não convergem exclusivamente para uma variável aleatória degenerada ou com distribuição normal como na Lei dos Grandes Números e no Teorema Central do Limite, respectivamente. Assim, somos levados naturalmente ao estudo das distribuições infinitamente divisíveis e estáveis, e os respectivos teoremas limites, e este vem a ser o objetivo principal desta dissertação. Para as demonstrações dos teoremas utiliza-se como estratégia principal a aplicação do método de Lyapunov, o qual consiste na análise da convergência da sequência de funções características correspondentes às variáveis aleatórias. Nesse sentido, faremos também uma abordagem detalhada de tais funções neste trabalho.
Resumo:
O objetivo deste estudo foi determinar as probabilidades de ocorrência de períodos secos e chuvosos na região de Sete Lagoas, MG, a partir de uma série de 66 anos de dados diários de precipitação pluvial, visando subsidiar a definição da melhor data de semeadura do milho. Foram considerados dias secos aqueles que apresentaram precipitação inferior à evapotranspiração do milho, ETmilho. O estudo foi realizado para as fases de floração e enchimento de grãos a partir de sete datas de semeadura DS (01/10, 16/10, 31/10, 15/11, 01/12, 16/12 e 31/12). As chances de ocorrência dos períodos secos e chuvosos foram estimadas mediante o uso da cadeia de Markov. A probabilidade de ocorrência de dias secos foi sempre superior à de dias chuvosos. As maiores possibilidades de ocorrência de dias secos foram observadas entre as DS 15/11 e 31/12. A maior probabilidade de ocorrência de dias chuvosos foi registrada na DS 01/10. Considerando o ciclo médio estudado (para a fase mais crítica do milho), a combinação de menor chance de períodos secos com a de dias chuvosos indica que as melhores datas para iniciar a semeadura de sequeiro seriam as de DS 01/10 e 16/10.
Resumo:
A erosividade das chuvas é um dos principais agentes causadores da erosão do solo, no sul de Minas Gerais. Por essa razão, objetivou-se, com este trabalho, aplicar cinco distribuições de probabilidades aos valores de erosividades, mensais e anual, e estimar o tempo de recorrência desses valores, com base na melhor distribuição de probabilidades ajustada para a região de Lavras, MG. A série de precipitações estudada foi de 1961 a 2004 e as distribuições de probabilidades utilizadas foram: Gumbel, Gama, Log-normal 2 e 3 parâmetros e Normal, ajustadas pelo método da Máxima Verossimilhança. Verificou-se que as distribuições Gama e Gumbel produziram o menor número de séries não adequadas, registrando-se apenas uma, para o mês de agosto. As demais distribuições produziram maiores números de séries não adequadas, especialmente, a distribuição Log-normal 2 parâmetros. Sendo assim, recomenda-se, para o cálculo de erosividade, que seja feita uma verificação prévia da melhor distribuição para cada período da série estudada, apesar de os dados apontarem um desempenho considerável da distribuição Gumbel.
Resumo:
Clientes podem abandonar uma organização ainda que altos investimentos em prospecção e retenção sejam realizados, o que requer diagnóstico e compreensão. Este artigo objetiva modelar a probabilidade de clientes abandonarem o relacionamento com uma organização, fenômeno conhecido como churn, utilizando dados do histórico de relacionamento cliente/empresa, validar o modelo em uma segunda amostra e descrever as possíveis variáveis que influenciam o abandono/permanência do cliente. Utilizou-se o modelo de regressão logística em uma amostra de calibração de 70.000 clientes que possuíam cartão de crédito próprio de uma grande rede varejista. Dezesseis variáveis explicativas (14 características individuais e duas variáveis comportamentais) foram usadas e o modelo foi validado em uma amostra de 30.000 clientes, usando-se o teste de KS (Kolmogorov-Smirnov) e a curva ROC (Receiver Operating Characteristic), que demonstraram a boa adequação do modelo à amostra de validação. Implicações da pesquisa e sugestões para futuras investigações são discutidas à luz da gestão do relacionamento com o cliente.
Resumo:
O problema de classificar pessoas de acordo com o tamanho da induração, na prova tuberculínica segundo a técnica de Mantoux, é resolvido, para um conjunto de dados obtidos em uma população genérica, utilizando-se o critério estatístico de "melhores regiões possíveis de classificação". São obtidas estimativas das probabilidades de classificação errada.
Resumo:
Coorte constituída por 4.876 crianças nascidas vivas, em hospitais do Município de Maringá-PR (Brasil), em 1989, foi acompanhada com a finalidade de estimar a probabilidade de morrer no primeiro ano de vida. As variáveis de estudo foram sexo, peso ao nascer, idade da mãe, subgrupos etários e causa básica de morte. A probabilidade de morte no primeiro ano de vida foi estimada em 19,9 por mil, sendo que 77,3% dos óbitos ocorreram no período neonatal. As causas perinatais, juntamente com as anomalias congênitas, responderam por mais de 80% dos óbitos, e as doenças infecciosas e parasitárias, por apenas 1,1%. A probabilidade de morrer no primeiro ano de vida devido às afecções originadas no período perinatal foi superior nas crianças nascidas de parto normal (20,3 por mil) em relação à das nascidas por cesárea (9 por mil). O risco de morrer foi maior nos filhos de mulheres adolescentes, nas crianças nascidas com peso inferior a 2.500g. Os resultados chamam a atenção para a necessidade de melhorar a qualidade da assistência pré-natal, ao parto e ao recém-nascido e sugerem possível associação entre maior mortalidade e pior nível socioeconômico.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica