888 resultados para Distribuições apriori não informativas
Resumo:
O problema da elicitação de uma distribuição apriori é de primordial importância para a metodologia da Inferência Bayesiaana. Tomando a corrente subjectivista como forma mais consequente de “navegar” dentro da esfera Bayesiana teria o máximo interesse estruturar o problema da elicitação num quadro onde as credibilidades do indivíduo tivessem o relevo que lhe é devido no plano conceptual.
Resumo:
O objetivo deste trabalho foi propor uma abordagem bayesiana do método de Eberhart & Russell para avaliar a adaptabilidade e da estabilidade fenotípica de genótipos de alfafa (Medicago sativa), bem como avaliar a eficiência da utilização de distribuições a priori informativas e pouco informativas. Foram utilizados dados de um experimento em blocos ao acaso, no qual se avaliou a produção de massa de matéria seca de 92 genótipos. A metodologia bayesiana proposta foi implementada no programa livre R por meio da função MCMCregress do pacote MCMCpack. Para representar as distribuições a priori pouco informativas, utilizaram-se distribuições de probabilidade com grande variância; e, para representar distribuições a priori informativas, adotou-se o conceito de meta-análise, que se caracteriza pela utilização de informações provenientes de trabalhos anteriores. A comparação entre as distribuições a priori foi realizada por meio do fator de Bayes, com a função BayesFactor do pacote MCMCpack, que indicou a priori informativa como a mais adequada nas condições deste estudo.
Resumo:
Resumo:O objetivo deste trabalho foi selecionar, sob a perspectiva bayesiana, genótipos de feijão-caupi (Vigna unguiculata) que reúnam alta adaptabilidade e estabilidade fenotípicas, no Estado do Mato Grosso do Sul. Foram utilizados dados de quatro experimentos, conduzidos em delineamento de blocos ao acaso, em que a produtividade de grãos de 20 genótipos de feijão-caupi semiprostrado foi avaliada. Para representar as distribuições a priori pouco informativas, utilizaram-se distribuições de probabilidade com grande variância; e, para representar distribuições a priori informativas, adotou-se o conceito de metanálise, com uso de informações de trabalhos anteriores. A comparação entre as distribuições a priori foi realizada por meio do fator de Bayes. A abordagem bayesiana proporciona maior acurácia na seleção de genótipos de feijão-caupi semiprostrado, com elevadas adaptabilidade e estabilidade fenotípicas avaliadas por meio da metodologia de Eberhart & Russell. Com base nas prioris informativas, os genótipos MNC99-507G-4, TE97-309G-24, MNC99-542F-7 e BR 17-Gurguéia são classificados como de alta adaptabilidade a ambientes favoráveis. Já os genótipos TE96-290-12G, MNC99-510F-16, MNC99-508G-1, MNC99-541F-21, MNC99-542F-5 e MNC99-547F-2 apresentam alta adaptabilidade a ambientes desfavoráveis.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.
Resumo:
As distribuições de Lei de Potência (PL Power Laws), tais como a lei de Pareto e a lei de Zipf são distribuições estatísticas cujos tamanhos dos eventos são inversamente proporcionais à sua frequência. Estas leis de potência são caracterizadas pelas suas longas caudas. Segundo Vilfredo Pareto (1896), engenheiro, cientista, sociólogo e economista italiano, autor da Lei de Pareto, 80% das consequências advêm de 20% das causas. Segundo o mesmo, grande parte da economia mundial segue uma determinada distribuição, onde 80% da riqueza mundial é detida por 20% da população ou 80% da poluição mundial é feita por 20% dos países. Estas percentagens podem oscilar nos intervalos [75-85] e [15-25]. A mesma percentagem poderá ser aplicada à gestão de tempo, onde apenas 20% do tempo dedicado a determinado assunto produzirá cerca de 80% dos resultados obtidos. A lei de Pareto, também designada de regra 80/20, tem aplicações nas várias ciências e no mundo físico, nomeadamente na biodiversidade. O número de ocorrências de fenómenos extremos, aliados ao impacto nas redes de telecomunicações nas situações de catástrofe, no apoio imediato às populações e numa fase posterior de reconstrução, têm preocupado cada vez mais as autoridades oficiais de protecção civil e as operadoras de telecomunicações. O objectivo é o de preparar e adaptarem as suas estruturas para proporcionar uma resposta eficaz a estes episódios. Neste trabalho estuda-se o comportamento de vários fenómenos extremos (eventos críticos) e aproximam-se os dados por uma distribuição de Pareto (Lei de Pareto) ou lei de potência. No final, especula-se sobre a influência dos eventos críticos na utilização das redes móveis. É fundamental que as redes móveis estejam preparadas para lidar com as repercussões de fenómenos deste tipo.
Resumo:
É apresentada uma introdução ao modelo de regressão linear do ponto de vista bayesiano. Para este feito, considera-se o modelo de regressão linear simples, introduzindo-se a hipótese simplificadora de que o parâmetro σ² (variância dos erros) é conhecido. São analisados os casos em que a distribuição a priori é não informativa e em que a distribuição a priori é conjugada (informativa). Por último, e com o objectivo de ilustrar os conceitos e as metodologias referidas, é apresentado um exemplo.
Resumo:
Relatório de Estágio apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Jornalismo
Resumo:
Foram estudadas as funções de distribuição Beta, Gama e Weibull em dez hectares de floresta tropical úmida de terra-firme da Madeireira Dois Mil, localizada no município de Itacoatiara, Amazonas, Brasil. Foram medidas todas as árvores com DAP 20 cm num total de 2.035 indivíduos. Para avaliar a função que melhor ajustou a distribuição de diâmetros nesta floresta foi utilizado o teste de Kolmogorov-Smirnov e a Análise gráfica dos resíduos. O menor valor de "D" do teste Kolmogorov-Smirnov foi encontrado para a função Weibull, seguido da função Beta e por último da função Gama. As funções Weibull e Beta foram significativas ao nível de 5% de probabilidade pelo teste de Kolmogorov-Smirnov, mas a Gama foi não significativa. Pela análise gráfica dos resíduos foi encontrado também melhor resultado para a função Weibull, pois não apresentou pontos discrepantes, ocorrendo para todas as classes uma variância uniforme dos pontos em torno da linha. Desta forma, a função Weibull foi a que apresentou melhor ajuste. A função Beta pode ser utilizada, porém para algumas classes podem ocorrer subestimativas. A função Gama não é recomendada.
Resumo:
1) Chamamos um desvio relativo simples o quociente de um desvio, isto é, de uma diferença entre uma variável e sua média ou outro valor ideal, e o seu erro standard. D= v-v/ δ ou D = v-v2/δ Num desvio composto nós reunimos vários desvios de acordo com a equação: D = + Σ (v - 2)²: o o = o1/ o o Todo desvio relativo é caracterizado por dois graus de liberdade (número de variáveis livres) que indicam de quantas observações foi calculado o numerador (grau de liberdade nf1 ou simplesmente n2) e o denominador (grau de liberdade nf2 ou simplesmente n2). 2) Explicamos em detalhe que a chamada distribuição normal ou de OAUSS é apenas um caso especial que nós encontramos quando o erro standard do dividendo do desvio relativo é calculado de um número bem grande de observações ou determinado por uma fórmula teórica. Para provar este ponto foi demonstrado que a distribuição de GAUSS pode ser derivada da distribuição binomial quando o expoente desta torna-se igual a infinito (Fig.1). 3) Assim torna-se evidente que um estudo detalhado da variação do erro standard é necessário. Mostramos rapidamente que, depois de tentativas preliminares de LEXIS e HELMERT, a solução foi achada pelos estatísticos da escola londrina: KARL PEARSON, o autor anônimo conhecido pelo nome de STUDENT e finalmente R. A. FISHER. 4) Devemos hoje distinguir quatro tipos diferentes de dis- tribuições de acaso dos desvios relativos, em dependência de combinação dos graus de liberdade n1 e n2. Distribuição de: fisher 1 < nf1 < infinito 1 < nf2 < infinito ( formula 9-1) Pearson 1 < nf1 < infinito nf 2= infinito ( formula 3-2) Student nf2 = 1 1 < nf2= infinito ( formula 3-3) Gauss nf1 = 1 nf2= infinito ( formula 3-4) As formas das curvas (Fig. 2) e as fórmulas matemáticas dos quatro tipos de distribuição são amplamente discutidas, bem como os valores das suas constantes e de ordenadas especiais. 5) As distribuições de GAUSS e de STUDENT (Figs. 2 e 5) que correspondem a variação de desvios simples são sempre simétricas e atingem o seu máximo para a abcissa D = O, sendo o valor da ordenada correspondente igual ao valor da constante da distribuição, k1 e k2 respectivamente. 6) As distribuições de PEARSON e FISHER (Fig. 2) correspondentes à variação de desvios compostos, são descontínuas para o valor D = O, existindo sempre duas curvas isoladas, uma à direita e outra à esquerda do valor zero da abcissa. As curvas são assimétricas (Figs. 6 a 9), tornando-se mais e mais simétricas para os valores elevados dos graus de liberdade. 7) A natureza dos limites de probabilidade é discutida. Explicámos porque usam-se em geral os limites bilaterais para as distribuições de STUDENT e GAUSS e os limites unilaterais superiores para as distribuições de PEARSON e FISHER (Figs. 3 e 4). Para o cálculo dos limites deve-se então lembrar que o desvio simples, D = (v - v) : o tem o sinal positivo ou negativo, de modo que é em geral necessário determinar os limites bilaterais em ambos os lados da curva (GAUSS e STUDENT). Os desvios relativos compostos da forma D = O1 : o2 não têm sinal determinado, devendo desprezar-se os sinais. Em geral consideramos apenas o caso o1 ser maior do que o2 e os limites se determinam apenas na extremidade da curva que corresponde a valores maiores do que 1. (Limites unilaterais superiores das distribuições de PEARSON e FISHER). Quando a natureza dos dados indica a possibilidade de aparecerem tanto valores de o(maiores como menores do que o2,devemos usar os limites bilaterais, correspondendo os limites unilaterais de 5%, 1% e 0,1% de probabilidade, correspondendo a limites bilaterais de 10%, 2% e 0,2%. 8) As relações matemáticas das fórmulas das quatro distribuições são amplamente discutidas, como também a sua transformação de uma para outra quando fazemos as necessárias alterações nos graus de liberdade. Estas transformações provam matematicamente que todas as quatro distribuições de acaso formam um conjunto. Foi demonstrado matematicamente que a fórmula das distribuições de FISHER representa o caso geral de variação de acaso de um desvio relativo, se nós extendermos a sua definição desde nfl = 1 até infinito e desde nf2 = 1 até infinito. 9) Existe apenas uma distribuição de GAUSS; podemos calcular uma curva para cada combinação imaginável de graus de liberdade para as outras três distribuições. Porém, é matematicamente evidente que nos aproximamos a distribuições limitantes quando os valores dos graus de liberdade se aproximam ao valor infinito. Partindo de fórmulas com área unidade e usando o erro standard como unidade da abcissa, chegamos às seguintes transformações: a) A distribuição de STUDENT (Fig. 5) passa a distribuição de GAUSS quando o grau de liberdade n2 se aproxima ao valor infinito. Como aproximação ao infinito, suficiente na prática, podemos aceitar valores maiores do que n2 = 30. b) A distribuição de PEARSON (Fig. 6) passa para uma de GAUSS com média zero e erro standard unidade quando nl é igual a 1. Quando de outro lado, nl torna-se muito grande, a distribuição de PEARSON podia ser substituída por uma distribuição modificada de GAUSS, com média igual ale unidade da abcissa igual a 1 : V2 n 1 . Para fins práticos, valores de nl maiores do que 30 são em geral uma aproximação suficiente ao infinito. c) Os limites da distribuição de FISHER são um pouco mais difíceis para definir. I) Em primeiro lugar foram estudadas as distribuições com n1 = n2 = n e verificamos (Figs. 7 e 8) que aproximamo-nos a uma distribuição, transformada de GAUSS com média 1 e erro standard l : Vn, quando o valor cresce até o infinito. Como aproximação satisfatória podemos considerar nl = n2 = 100, ou já nl =r n2 - 50 (Fig. 8) II) Quando n1 e n2 diferem (Fig. 9) podemos distinguir dois casos: Se n1 é pequeno e n2 maior do que 100 podemos substituir a distribuição de FISHER pela distribuição correspondente de PEARSON. (Fig. 9, parte superior). Se porém n1é maior do que 50 e n2 maior do que 100, ou vice-versa, atingimos uma distribuição modificada de GAUSS com média 1 e erro standard 1: 2n1 n3 n1 + n2 10) As definições matemáticas e os limites de probabilidade para as diferentes distribuições de acaso são dadas em geral na literatura em formas bem diversas, usando-se diferentes sistemas de abcissas. Com referência às distribuições de FISHER, foi usado por este autor, inicialmente, o logarítmo natural do desvio relativo, como abcissa. SNEDECOR (1937) emprega o quadrado dos desvios relativos e BRIEGER (1937) o desvio relativo próprio. As distribuições de PEARSON são empregadas para o X2 teste de PEARSON e FISHER, usando como abcissa os valores de x² = D². n1 Foi exposto o meu ponto de vista, que estas desigualdades trazem desvantagens na aplicação dos testes, pois atribui-se um peso diferente aos números analisados em cada teste, que são somas de desvios quadrados no X2 teste, somas des desvios quadrados divididos pelo grau de liberdade ou varianças no F-teste de SNEDECOR, desvios simples no t-teste de STUDENT, etc.. Uma tábua dos limites de probabilidade de desvios relativos foi publicada por mim (BRIEGER 1937) e uma tábua mais extensa será publicada em breve, contendo os limites unilaterais e bilaterais, tanto para as distribuições de STUDENT como de FISHER. 11) Num capítulo final são discutidas várias complicações que podem surgir na análise. Entre elas quero apenas citar alguns problemas. a) Quando comparamos o desvio de um valor e sua média, deveríamos corretamente empregar também os erros de ambos estes valores: D = u- u o2 +²5 Mas não podemos aqui imediatamente aplicar os limites de qualquer das distribuições do acaso discutidas acima. Em geral a variação de v, medida por o , segue uma distribuição de STUDENT e a variação da média V segue uma distribuição de GAUSS. O problema a ser solucionado é, como reunir os limites destas distribuições num só teste. A solução prática do caso é de considerar a média como uma constante, e aplicar diretamente os limites de probabilidade das dstribuições de STUDENT com o grau de liberdade do erro o. Mas este é apenas uma solução prática. O problema mesmo é, em parte, solucionado pelo teste de BEHRENDS. b) Um outro problema se apresenta no curso dos métodos chamados "analysis of variance" ou decomposição do erro. Supomos que nós queremos comparar uma média parcial va com a média geral v . Mas podemos calcular o erro desta média parcial, por dois processos, ou partindo do erro individual aa ou do erro "dentro" oD que é, como explicado acima, uma média balançada de todos os m erros individuais. O emprego deste último garante um teste mais satisfatório e severo, pois êle é baseado sempre num grau de liberdade bastante elevado. Teremos que aplicar dois testes em seguida: Em primeiro lugar devemos decidir se o erro ou difere do êrro dentro: D = δa/δ0 n1 = np/n2 m. n p Se este teste for significante, uma substituição de oa pelo oD não será admissível. Mas mesmo quando o resultado for insignificante, ainda não temos certeza sobre a identidade dos dois erros, pois pode ser que a diferença entre eles é pequena e os graus de liberdade não são suficientes para permitir o reconhecimento desta diferença como significante. Podemos então substituirmos oa por oD de modo que n2 = m : np: D = V a - v / δa Np n = 1 n2 = np passa para D = v = - v/ δ Np n = 1 n2 = m.n p as como podemos incluir neste último teste uma apreciação das nossas dúvidas sobre o teste anterior oa: oD ? A melhor solução prática me parece fazer uso da determinação de oD, que é provavelmente mais exata do que oa, mas usar os graus de liberdade do teste simples: np = 1 / n2 = np para deixar margem para as nossas dúvidas sobre a igualdade de oa a oD. Estes dois exemplos devem ser suficientes para demonstrar que apesar dos grandes progressos que nós podíamos registrar na teoria da variação do acaso, ainda existem problemas importantes a serem solucionados.
Resumo:
As funções de densidade probabilidade Weibull e Hiperbólica foram comparadas quanto a eficiência de descrever a estrutura diamétrica de povoamentos de Teca (Tectona grandis L. f.) submetidas a desbaste. As duas funções com três e quatro parâmetros, foram ajustadas com dados de 98 parcelas permanentes, retangulares (490 m²), instaladas em um povoamento desbastado de Tectona grandis, no Estado do Mato Grosso e medidas durante 10 anos. Os ajustes foram feitos por Máxima Verossimilhança e a aderência foi avaliada pelo teste Kolmogorov-Smirnorv (a = 1%). Também foram comparadas a soma de quadrados dos resíduos (SQR) dos diferentes ajustamentos. Todas as funções apresentaram aderência aos dados pelo teste de Kolmogorov-Smirnorv (a = 1%). A função hiperbólica apresentou menor soma de quadrados de resíduos e menores valores para o teste de aderência. Foi possível concluir que a função hiperbólica foi mais eficiente para descrever a estrutura diametrica dos povoamentos estudados.
Resumo:
O regime eólico de uma região pode ser descrito por distribuição de frequências que fornecem informações e características extremamente necessárias para uma possível implantação de sistemas eólicos de captação de energia na região e consequentes aplicações no meio rural em regiões afastadas. Estas características, tais como a velocidade média anual, a variância das velocidades registradas e a densidade da potência eólica média horária, podem ser obtidas pela frequência de ocorrências de determinada velocidade, que por sua vez deve ser estudada através de expressões analíticas. A função analítica mais adequada para distribuições eólicas é a função de densidade de Weibull, que pode ser determinada por métodos numéricos e regressões lineares. O objetivo deste trabalho é caracterizar analítica e geometricamente todos os procedimentos metodológicos necessários para a realização de uma caracterização completa do regime eólico de uma região e suas aplicações na região de Botucatu - SP, visando a determinar o potencial energético para implementação de turbinas eólicas. Assim, foi possível estabelecer teoremas relacionados com a forma de caracterização do regime eólico, estabelecendo a metodologia concisa analiticamente para a definição dos parâmetros eólicos de qualquer região a ser estudada. Para o desenvolvimento desta pesquisa, utilizou-se um anemômetro da CAMPBELL.
Resumo:
Internet modificó la forma de ejercer el periodismo. Su arribo a los medios de comunicación como forma efectiva e interactiva para el mejoramiento del oficio informativo, alteró su ejercicio en sus 3 puntos: enseñanza, ejecución y resultado.