1000 resultados para Distribuição (Teoria da probabilidade)


Relevância:

40.00% 40.00%

Publicador:

Resumo:

O objetivo deste trabalho foi verificar o ajuste das séries de dados de radiação solar global média decendial, de 22 municípios do Estado do Rio Grande do Sul, às funções de distribuições de probabilidade normal, log-normal, gama, gumbel e weibull. Aplicou-se o teste de aderência de Kolmogorov-Smirnov, nas 792 séries de dados (22 municípios x 36 decêndios) de radiação solar global média decendial, para verificar o ajuste dos dados às distribuições normal, log-normal, gama, gumbel e weibull, totalizando 3.960 testes. Os dados decendiais de radiação solar global média se ajustam às funções de distribuições de probabilidade normal, log-normal, gama, gumbel e weibull, e apresentam melhor ajuste à função de distribuição de probabilidade normal.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O objetivo deste trabalho foi determinar regiões homogêneas baseadas na sazonalidade da precipitação pluvial mensal e a distribuição de probabilidade que melhor se ajusta à precipitação dessas regiões no Estado de Táchira, Venezuela. Utilizaram-se valores da precipitação mensal de 25 estações climatológicas, que apresentam séries entre 24 e 62 anos. Aplicou-se o método de Ward no agrupamento dos meses com precipitação pluvial mensal similar e também no das localidades com precipitação similar (regiões homogêneas). Avaliaram-se os ajustes das funções de densidade exponencial, gama, Gumbel, normal, log-normal a três parâmetros, e Weibull aos dados observados de precipitação mensal. A variação sazonal da precipitação no Estado de Táchira apresenta três períodos estatisticamente definidos como: seco, transição e úmido. Os períodos seco e úmido apresentam quatro regiões homogêneas de precipitação mensal similar e o de transição três. No período seco, a distribuição de probabilidade recomendada para as estimativas mensais é a exponencial, com exceção da região homogênea com os maiores valores de precipitação pluvial do período, onde a gama se sobressai. No período chuvoso, em todas as regiões homogêneas, a distribuição normal predomina, com exceção de agosto, em que a gama prevalece. Já nos meses de transição, destacam-se as distribuições gama, em abril, e normal, em novembro.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta nota técnica foi redigida com o objetivo de apresentar o método momentos-L, que tem sido proposto para o cálculo dos parâmetros das principais distribuições de probabilidades utilizadas em estudos hidrológicos. Também foi seu objetivo inferir sobre o tipo de distribuição estatística mais empregada em aplicações específicas. Com base na revisão, pôde-se concluir que, ao analisar dados de eventos extremos, é recomendável testar a aderência, pelo menos, das seguintes distribuições de três parâmetros: Generalizada Logística, Generalizada de Eventos Extremos, Generalizada Normal, Pearson tipo III e Generalizada de Pareto. Concluiu-se também que os parâmetros dessas distribuições, e seus quantis, devem ser estimados utilizando os momentos-L derivados dos momentos ponderados por probabilidade.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O presente trabalho foi desenvolvido com o objetivo de estudar as características da erosividade da chuva em Seropédica (RJ), quanto à sua distribuição, probabilidade de ocorrência e período de retorno. Para isso, foi utilizada uma série mensal de dados pluviométricos referente ao período de 1973 a 2002 e, com o auxílio de modelos ajustados para a região, foi possível obter os índices mensais e anuais de erosividade EI30 e KE>25. Com base nos resultados obtidos, foi possível concluir que: a) os valores médios anuais de EI30 e de KE>25 foram de 5.960,4 MJ mm ha-1 h-1 e de 99,2 MJ ha-1, respectivamente, e estão associados a períodos de retorno de 1,97 ano, com uma probabilidade de ocorrência de 50,82%; e b) valores anuais de EI30 da ordem de 5.995; 7.262; 7.684; 7.895; 8.022 e 8.064 MJ mm ha-1 h-1 e de KE>25 da ordem de 99,8; 122,7; 130,3; 134,1; 136,4 e 137,1 MJ ha-1, são esperados, em média, uma vez a cada 2; 5; 10; 20; 50 e 100 anos, respectivamente.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho apresenta um método de apreçamento não paramétrico de derivativos de taxa de juros baseado em teoria da informação. O apreçamento se dá através da distribuição de probabilidade na medida futura, estimando aquela que mais se aproxima da distribuição objetiva. A teoria da informação sugere a forma de medir esta distância. Especificamente, esta dissertação generaliza o método de apreçamento canônico criado por Stutzer (1996), também baseado na teoria da informação, para o caso de derivativos de taxas de juros usando a classe Cressie-Read como critério de distância entre distribuições de probabilidade.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The consumption of energy on the planet is currently based on fossil fuels. They are responsible for adverse effects on the environment. Renewables propose solutions for this scenario, but must face issues related to the capacity of the power supply. Wind energy offshore emerging as a promising alternative. The speed and stability are greater winds over oceans, but the variability of these may cause inconvenience to the generation of electric power fluctuations. To reduce this, a combination of wind farms geographically distributed was proposed. The greater the distance between them, the lower the correlation between the wind velocity, increasing the likelihood that together achieve more stable power system with less fluctuations in power generation. The efficient use of production capacity of the wind park however, depends on their distribution in marine environments. The objective of this research was to analyze the optimal allocation of wind farms offshore on the east coast of the U.S. by Modern Portfolio Theory. The Modern Portfolio Theory was used so that the process of building portfolios of wind energy offshore contemplate the particularity of intermittency of wind, through calculations of return and risk of the production of wind farms. The research was conducted with 25.934 observations of energy produced by wind farms 11 hypothetical offshore, from the installation of 01 simulated ocean turbine with a capacity of 5 MW. The data show hourly time resolution and covers the period between January 1, 1998 until December 31, 2002. Through the Matlab R software, six were calculated minimum variance portfolios, each for a period of time distinct. Given the inequality of the variability of wind over time, set up four strategies rebalancing to evaluate the performance of the related portfolios, which enabled us to identify the most beneficial to the stability of the wind energy production offshore. The results showed that the production of wind energy for 1998, 1999, 2000 and 2001 should be considered by the portfolio weights calculated for the same periods, respectively. Energy data for 2002 should use the weights derived from the portfolio calculated in the previous time period. Finally, the production of wind energy in the period 1998-2002 should also be weighted by 1/11. It follows therefore that the portfolios found failed to show reduced levels of variability when compared to the individual production of wind farms hypothetical offshore

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Currently, one of the biggest challenges for the field of data mining is to perform cluster analysis on complex data. Several techniques have been proposed but, in general, they can only achieve good results within specific areas providing no consensus of what would be the best way to group this kind of data. In general, these techniques fail due to non-realistic assumptions about the true probability distribution of the data. Based on this, this thesis proposes a new measure based on Cross Information Potential that uses representative points of the dataset and statistics extracted directly from data to measure the interaction between groups. The proposed approach allows us to use all advantages of this information-theoretic descriptor and solves the limitations imposed on it by its own nature. From this, two cost functions and three algorithms have been proposed to perform cluster analysis. As the use of Information Theory captures the relationship between different patterns, regardless of assumptions about the nature of this relationship, the proposed approach was able to achieve a better performance than the main algorithms in literature. These results apply to the context of synthetic data designed to test the algorithms in specific situations and to real data extracted from problems of different fields

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Currently great emphasis is given for seed metering that assist rigorous demands in relation to longitudinal distribution of seeds, as well as to the index of fails in spacing laws, breaks and double seeds. The evaluation of these variable demands much time and work of attainment of data and processing. The objective of this work went propose to use of graphs of normal probability, facilitating the treatment of the data and decreasing the time of processing. The evaluation methodology consists in the counting of broken seeds, fail spacing and double seeds through the measure of the spacing among seeds, preliminary experiments through combinations of treatments had been carried through whose factors of variation were the level of the reservoir of seeds, the leveling of the seed metering, the speed of displacement and dosage of seeds. The evaluation was carried through in two parts, first through preliminary experiments for elaboration of the graphs of normal probability and later in experiments with bigger sampling for evaluation of the influence of the factors most important. It was done the evaluation of seed metering of rotating internal ring, and the amount of necessary data for the evaluation was very decreased through of the graphs of normal probability that facilitated to prioritize only the significant factors. The dosage of seeds was factor that more important because factor (D) have greater significance.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In this work we study a new risk model for a firm which is sensitive to its credit quality, proposed by Yang(2003): Are obtained recursive equations for finite time ruin probability and distribution of ruin time and Volterra type integral equation systems for ultimate ruin probability, severity of ruin and distribution of surplus before and after ruin

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Um evento extremo de precipitação ocorreu na primeira semana do ano 2000, de 1º a 5 de janeiro, no Vale do Paraíba, parte leste do Estado de São Paulo, Brasil, causando enorme impacto socioeconômico, com mortes e destruição. Este trabalho estudou este evento em 10 estações meteorológicas selecionadas que foram consideradas como aquelas tendo dados mais homogêneos do Que outras estações na região. O modelo de distribuição generalizada de Pareto (DGP) para valores extremos de precipitação de 5 dias foi desenvolvido, individualmente para cada uma dessas estações. Na modelagem da DGP, foi adotada abordagem não-estacionaria considerando o ciclo anual e tendência de longo prazo como co-variaveis. Uma conclusão desta investigação é que as quantidades de precipitação acumulada durante os 5 dias do evento estudado podem ser classificadas como extremamente raras para a região, com probabilidade de ocorrência menor do que 1% para maioria das estações, e menor do que 0,1% em três estações.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This paper uses a theoretical schumpeterian and kaleckian to analyze the dynamic effects of innovation on competitiveness and sectoral functional income distribution. By affecting the mark-up and market power successful innovations allow the expansion of the asymmetries between firms, intensifying competition and promoting mismatches in sectoral income distribution between wages and profits.