968 resultados para Distribuições de probabilidade


Relevância:

70.00% 70.00%

Publicador:

Resumo:

O principal objetivo desta dissertação é analisar a classe de distribuições de Panjer, algumas das suas extensões e a utilização destas na modelação do risco coletivo. Inicialmente, são referidos alguns momentos históricos importantes no estudo da família de distribuições de Panjer e no desenvolvimento do modelo do risco coletivo. Apresentamos também alguns artigos publicados nos últimos vinte anos sobre estas temáticas. Depois, são apresentados os conceitos e instrumentos fundamentais na construção das extensões da família de Panjer e na construção recursiva das distribuições do modelo do risco coletivo. Tais conceitos e instrumentos incluem a função geradora de probabilidades, a transformada de Laplace, a mistura e modi cação de distribuições de probabilidade. Seguidamente, são caracterizadas as distribuições discretas pertencentes à classe de Panjer, distribuições essas denominadas de distribuições de contagem básicas, de nidas a recursão de Panjer e duas suas extensões e apresentadas as distribuições pertencentes a cada uma delas. Finalmente, é apresentado o modelo do risco coletivo, designadamente o modelo composto das indemnizações agregadas, cujas distribuições, neste caso, são construídas através do método recursivo. São também expostos dois métodos de construção de distribuições aritméticas. A dissertação termina com a dedução de alguns modelos particulares para o risco coletivo, obtidos com o auxílio dos programas informáticos Mathematica e R.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

O principal objetivo desta dissertação é analisar a classe de distribuições de Panjer, algumas das suas extensões e a utilização destas na modelação do risco coletivo. Inicialmente, são referidos alguns momentos históricos importantes no estudo da família de distribuições de Panjer e no desenvolvimento do modelo do risco coletivo. Apresentamos também alguns artigos publicados nos últimos vinte anos sobre estas temáticas. Depois, são apresentados os conceitos e instrumentos fundamentais na construção das extensões da família de Panjer e na construção recursiva das distribuições do modelo do risco coletivo. Tais conceitos e instrumentos incluem a função geradora de probabilidades, a transformada de Laplace, a mistura e modi cação de distribuições de probabilidade. Seguidamente, são caracterizadas as distribuições discretas pertencentes à classe de Panjer, distribuições essas denominadas de distribuições de contagem básicas, de nidas a recursão de Panjer e duas suas extensões e apresentadas as distribuições pertencentes a cada uma delas. Finalmente, é apresentado o modelo do risco coletivo, designadamente o modelo composto das indemnizações agregadas, cujas distribuições, neste caso, são construídas através do método recursivo. São também expostos dois métodos de construção de distribuições aritméticas. A dissertação termina com a dedução de alguns modelos particulares para o risco coletivo, obtidos com o auxílio dos programas informáticos Mathematica e R.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A síndrome de imunodeficiência adquirida (AIDS) é um problema de saúde pública que alcançou grandes proporções. Na ausência de uma vacina eficaz ou tratamento efetivo para a doença, esforços têm ser concentrados na prevenção. As políticas de saúde adotadas pelo governo brasileiro têm resultado em estabilização da enfermidade no país na faixa etária mais jovem, muito embora essa tendência não venha acontecendo nos outros grupos etários mais velhos. Verificar a incidência da AIDS em indivíduos idosos, no município de Niterói, RJ, de acordo com sexo, idade, período e coorte de nascimento de 1982-2011, além de analisar a dinâmica espacial da epidemia de AIDS em idosos (indivíduos com 60 anos ou mais) no estado do Rio de Janeiro no período de 1997-2011, são os objetivos deste estudo. Os dados da população por idade, sexo e grupo, foram obtidos a partir de: censos populacionais, contagem da população (1996), projeções intercensitárias, informações do Sistema de Informações de Agravos de Notificação, de Mortalidade e de Controle de Exames Laboratoriais. As taxas de incidência por 100 000 foram calculadas para as unidades geográficas através da contagem do número de novos casos de AIDS em indivíduos com 60 anos ou mais e tamanho da população do município no mesmo grupo etário. Para avaliar a dependência espacial das taxas foi calculado o índice de Moran global. Moran Mapas foram construídos para mostrar regimes de correlação espacial potencialmente distintos em diferentes subregiões. Distribuições de probabilidade e método Bayes empírico foram aplicados para a correção das taxas de incidência da AIDS. Ocorreram 575 casos de AIDS em residentes de Niterói com ≥50 anos de idade. Tendência crescente de taxas de incidência ao longo do tempo foi detectada em ambos os sexos. No estudo da dinâmica espacial da incidência da AIDS em idosos, Rio de Janeiro, no período de 1997 a 2011, as taxas entre homens e mulheres permaneceram flutuantes ao longo de todo o período. Não foi possível detectar correlação significativa global, usando o índice global de Moran. Na costa sudeste do Estado, onde se localizam as grandes áreas metropolitanas (Rio de Janeiro e Niterói), observaram-se grupos de cidades com taxas de até 20 casos por 100 000 hab. Esta concentração se torna mais pronunciada em períodos subsequentes, quando parece ocorrer propagação gradual da epidemia da costa sul até o norte do Rio de Janeiro.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Neste documento, são investigados vários métodos usados na inteligência artificial, com o objetivo de obter previsões precisas da evolução dos mercados financeiros. O uso de ferramentas lineares como os modelos AR, MA, ARMA e GARCH têm muitas limitações, pois torna-se muito difícil adaptá-los às não linearidades dos fenómenos que ocorrem nos mercados. Pelas razões anteriormente referidas, os algoritmos como as redes neuronais dinâmicas (TDNN, NARX e ESN), mostram uma maior capacidade de adaptação a estas não linearidades, pois não fazem qualquer pressuposto sobre as distribuições de probabilidade que caracterizam estes mercados. O facto destas redes neuronais serem dinâmicas, faz com que estas exibam um desempenho superior em relação às redes neuronais estáticas, ou outros algoritmos que não possuem qualquer tipo de memória. Apesar das vantagens reveladas pelas redes neuronais, estas são um sistema do tipo black box, o que torna muito difícil extrair informação dos pesos da rede. Isto significa que estes algoritmos devem ser usados com precaução, pois podem tornar-se instáveis.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho apresenta um método de apreçamento não paramétrico de derivativos de taxa de juros baseado em teoria da informação. O apreçamento se dá através da distribuição de probabilidade na medida futura, estimando aquela que mais se aproxima da distribuição objetiva. A teoria da informação sugere a forma de medir esta distância. Especificamente, esta dissertação generaliza o método de apreçamento canônico criado por Stutzer (1996), também baseado na teoria da informação, para o caso de derivativos de taxas de juros usando a classe Cressie-Read como critério de distância entre distribuições de probabilidade.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tese é composta de três artigos. No primeiro artigo, "Simple Contracts under Simultaneous Adverse Selection and Moral Hazard", é considerado um problema de principal-agente sob a presença simultânea dos problemas de risco moral e seleção adversa, em que a dimensão de seleção adversa se dá sobre as distribuições de probabilidade condicionais as ações do agente. No segundo artigo, "Public-Private Partnerships in the Presence of Adverse Selection" é analisada a otimalidade de parcerias público-privadas sob a presença de seleção adversa. No terceiro artigo, "Regulation Under Stock Market Information Disclosure", por sua vez, é considerado o problema da regulação de firmas de capital aberto, onde as firmas possuem incentivos para mandar sinais opostos para o regulador e o mercado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Bayesian networks are powerful tools as they represent probability distributions as graphs. They work with uncertainties of real systems. Since last decade there is a special interest in learning network structures from data. However learning the best network structure is a NP-Hard problem, so many heuristics algorithms to generate network structures from data were created. Many of these algorithms use score metrics to generate the network model. This thesis compare three of most used score metrics. The K-2 algorithm and two pattern benchmarks, ASIA and ALARM, were used to carry out the comparison. Results show that score metrics with hyperparameters that strength the tendency to select simpler network structures are better than score metrics with weaker tendency to select simpler network structures for both metrics (Heckerman-Geiger and modified MDL). Heckerman-Geiger Bayesian score metric works better than MDL with large datasets and MDL works better than Heckerman-Geiger with small datasets. The modified MDL gives similar results to Heckerman-Geiger for large datasets and close results to MDL for small datasets with stronger tendency to select simpler network structures

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)