68 resultados para Distribuições de probabilidades


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enquanto decresce o número de idéias de novos negócios, ao passarmos de um estágio para o subsequnte, aumentamos o volume de informações coligidas para cada projeto em estudo, com o intuito de subsidiar a tomada de decisão de dar continuidade ou descontinuar o processo de análise e avaliação de acordo com as expectativas e probabilidades de tornar aquele novo produto um sucesso comercial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Risco operacional precisa ser mensurado pois afeta o valor e a sobrevivência das empresas. Ocupa o foco de pesquisadores, profissionais do sistema financeiro, reguladores e supervisores bancários, no esforço de controlar esse risco. Pesquisamos quatro formas de utilizar a abordagem de distribuição de perdas para a quantificação do risco operacional. Utilizamos um conjunto de dois anos de perdas operacionais de um banco brasileiro de grande porte para fazermos a aplicação e o teste dessa abordagem em quatro variantes. A variante que utiliza exclusivamente distribuições empíricas foi a mais adequada para medir o risco operacional e calcular o capital econômico a partir dos dados disponíveis. Na variante que quantifica o risco operacional ajustando distribuições teóricas às perdas, mostramos que as curvas de Johnson são especialmente flexíveis e de pronta implementação. Também, ajustamos as curvas de Johnson à distribuição de perdas operacionais e à distribuição amostral dos valores de capital econômico. Conhecer a distribuição do capital permite que tenhamos ideia da precisão com que estimamos o capital econômico e abre o caminho para futuros estudos teóricos da distribuição do Var operacional. Encontramos a distribuição dos valores de capital econômico ao invés de calcularmos um valor único de capital. Comparamos dois métodos, utilizados para estabelecer distribuições de valores de capital. Ao conduzirmos a pesquisa, notamos ser possível justificarmos pontos de verificação da auditoria interna sobre a base de dados, a modelagem e a gestão de risco operacional. Com a pesquisa produzimos sugestões para a supervisão e regulação dos bancos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seguros de carteiras proporcionam aos gestores limitar o risco de downside sem renunciar a movimentos de upside. Nesta dissertação, propomos um arcabouço de otimização de seguro de carteira a partir de um modelo híbrido frequentista-Bayesiano com uso de derivativos. Obtemos a distribuição conjunta de retornos regulares através de uma abordagem estatística frequentista, uma vez removidos os outliers da amostra. A distribuição conjunta dos retornos extremos, por sua vez, é modelada através de Redes Bayesianas, cuja topologia contempla os eventos que o gestor considera crítico ao desempenho da carteira. Unindo as distribuições de retornos regulares e extremos, simulamos cenários futuros para a carteira. O seguro é, então, otimizado através do algoritmo Evolução Diferencial. Mostramos uma aplicação passo a passo para uma carteira comprada em ações do Ibovespa, utilizando dados de mercado entre 2008 e 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas duas últimas décadas, a estimação de probabilidade vem ocupando um lugar de destaque em periódicos estrangeiros, relativos à estatística, administração e psicologia. Tal fato vem ocorrendo porque a matéria é aplicável diretamente a problemas que envolvam o conceito de decisão. É o caso típico, por exemplo, da estimação da probabilidade de sucesso relativa ao lançamento de um produto novo no mercado, ou ainda da probabilidade de que a taxa de retorno sobre um investimento atinja determinados níveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As perdas trabalhistas nas Instituições Financeiras representam um valor considerável que devem ser consideradas no modelo de capital regulatório para risco operacional, segundo Basileia. A presente dissertação demonstra uma forma de mensurar o risco às quais as Instituições Financeiras estão expostas nesse tipo de perdas. Diversos tipos de distribuições são analisados conforme sua aderência tanto na frequência como na severidade das perdas. Para os valores de frequência, foi obtida uma amostra de dados real, enquanto para a severidade foram utilizados valores obtidos de relatórios de instituto de pesquisa que serviram de insumo para os cálculos de ações trabalhistas conforme legislação brasileira vigente na CLT (Consolidação das Leis do Trabalho).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O propósito deste Estudo de Caso é descrever, comparar e interpretar informações que nos permita confirmar a importância da utilização de uma ferramenta de gestão durante os processos de negociação. Com a ajuda destas ferramentas, negociadores poderão maximizar as probabilidades de sucesso em suas negociações, dada a visão estratégica que estas oferecem nos estágios de preparação, desenvolvimento e conclusão das negociações. Quando utilizada adequadamente, a ferramenta dará aos negociadores uma visão mais ampla em cada etapa, muito além de somente pontos técnicos e/ou comerciais inerentes a um determinado projeto, os quais comumente são considerados. Para suportar este Estudo de Caso, foi realizada uma Pesquisa Qualitativa junto a profissionais de vendas de várias Empresas do Setor de Telcomunicações no Brasil, a qual vem apoiada por material teórico de autores de referência, objetivando confortar a percepção limitada pelas próprias características da pesquisa qualitativa. Este estudo avalia, diagnostica e recomenda soluções de gestão de negociações, à luz da técnica da criação de consensos suportadas e conduzidas pela ferramenta MNC (Matriz de Negociações Complexas), tendo como base os resultados finais de uma negociação comercial ocorrida em finais de 2003 entre duas grandes multinacionais do Setor de Telecomunicações e cujo principal objetivo na época era a obtenção de um contrato para expansão e modernização de uma Rede CDMA WLL de Telefonia Fixa Celular pertencente a uma Operadora. No decorrer da negociação a qual é abordada como exemplo, não foram utilizadas técnicas semelhantes àquelas sustentadas pela MNC, importante ferramenta de gestão de negociação, a qual já vem sendo utilizada inclusive pelo CDES (Conselho de Desenvolvimento Econômico e Social) do Brasil, nem tampouco nenhuma outra ferramenta de gestão. Este trabalho objetiva demonstrar que sua aplicação na organização, acompanhamento, diagnose, condução e conclusão de negociações, quaisquer que sejam estas, pode aumentar a probabilidade de êxito, trazendo para as Organizações, Instituições ou para aqueles que a adotarem, maior eficácia na condução e alcance dos resultados finais almejados. É apresentada uma análise diagnóstica dos parâmetros envolvidos na negociação em questão, passando por aqueles que estavam em desacordo com a ferramenta como o Contexto, as Opções, a Comunicação, o Relacionamento, as Concessões, o Facilitador, etc., e que foram considerados inconsistentes ou que eventualmente tenham passado despercebidos pelos negociadores, apresentando como conclusão os resultados comparativos entre a negociação utilizando-se os parâmetros da MNC e aqueles obtidos sem a utilização dos mesmos. Este estudo procura sustentar que a adoção desta ferramenta possui grande importância para a melhoria de desempenho durante os processos de negociação, não significando todavia, uma garantia de êxito sobre todas as negociações nas quais os negociadores estiverem envolvidos. Autores como Roger Fisher e Willian Ury (1981) sustentam que as pessoas negociam para obter um resultado melhor do que o que obteriam caso não negociassem. Desta forma, pode-se notar que de maneira direta ou indireta, no decorrer de nossas vidas sempre estivemos e a cada dia novamente estaremos nos deparando com a necessidade em participar de algum novo processo de negociação, diariamente, desde o mais básico ao mais complexo. A negociação passa a ser para o indivíduo uma ciência extremamente necessária e ao mesmo tempo complexa, atraente e sedutora, cuja percepção da necessidade de desenvolvimento dessas habilidades pode muitas vezes passar despercebida por muitos no transcorrer de suas vidas. As conclusões deste estudo de caso têm a intenção de demonstrar também que o sucesso de uma negociação nem sempre se resumirá em atingir os objetivos inicialmente propostos na MNC. Outros aspectos considerados por esta metodologia, se melhor ou pior aplicados, também poderão contribuir para o eventual sucesso ou fracasso de uma negociação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nós abordamos a existência de distribuições estacionárias de promessas de utilidade em um modelo Mirrlees dinâmico quando o governo tem record keeping imperfeito e a economia é sujeita a choques agregados. Quando esses choques são iid, provamos a existência de um estado estacionário não degenerado e caracterizamos parcialmente as alocações estacionárias. Mostramos que a proporção do consumo agregado é invariante ao estado agregado. Quando os choques agregados apresentam persistência, porém, alocações eficientes apresentam dependência da história de choques e, em geral, uma distribuição invariante não existe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo do impacto das negociações algorítmicas no processo de descoberta de preços no mercado de câmbio. Foram utilizados dados de negociação de alta frequência para contratos futuros de reais por dólar (DOL), negociados na Bolsa de Valores de São Paulo no período de janeiro a junho de 2013. No intuito de verificar se as estratégias algorítmicas de negociação são mais dependentes do que as negociações não algorítmicas, foi examinada a frequência em que algoritmos negociam entre si e comparou-se a um modelo benchmark que produz probabilidades teóricas para diferentes tipos de negociadores. Os resultados obtidos para as negociações minuto a minuto apresentam evidências de que as ações e estratégias de negociadores algorítmicos parecem ser menos diversas e mais dependentes do que aquelas realizadas por negociadores não algorítmicos. E para modelar a interação entre a autocorrelação serial dos retornos e negociações algorítmicas, foi estimado um vetor autorregressivo de alta frequência (VAR) em sua forma reduzida. As estimações mostram que as atividades dos algoritmos de negociação causam um aumento na autocorrelação dos retornos, indicando que eles podem contribuir para o aumento da volatilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho busca identificar os efeitos de mudanças nos spreads bancários sobre as distribuições de renda, riqueza e consumo, bem como o bem-estar da economia. Para tal, é desenvolvido um modelo de agentes heterogêneos com mercados incompletos e escolha ocupacional, no qual a informalidade de firmas e trabalhadores é um canal de transmissão relevante. O principal resultado encontrado é que reduções no spread para pessoa jurídica aumenta a proporção de empreendedores e trabalhadores formais na economia, de forma que o tamanho do setor informal diminui. Os efeitos sobre a desigualdade, no entanto, são ambíguos, e dependerão da dinâmica salarial e das transferências do governo. Reduções no spread para pessoa física levam a uma redução nos indicadores de desigualdade, em detrimento do consumo e bem-estar agregados. Calibrando o modelo para o Brasil para 2003-2012, é possível encontrar resultados em linha com a recente queda na informalidade e no diferencial salarial entre trabalhadores formais e informais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta de três artigos. No primeiro artigo, "Simple Contracts under Simultaneous Adverse Selection and Moral Hazard", é considerado um problema de principal-agente sob a presença simultânea dos problemas de risco moral e seleção adversa, em que a dimensão de seleção adversa se dá sobre as distribuições de probabilidade condicionais as ações do agente. No segundo artigo, "Public-Private Partnerships in the Presence of Adverse Selection" é analisada a otimalidade de parcerias público-privadas sob a presença de seleção adversa. No terceiro artigo, "Regulation Under Stock Market Information Disclosure", por sua vez, é considerado o problema da regulação de firmas de capital aberto, onde as firmas possuem incentivos para mandar sinais opostos para o regulador e o mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cognition is a core subject to understand how humans think and behave. In that sense, it is clear that Cognition is a great ally to Management, as the later deals with people and is very interested in how they behave, think, and make decisions. However, even though Cognition shows great promise as a field, there are still many topics to be explored and learned in this fairly new area. Kemp & Tenembaum (2008) tried to a model graph-structure problem in which, given a dataset, the best underlying structure and form would emerge from said dataset by using bayesian probabilistic inferences. This work is very interesting because it addresses a key cognition problem: learning. According to the authors, analogous insights and discoveries, understanding the relationships of elements and how they are organized, play a very important part in cognitive development. That is, this are very basic phenomena that allow learning. Human beings minds do not function as computer that uses bayesian probabilistic inferences. People seem to think differently. Thus, we present a cognitively inspired method, KittyCat, based on FARG computer models (like Copycat and Numbo), to solve the proposed problem of discovery the underlying structural-form of a dataset.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Theories can be produced by individuals seeking a good reputation of knowledge. Hence, a significant question is how to test theories anticipating that they might have been produced by (potentially uninformed) experts who prefer their theories not to be rejected. If a theory that predicts exactly like the data generating process is not rejected with high probability then the test is said to not reject the truth. On the other hand, if a false expert, with no knowledge over the data generating process, can strategically select theories that will not be rejected then the test can be ignorantly passed. These tests have limited use because they cannot feasibly dismiss completely uninformed experts. Many tests proposed in the literature (e.g., calibration tests) can be ignorantly passed. Dekel and Feinberg (2006) introduced a class of tests that seemingly have some power of dismissing uninformed experts. We show that some tests from their class can also be ignorantly passed. One of those tests, however, does not reject the truth and cannot be ignorantly passed. Thus, this empirical test can dismiss false experts.We also show that a false reputation of knowledge can be strategically sustained for an arbitrary, but given, number of periods, no matted which test is used (provided that it does not reject the truth). However, false experts can be discredited, even with bounded data sets, if the domain of permissible theories is mildly restricted.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo reporta o resultado de uma pesquisa sobre a reação de curto prazo do consumidor frente a ruptura. Na pesquisa, os autores investigam a relação entre a reação do consumidor frente à ruptura e diversas variáveis independentes listadas nas categorias: situações de compras, características de consumidores e percepção de tipo de loja. Os resultados mostraram que $ possível identificar a reação do consumidor frente à ruptura e que $ possível estimar a probabilidades de um individuo sair da loja a presença de certas características. Os autores concluem que um instrumento desta natureza pode contribuir para melhorar a qualidade das decisões no varejo e ajudar os profissionais de logística a calcular o custo de ruptura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.