657 resultados para DISTRIBUIÇÕES UNIFORMES
Resumo:
O impacto da adoção de modelos de excelência em gestão com foco na qualidade sobre o desempenho de empresas é um tema recorrente em estratégia de operações. Segundo a teoria sobre o tema, as empresas que adotam estes modelos deveriam observar taxas de lucratividade ou crescimento superiores a outras empresas. Esta dissertação buscou evidenciar, empiricamente, estes impactos para empresas brasileiras que passaram para a segunda fase ou foram finalistas do Prêmio Nacional da Qualidade de 2000 a 2004. O estudo foi feito sobre uma amostra de 1727 observações de 426 empresas de 15 setores, das quais 23 haviam participado do Prêmio Nacional da Qualidade, e 13 haviam passado para sua segunda fase e 6 foram finalistas. Os dados foram obtidos das edições do Balanço Anual da Gazeta Mercantil de 2000 a 2004 e da Fundação Nacional da Qualidade. A técnica de análise incluiu análises de distribuições, testes de média, testes não paramétricos e regressões lineares. O estudo encontrou grande variância de resultados de lucratividade e crescimento, o que ressalta sua importância gerencial. O principal achado do estudo foi que empresas brasileiras que adotam o modelo apresentaram lucratividade acima da média, como foi encontrado por diversos estudos em outros países. No entanto, as empresas brasileiras que adotam o modelo apresentaram crescimento em linha com a média de seus setores. Enquanto a maior parte dos estudos empíricos de outros países mostra uma relação positiva entre a adoção do modelo e o crescimento de empresas, existem teorias que mostram possíveis efeitos adversos da adoção deste modelo de gerenciamento sobre a capacidade de empresas gerarem inovações radicais.
Resumo:
A utilização de reações nucleares ressonantes estreitas em baixas energias é uma ferramenta importante para a determinação de distribuições de elementos leves em filmes finos com resolução em profundidade subnanométrica. O objetivo do trabalho descrito ao longo da presente dissertação é aprimorar os métodos utilizados para a aquisição e interpretação das curvas experimentais. A obtenção das curvas experimentais consiste na detecção dos produtos das reações nucleares em função da energia das partículas incidentes, fazendo necessária variar a energia das partículas do feixe em passos discretos no intervalo desejado. Neste trabalho implementou-se um sistema automático para o controle e incremento da energia do feixe e monitoramento dos produtos das reações nucleares. Esse sistema de varredura automático de energia, além de aumentar consideravelmente a velocidade da medida, aumenta a qualidade das curvas experimentais obtidas. Para a interpretação das curvas de excitação experimentais, foi implementado um programa em linguagem de programação C, baseado na teoria estocástica, que permite simular numericamente as curvas de excitação. Para demonstrar a sua funcionalidade o método desenvolvido foi aplicado para verificar a estabilidade termodinâmica de filmes dielétricos ultrafinos depositados sobre silício, que foram posteriormente nitretados por plasma.
Resumo:
A avaliação de desempenho de fundos de investimentos é, tradicionalmente, realizada utilizando-se o Índice de Sharpe, que leva em consideração apenas os dois primeiros momentos da distribuição de retornos (média e variância), assumindo as premissas de normalidade da distribuição de retornos e função quadrática de utilidade do investidor. Entretanto, é sabido que uma função de utilidade quadrática é inconsistente com o comportamento do investidor e que as distribuições de retornos de determinados fundos, como os hedge funds, estão longe de serem uma distribuição normal. Keating e Shadwick (2002a, 2002b) introduziram uma nova medida denominada Ômega que incorpora todos os momentos da distribuição, e tem a vantagem de não ser necessário fazer premissas sobre a distribuição dos retornos nem da função de utilidade de um investidor avesso ao risco. O objetivo deste trabalho é verificar se esta medida Ômega tem um poder de previsibilidade maior que outras medidas de avaliação de desempenho, como o Índice de Sharpe e o Índice de Sortino. O estudo empírico indicou que a medida Ômega gera um ranqueamento, na maioria das vezes, relativamente diferente das outras medidas testadas. Apesar das carteiras formadas com base na medida Ômega terem gerado um retorno médio maior que o retorno médio das carteiras formadas pelas outras medidas em praticamente todos os testes, esta diferença entre as médias dos retornos só foi significativa em alguns casos. Mesmo assim, há uma leve indicação de que a medida Ômega é a mais apropriada para utilização do investidor ao fazer a avaliação de desempenho dos fundos de investimentos.
Resumo:
A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
Existe uma percepção generalizada de que os professores públicos brasileiros são mal remunerados. Dadas a relevância dos professores para o processo de ensino e a importância da remuneração como um incentivo à entrada, permanência e melhoria do desempenho de na carreira do magistério, o objetivo deste trabalho é avaliar a atratividade dos salários que os professores recebem nas escolas públicas de ensino básico brasileiras. Para tanto, foi utilizada a decomposição de Oaxaca (1973) aplicada aos dados da PNAD (Pesquisa Nacional por Amostra de Domicílios) para o período de 1995 a 2006 para calcular os diferenciais entre o salário desses professores públicos e os rendimentos que eles receberiam se estivessem em um dos seguintes grupos de comparação: demais ocupações do setor público, professores do setor privado e demais ocupações do setor privado. A análise indica que a atratividade da remuneração do magistério varia de acordo com o segmento de professores públicos comparados. Entre os principais resultados, obtivemos evidências que indicam que os professores com formação de nível médio possuem remunerações atrativas frente às demais ocupações, enquanto aqueles com formação de nível superior – justamente os que se quer atrair – encontram salários bem mais atrativos em ocupações alternativas. Além disso, dado o fato de homens conseguirem salários bem melhores que os das mulheres em ocupações alternativas, a remuneração do magistério é bem mais atrativa para mulheres que para homens. Por fim, obtivemos evidências de que a atratividade da remuneração de professores públicos é melhor para profissionais no início da carreira, mas pior para profissionais na etapa final da carreira – o que pode gerar abandono da carreira e prejudicar o desempenho desses professores. Deste modo, entende-se que os diversos resultados encontrados na análise segmentada da atratividade dos salários de professores públicos contribuem para o avanço na discussão de políticas salariais para o magistério para além de simples propostas de reajustes uniformes para toda a categoria.
Resumo:
Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.
Resumo:
Este trabalho explora com cuidado o lado específico da implementação de um modelo de alocação de ativos em que o risco é tratado de maneira integrada, não somente através do desvio padrão do portfólio, mas também considerando outras métricas de risco como, por exemplo, o Expected Shortfall. Além disso, utilizamos algumas técnicas de como trabalhar com as variáveis de modo a extrair do mercado os chamados “invariantes de mercado”, fenômenos que se repetem e podem ser modelados como variáveis aleatórias independentes e identicamente distribuídas. Utilizamos as distribuições empíricas dos invariantes, juntamente com o método de Cópulas para gerar um conjunto de cenários multivariados simulados de preços. Esses cenários são independentes de distribuição, portanto são não paramétricos. Através dos mesmos, avaliamos a distribuição de retornos simulados de um portfólio através de um índice de satisfação que é baseado em uma função de utilidade quadrática e utiliza o Expected Shortfall como métrica de risco. O índice de satisfação incorpora o trade-off do investidor entre risco e retorno. Finalmente, escolhemos como alocação ótima aquela que maximiza o índice de satisfação ajustado a um parâmetro de aversão ao risco. Perseguindo esses passos, é possível obter um portfólio no qual a alocação em cada ativo, ou classe de ativos, reflete o prêmio esperado ao risco incorrido.
Resumo:
Esta dissertação analisa o desempenho e as características de uma parte dos atuais fundos de fundos brasileiros, os denominados multigestores, bem como o desempenho de fundos de fundos resultantes da simulação de carteiras de fundos brasileiros que utilizam várias estratégias de investimentos, conhecidos como multimercados. A diversificação através de uma carteira de fundos multimercados envolve outras variáveis além da tradicional abordagem de média-variância. A primeira parte do estudo apresenta as principais características dos fundos de fundos selecionados e descreve, além da média e variância, o terceiro e quarto momentos das distribuições dos retornos. A segunda parte utiliza a ferramenta chamada Análise de Estilo (Sharpe, 1988), para determinar a exposição dos retornos de cada um dos fundos de fundos da amostra a determinadas classes de ativos. Neste trabalho foram escolhidas as seguintes classes de ativos: Ibovespa, CDI, Dólar e IRF-M. Através da abordagem de média-variância, a terceira parte do estudo utiliza a ferramenta conhecida na Teoria da Carteira (Markowitz, 1952) como fronteira de mínima variância, para avaliar o desempenho de cada um dos fundos de fundos da amostra. O desempenho é avaliado com base na comparação da fronteira de mínima variância construída a partir de uma carteira de referência (composta por dois dos principais ativos financeiros brasileiros de baixo e alto risco: CDI e Ibovespa, respectivamente) com outra fronteira de mínima variância construída a partir do acréscimo de um fundo de fundos à carteira de referência. A última parte refere-se a simulações de carteiras de fundos multimercados que permitem a alocação de renda variável na carteira e também permitem o uso de alavancagem. Seu objetivo é verificar, através dos valores de retorno médio, variância, assimetria e curtose, a eficiência desses fundos como instrumentos de diversificação. Os resultados mostram que os 32 fundos de fundos multigestores analisados não tem distribuição normal de retornos e 29 apresentam assimetria negativa. A Análise de Estilo indica grande sensibilidade ao CDI e ao IRF-M, e pouca sensibilidade ao Ibovespa e Dólar, importantes índices do mercado financeiro. A maioria dos fundos de fundos multigestores melhorou a Fronteira Eficiente quando adicionados a uma carteira de referência (CDI + Ibovespa), ou seja, houve uma redução na relação risco-retorno. A simulação das carteiras indica que nos últimos três anos os fundos multimercados classificados como Com Renda Variável Com Alavancagem tem sido mais agressivos nas estratégias, devido ao comportamento da assimetria, porém o comportamento da curtose indica também uma posição nem tão agressiva. Logo, a construção de carteiras com fundos que utilizam diversas estratégias de investimentos não deve se restringir à abordagem de média-variância. Deve também envolver também assimetria, curtose e preferências do investidor.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
A política de dividendos apresenta-se como um dos pilares decisórios por parte dos gestores de finanças corporativas, juntamente com as políticas de investimento e financiamento. As teorias sobre política de dividendos desenvolveram-se baseadas nas considerações originais de Miller e Modigliani, como também através dos estudos de Lintner e Gordon. Diversos pontos são abordados em vários estudos posteriores, tais como impactos tributários, custos de agência, informações assimétricas e sinalização ao mercado. O tema continua sendo vastamente estudado por diversos pesquisadores, tendo como base dados de diversas partes do mundo, com resultados controversos e pouco consenso sobre os reais efeitos de diferentes políticas de dividendos sobre as empresas e seus acionistas. Tal situação também é verificada no Brasil, onde existe um ponto diferencial a ser considerado: a distribuição dos denominados juros sobre capital próprio; mecanismo adicional para remunerar o acionista, o qual apresenta características tributárias específicas. O presente trabalho analisa um aspecto específico da política de dividendos: sua suposta capacidade de sinalização ao mercado. A premissa é que as distribuições de dividendos e juros sobre capital próprio representam sinalizadores ao mercado quanto à lucratividade futura das empresas, e, portanto, podem ser considerados como instrumentos válidos para os gestores passarem informações sobre as expectativas de desenvolvimento financeiro de suas empresas. Trabalhos realizados no mercado americano chegam a diferentes conclusões quanto a esta premissa, ora corroborando a teoria, ora negando a existência do conteúdo informacional de dividendos. Através de dados de empresas transacionadas na BOVESPA entre 1999 e 2004, o autor conclui que não é possível corroborar a teoria financeira tradicional, sumarizada na premissa mencionada acima. Dada a metodologia utilizada (regressão linear), não é possível confirmar relação relevante entre a variação (aumento ou diminuição) de distribuição de proventos aos acionistas com o aumento ou diminuição de lucros em momentos posteriores. Em suma, a política de dividendos permanece como um dos mais controversos aspectos da gestão de finanças corporativas.
Resumo:
Esta dissertação aborda a estimativa das probabilidades de falha de um produto ao longo do período de garantia. As fontes de dados para esta estimativa são a quantidade de produtos vendidos e o número de falhas detectadas em cada mês. Duas metodologias não-paramétricas para esta análise são apresentadas e validadas. A metodologia de análise de dados completos requer o conhecimento da data de venda e de falha de cada produto. A metodologia de análise de dados incompletos requer apenas os totais de vendas e falhas em cada mês ao longo do período de garantia. Para os dois casos, é ainda implementada a suavização das probabilidades de falha estimadas, utilizando distribuições paramétricas Weibull ou Lognormal. As duas técnicas são implementadas em planilha eletrônica e aplicadas na análise de dados simulados. O desempenho de cada metodologia é avaliado com dados de diferentes características, resultando em recomendações para escolha e aplicação da metodologia mais adequada em cada caso
Resumo:
Contaminação da confiança é um caso especial de incerteza Knightiana ou ambiguidade na qual o tomador de decisões está diante de não apenas uma única distribuição de probabilidades, mas sim de um conjunto de distribuições de probabilidades. A primeira parte desta tese tem o propósito de fornecer uma caracterização da contaminação da confiança e então apresentar um conjunto de axiomas comportamentais simples sob os quais as preferências de um tomador de decisões é representada pela utilidade esperada de Choquet com contaminação da confiança. A segunda parte desta tese apresenta duas aplicações econômicas de contaminação da confiança: a primeira delas generaliza o teorema de existência de equilíbrio de Nash de Dow e Werlang (o que permite apresentar uma solução explícita para o paradoxo segundo o qual os jogadores de um jogo do dilema dos prisioneiros com um número infinito de repetições não agem de acordo com o esperado pelo procedimento da indução retroativa) e a outra estuda o impacto da contaminação da confiança na escolha de portfolio.
Resumo:
Este trabalho apresenta um método de apreçamento não paramétrico de derivativos de taxa de juros baseado em teoria da informação. O apreçamento se dá através da distribuição de probabilidade na medida futura, estimando aquela que mais se aproxima da distribuição objetiva. A teoria da informação sugere a forma de medir esta distância. Especificamente, esta dissertação generaliza o método de apreçamento canônico criado por Stutzer (1996), também baseado na teoria da informação, para o caso de derivativos de taxas de juros usando a classe Cressie-Read como critério de distância entre distribuições de probabilidade.
Resumo:
O presente trabalho tem como objetivo apresentar por meio de um exemplo prático a quantificação de Risco Operacional, utilizando um Modelo de Distribuição de Perdas Agregadas - LDA, Loss Distribution Approach - aplicado a riscos em instituições não financeiras. A idéia é mostrar como um método simples pode ser aplicado para realizar a gestão do risco operacional com foco em redução de perdas potenciais. O estudo faz uma breve análise sobre algumas técnicas que viabilizam a utilização de dados históricos e de julgamento de especialistas, e em seguida aprofunda-se em um método em que os especialistas inferem diretamente nos parâmetros das distribuições de freqüência e de severidade.