212 resultados para Mercado de trabalho - Modelos matemáticos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Análise da evolução e configuração atual do setor de telecomunicações móveis celular, verificando a existência de correlações entre parâmetros de performance do setor e de parâmetros macroeconômicos, estabelecendo cenários previstos e comparando-os com dados reais. Aponta oportunidades de crescimento do mercado, considerando o potencial do mercado de telefonia móvel celular, relacionando com as perspectivas de crescimento econômico do país

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em 1985, Mehra e Prescott levantaram uma questão que até hoje não foi respondida de forma satisfatória: o prêmio de risco das ações americanas é muito maior do que poderia ser explicado pelo “paradigma neoclássico de finanças econômicas” (financial economics) representado pelo modelo C-CAPM. E, a partir de então, este problema não resolvido ficou conhecido como o “Equity Premium Puzzle” (EPP) ou o “Enigma do Prêmio (de risco) das Ações”. Este enigma estimulou a produção de uma série de artigos, dissertações e teses que tentaram ajustar os modelos intertemporais de utilidade esperada aos dados dos mercados financeiros. Dentro deste contexto, esta tese busca (i) revisar a evolução histórica da teoria dos modelos de maximização da utilidade intertemporal dos agentes, (ii) analisar os pressupostos e conceitos chaves desses modelos, (iii) propor um novo modelo que seja capaz de solucionar o EPP, (iv) aplicar este modelo proposto aos dados históricos anuais entre 1929 e 2004 e (v) validar a lógica deste modelo através das metodologias Mehra-Prescott e Hansen-Jagannathan. Esta tese faz uma crítica de que os estudos até aqui desenvolvidos tentaram explicar a dinâmica de um mercado financeiro altamente sofisticado, através de um modelo de economia não-monetária e de subsistência. Assim, a sua contribuição consiste na alteração desse pressuposto de uma economia de subsistência, considerando que a renda disponível do setor privado não seja integralmente consumida, mas que também possa ser poupada. Assumindo que as pessoas obtêm satisfação (utilidade) tanto pelo consumo atual como pela poupança atual (que será o consumo futuro), será deduzido que a utilidade marginal de consumir é igual à de poupar, em todo e qualquer período. Com base nisso, a utilidade marginal a consumir é substituída pela utilidade marginal de poupar dentro do modelo básico do C-CAPM. Para reforçar a idéia de que o modelo desta tese usa dados de poupança em vez de consumo, ao longo do trabalho ele será chamado de Sanving-CAPM, ou S-CAPM. Este novo modelo mostrou-se capaz de solucionar o EPP quando submetidas às abordagens Mehra-Prescott e Hansen-Jagannathan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta uma revisão dos principais modelos de ciclo de vida para posteriormente discutir a necessidade de um modelo específico para o ambiente brasileiro. Apesar de toda discussão sobre a crise na instituição família em função das amplas mudanças ocorridas na sociedade contemporânea, tais como o aumento dos domicílios unipessoais, das famílias chefiadas por mulheres, da média de idade ao se casar, de casais que convivem no mesmo domicílio sem necessariamente estarem casados, da participação da mulher no mercado de trabalho e do crescente poder de compra dos domicílios, o conceito "família" vem se flexibilizando para refletir as transições da rígida estrutura familiar nuclear para novos modelos familiares e os estilos de vida associados a eles. O desafio passa a ser um olhar minucioso para as necessidades específicas desta diversidade de arranjos familiares para uma melhor compreensão dos seus desejos e motivações, bem como as mudanças no decorrer dos vários estágios do ciclo de vida. O presente estudo procurou explorar o construto ciclo de vida familiar como uma importante ferramenta de segmentação, a partir da definição de padrões de consumo de acordo com os principais eventos da vida do individuo e da família. Para verificar a utilidade do modelo desenvolvido, será apresentado um teste feito a partir dos micro dados de uma pesquisa feita pelo Instituto Brasileiro de Geografia e Estatística em 2002 e 2003. Uma das grandes contribuições deste trabalho é o esforço em desenvolver uma teoria de Marketing, na área de segmentação de mercados, ancorada na realidade brasileira, ao invés de simplesmente copiar modelos desenvolvidos em outros países.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tendo em vista a completa transformação do mercado de vinhos no Brasil ocorrida nos últimos 10 anos, e o seu ainda enorme potencial de crescimento, esta dissertação se propõe a identificar, através da Metodologia de Preços Hedônicos, os preços implícitos de características de rótulo, sensoriais e informativas de vinhos no mercado brasileiro. A análise destes preços, que não são isoladamente transacionados nos pontos de venda, mas que são indiretamente praticados em equilíbrio de mercado, é de fundamental importância para o entendimento dos critérios de decisão e do comportamento do consumidor. O modelo mostra, entre outras conclusões, que o mercado brasileiro valoriza vinhos mais encorpados, com longa permanência em barris de madeira, que têm como sugestão de uso a guarda (e não o consumo imediato) e que são procedentes, nesta ordem, da França, Itália, Portugal e Espanha.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho é proposto um modelo de construção de superfície de volatilidade de opções pouco líquidas de ações listadas em bolsa. O modelo é uma função matemática que transforma a superfície de volatilidade de uma opção líquida de ação em uma superfície de volatilidade de opção pouco líquida de ação. O modelo apresenta alta sensibilidade em relação aos parâmetros da função matemática utilizada. Logo, podem ser obtidos resultados bem distintos, caso se utilize, por exemplo, a superfície de opção de Ibovespa ou de Vale como possíveis parâmetros da função. Neste caso, também é proposta uma metodologia para a decisão sobre a escolha do parâmetro de volatilidade mais adequado, tomando-se por base um backtest das diferenças observadas entre volatilidade realizada e proposta. A principal hipótese assumida no modelo é que a diferença calculada entre a volatilidade implícita da opção e a volatilidade histórica de seu ativo-objeto é uma medida que possui proporção entre mesmas medidas de todos os ativos-objetos. Assim, se conhecidas essa medida e a volatilidade histórica de um determinado ativo-objeto, calcula-se a volatilidade “implícita” da opção desse mesmo ativo-objeto. Assim como a incerteza relacionada à hipótese descrita acima, existem outras relacionadas à seleção de parâmetros no modelo e à própria iliquidez da opção e de seu ativo-objeto. O impacto dessas incertezas reflete-se no resultado financeiro da opção. Assim, propõe-se um modelo de gestão financeira conservadora baseada em reserva de resultado financeiro como provisão dessas incertezas. Neste trabalho, apresentam-se testes para algumas opções, mostrando as provisões hipoteticamente necessárias em termos de vegas das opções para cada subjacente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O modelo Black-Litterman calcula os retornos esperados de mercado como uma combinação de um conjunto de expectativas específicas de cada investidor e um ponto de referência neutro. A combinação dessas duas fontes de informações são feitas pelo modelo utilizando a abordagem bayesiana. Os resultados obtidos a partir do modelo Black-Litterman, ao contrário da abordagem tradicional, são bastante intuitivos, estáveis e consistentes em relação as expectativas dos investidores. O objetivo dessa dissertação é fazer uma análise detalhada de cada um dos componentes do modelo Black-Litterman e verificar se a utilização o modelo de Black-Litterman, introduzindo as opiniões de mercado com base no relatório FOCUS do Banco Central, supera o retorno dos fundos multimercados brasileiros.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Usando dados intradiários dos ativos mais negociados do Bovespa, este trabalho considerou dois modelos recentemente desenvolvidos na literatura de estimação e previsão de volatilidade realizada. São eles; Heterogeneous Autorregresive Model of Realized Volatility (HAR-RV), desenvolvido por Corsi (2009)e o Mixed Data Sampling (MIDAS-RV) desenvolvido por Ghysels et. al (2004). Através de medidas de comparação de previsão dentro e fora da amostra, constatou-se resultados superiores do modelo MIDAS-RV apenas para previsões dentro da amostra. Para previsões fora da amostra, no entanto, não houve diferença estatisticamente significativa entre os modelos. Também encontram-se evidências que a utilização da volatilidade realizada induz distribuições dos retornos padronizados mais próximas da normal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O racional teórico das finanças comportamentais se sustenta em dois grandes pilares: limites de arbitragem e irracionalidade dos investidores. Dentre os desvios de racionalidade conhecidos, um foi de particular interesse para este estudo: o viés da disponibilidade. Este viés acontece nas situações em que as pessoas estimam a frequência de uma classe ou a probabilidade de um evento pela facilidade com que instâncias ou ocorrências podem ser lembradas. O advento da internet permitiu a verificação do viés de disponibilidade em larga escala por meio da análise dos dados de buscas realizadas. I.e., se uma determinada ação é mais procurada que outras, podemos inferir que ela está mais disponível na memória coletiva dos investidores. Por outro lado, a literatura das finanças comportamentais tem um braço mais pragmático, que estuda estratégias capazes de fornecer retornos anormais, acima do esperado pela hipótese do mercado eficiente. Para os fins deste estudo, destaca-se o efeito momento, no qual o grupo de ações de melhor resultado nos últimos J meses tende a fornecer melhores resultados pelos próximos K meses. O propósito deste estudo foi verificar a possibilidade de se obter retornos acima dos identificados pelo efeito momento segmentando-se as carteiras de maior e menor viés de disponibilidade. Os resultados obtidos foram positivos e estatisticamente significativos na amostra selecionada. A estratégia cruzada entre efeito momento e disponibilidade produziu, para J=6 e K=6, retornos médios mensais de 2,82% com estatística t de 3,14. Já a estratégia só de efeito momento, para o mesmo período de formação e prazo de manutenção, gerou retornos médios mensais de apenas 1,40% com estatística t de 1,22.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo investiga a eficiência de precificação do Ibovespa à vista e futuro. Usando o modelo de custo de carregamento, compara-se o futuro observado com o justo no período de 04/01/2010 a 18/08/2010. Em um mercado eficiente, esses dois preços não podem divergir, pois eventuais diferenças geram oportunidades de arbitragem. O propósito desta dissertação é investigar duas questões: a primeira, se o modelo de custo de carregamento explica a dinâmica de preços observada; a segunda, se existem possibilidades de arbitragem entre os mercados à vista e futuro. A base de dados é composta de dados intradiários de compra e venda do Ibovespa à vista e futuro, calculados em intervalos de um minuto. Verifica-se que o modelo de custo de carregamento não explica o comportamento do mercado e que maiores discrepâncias de preços ocorrem longe do vencimento. Considerando-se custos de transação e prêmio de risco, existem inúmeras possibilidades de arbitragem no mercado, principalmente na operação que o mercado denomina como “reversão”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo principal deste trabalho consiste na exploração de parâmetros de variáveis organizacionais e psico-sociais relacionadas aos acidentes de trabalho de uma indústria de construção naval do Estado do Rio de Janeiro, através da aplicação de modelos matemáticos inspirados na Teoria das filas. A primeira parte compreende uma revisão das principais pesquisas 8 estudos relacionando diversas variáveis psicológicas, sociais sociológicas, fisiológicas físicas e organizacionais a ocorrência de acidentas de trabalho. A segunda parte do trabalho consiste na análise de 9.657 acidentes ocorri dos em uma indústria de construção naval no ano de 1974 quando são evidenciados os parâmetros que regem as distribuições do numero de acidentes sofridos por operário e do intervalo entre acidentes consecutivos são ainda propostas as equações que deveriam ser empregadas para a previsão das duas variáveis dependentes consideradas. Ao final são apresentadas algumas sugestões e conclusões onde a mais importante refere-se à invariância dos parâmetros quando se consideram diferentes características pessoais dos sujeitos. Tal fato é interpretado como produto do grau de periculosidade muito e levado da organização que esconde ria as influências das variáveis pessoais na ocorrência de acidentes de trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trato do problema da assimetria de informação no mercado de crédito e do uso da informação externa como forma de minimizar esse efeito negativo. Descreve os modelos teóricos de troca de informação na presença de Bureaus de crédito e aborda o mercado brasileiro de crédito, conduzindo avaliações qualitativas e quantitativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.