994 resultados para épocas de aplicação
Resumo:
Redes Bayesianas podem ser ferramentas poderosas para construção de modelos econômico-financeiros utilizados para auxílio à tomada de decisão em situações que envolvam grau elevado de incerteza. Relações não-lineares entre variáveis não são capturadas em modelos econométricos lineares. Especialmente em momentos de crise ou de ruptura, relações lineares, em geral, não mais representam boa aproximação da realidade, contribuindo para aumentar a distância entre os modelos teóricos de previsão e dados reais. Neste trabalho, é apresentada uma metodologia para levantamento de dados e aplicação de Redes Bayesianas na obtenção de modelos de crescimento de fluxos de caixa de empresas brasileiras. Os resultados são comparados a modelos econométricos de regressão múltipla e finalmente comparados aos dados reais observados no período. O trabalho é concluído avaliando-se as vantagens de desvantagens da utilização das Redes de Bayes para esta aplicação.
Resumo:
Este trabalho explora com cuidado o lado específico da implementação de um modelo de alocação de ativos em que o risco é tratado de maneira integrada, não somente através do desvio padrão do portfólio, mas também considerando outras métricas de risco como, por exemplo, o Expected Shortfall. Além disso, utilizamos algumas técnicas de como trabalhar com as variáveis de modo a extrair do mercado os chamados “invariantes de mercado”, fenômenos que se repetem e podem ser modelados como variáveis aleatórias independentes e identicamente distribuídas. Utilizamos as distribuições empíricas dos invariantes, juntamente com o método de Cópulas para gerar um conjunto de cenários multivariados simulados de preços. Esses cenários são independentes de distribuição, portanto são não paramétricos. Através dos mesmos, avaliamos a distribuição de retornos simulados de um portfólio através de um índice de satisfação que é baseado em uma função de utilidade quadrática e utiliza o Expected Shortfall como métrica de risco. O índice de satisfação incorpora o trade-off do investidor entre risco e retorno. Finalmente, escolhemos como alocação ótima aquela que maximiza o índice de satisfação ajustado a um parâmetro de aversão ao risco. Perseguindo esses passos, é possível obter um portfólio no qual a alocação em cada ativo, ou classe de ativos, reflete o prêmio esperado ao risco incorrido.
Resumo:
Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.
Resumo:
Esta dissertação estuda a aplicação da estratégia Pairs Trading no mercado acionário brasileiro. Envolve basicamente a identificação de pares de ações que tenham movimentos de preço semelhantes e posteriormente a operação do diferencial entre seus preços. É possível observar no mercado a existência de um valor de equilíbrio de longo prazo para alguns pares de ações e quando o diferencial divergir de certa quantidade pré-definida opera-se o diferencial no intuito de que o mesmo retorne ao seu valor de equilíbrio de longo prazo, ou seja, espera-se que ocorra uma reversão à média do diferencial. A metodologia para a identificação desses pares de ações que descrevem movimentos semelhantes vem do conceito de cointegração. Essa metodologia é aplicada sobre as ações do índice Bovespa de 04-Jan-1993 a 30-Jun-2005. Inicialmente é feita uma pré-seleção dos pares de ações via correlação, ou medida de distância. Para a seleção final é feito o teste de cointegração, onde é utilizado o método de Dickey-Fuller aumentado (Augmented Dickey-Fuller test – ADF) para verificar a existência de raiz unitária da série de resíduo da combinação linear do logaritmo dos preços. Após a seleção, os pares são simulados historicamente (backtesting) para se analisar a performance dos retornos dos pares de ações, incluindo também os custos operacionais.
Resumo:
A literatura de Recursos Humanos sugere a seus profissionais que, ao buscar aprovação para investimentos em projetos e programas de RH, enfatizem a contribuição que eles podem dar ao atingimento dos objetivos de negócios de suas organizações. As empresas, impelidas pela competição cada dia mais acirrada, esperam que seus profissionais de RH justifiquem os investimentos em linguagem que demonstre de maneira clara os benefícios que possam adicionar na busca de tais objetivos - esta linguagem necessariamente se relaciona ao resultado financeiro e econômico das empresas. Se é reduzida a influência das áreas de RH ou baixa a prioridade dada à implementação de seus programas, esta situação pode não ser nada mais nada menos do que uma resposta racional da direção das empresas, que apesar de “conhecer” intuitivamente os benefícios da atividade, não dispõe de uma medida objetiva sobre eles. Na falta de tal medida, a organização não consegue priorizar adequadamente os programas de RH em seu plano de investimentos. A Análise da Utilidade oferece uma resposta a este problema. Ela consiste em uma família de teorias e medidas desenhadas para descrever, predizer e/ou explicar quão úteis e desejáveis são as opções de decisão relativas aos diversos programas da Gestão de RH – seleção, treinamento, avaliação de desempenho, remuneração, etc., e pode ser considerada como uma análise de custos e benefícios: os custos reduzem a utilidade e os benefícios a aumentam. A Análise da Utilidade é um instrumento adequado ao ambiente de negócios porque insiste em que tanto os custos como as conseqüências das decisões sejam sempre considerados de antemão. O mérito de sua abordagem é que ela resulta em decisões fundamentadas em raciocínio robusto, racional e consciente, através da linguagem mais utilizada no mundo dos negócios da atualidade – custos, benefícios, retornos de investimentos, e seus impactos sobre os resultados finais, financeiros e econômicos. Neste trabalho aplicamos a metodologia definida por Sturman et al. (2003), destinada ao uso da Análise da Utilidade na avaliação do valor econômico de diferentes políticas de remuneração, ao caso de uma grande empresa do setor financeiro no Brasil. Nossas conclusões demonstram o valor do uso da Análise da Utilidade na justificação de políticas de remuneração de alto valor. Esta justificação se baseia nas estimativas de valor incremental dos recursos humanos que tais políticas ajudam a reter, contrabalançado pelos riscos de sua implementação. Tais políticas, se julgadas pelos padrões tradicionais de custo, seriam descartadas. Demonstramos que a Análise da Utilidade viabiliza uma linguagem comum entre a área de RH, a alta direção e demais áreas da empresa – contribuição aos objetivos do negócio. Isto deve facilitar a comunicação e divulgação dos benefícios, implantação e monitoração dos programas de RH.
Análise do setor da agências de internet no Brasil : uma aplicação de simulação dinâmica de sistemas
Resumo:
Esta dissertação tem por objetivo analisar a participação de mercado dos diferentes grupos estratégicos que compõem o setor de agências de internet no Brasil, bem como as mudanças decorrentes de alterações nas variáveis críticas de concorrência, tais como preço, investimento em propaganda, investimento em tecnologia e disponibilidade de mão-de-obra.
Resumo:
A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
O objetivo do trabalho é investigar a relação de longo prazo entre capital e inovação, utilizando técnicas econométricas mais recentes, com dados em painel. Diversos testes alternativos de cointegração foram utilizados, como testes com coeficientes comuns e idiossincráticos entre os cross-sections (testes de Pedroni, de Kao e de Fischer), e testes onde a hipótese de cointegração é nula (teste de McCoskey e Kao), incluindo testes com quebras estruturais (teste de Westerlund). As conclusões principais são a evidência forte de que estoque de capital humano afeta de forma significativa o número de inovações. Tabém foram encontradas evidências de que a hierarquia de educação importe para o aumento de inovações.
Resumo:
Tendo em vista a completa transformação do mercado de vinhos no Brasil ocorrida nos últimos 10 anos, e o seu ainda enorme potencial de crescimento, esta dissertação se propõe a identificar, através da Metodologia de Preços Hedônicos, os preços implícitos de características de rótulo, sensoriais e informativas de vinhos no mercado brasileiro. A análise destes preços, que não são isoladamente transacionados nos pontos de venda, mas que são indiretamente praticados em equilíbrio de mercado, é de fundamental importância para o entendimento dos critérios de decisão e do comportamento do consumidor. O modelo mostra, entre outras conclusões, que o mercado brasileiro valoriza vinhos mais encorpados, com longa permanência em barris de madeira, que têm como sugestão de uso a guarda (e não o consumo imediato) e que são procedentes, nesta ordem, da França, Itália, Portugal e Espanha.
Resumo:
Resumo O objetivo deste trabalho é explorar a utilização de Redes Neurais no processo de previsão da Captação Líquida do Mercado de Previdência Privada Brasileiro como ferramenta à tomada de decisão e apoio na gestão das empresas do setor. Para a construção desse modelo foram utilizadas Redes Neurais, ferramenta que vem se mostrando adequada para utilização em modelos não lineares com resultados superiores a outras técnicas. A fonte de dados principal para a realização deste trabalho foi a FENAPREVI – Federação Nacional de Previdência Privada e Vida. Para comparação com o modelo de Redes Neurais, foi utilizado um modelo de Regressão Linear Múltipla como benchmark, com o objetivo de evidenciar a adequação da ferramenta em vista dos objetivos traçados no trabalho. O modelo foi construído a partir das informações mensais do setor, entre maio de 2002 e agosto de 2009, considerando o que se convencionou chamar de ‘mercado vivo’, que abrange os produtos PGBL e VGBL, comercializados ininterruptamente nesse período pelas chamadas EAPP – Entidades Abertas de Prividência Privada. Os resultados obtidos demonstraram a adequação da ferramenta Redes Neurais, que obtiveram resultados superiores aos obtidos utilizando Regressão Linear Múltipla.
Resumo:
O Brasil possui um dos mercados de serviços de comunicação e mídia que mais cresce no mundo. Grande parte deste crescimento pode ser atribuída à evolução tecnológica e às recentes alterações no ambiente competitivo, os quais favoreceram a convergência de serviços antes vendidos separadamente - voz, dados e TV. Isto elevou a atratividade destes serviços, contribuindo também para a redução de seu preço, por meio, principalmente, dos ganhos de escala, impulsionando seu crescimento. Este crescimento atraiu mais competidores ao mercado, o que, intensificado por mudanças regulatórias, eleva a importância da correta precificação dos pacotes de serviços. Portanto, um entendimento apropriado dos atributos mais valorizados pelos consumidores no processo decisório de compra destes serviços é de fundamental importância para melhorar a alocação dos recursos e maximizar o retorno, sem perda de participação de mercado. Este trabalho aplica a Metodologia de Preços Hedônicos como ferramenta para auxiliar na identificação dos atributos relevantes dos pacotes de serviços multimídia comercializados no mercado da cidade de São Paulo e seus respectivos preços implícitos. São 371 pacotes distintos contendo de um a três tipos diferentes de serviços analisados com base nos preços praticados em março de 2009. Como resultado, foram identificados intensos prêmios de preço associados aos canais do grupo Telecine, aos canais esportivos, infantis e de filmes e séries, bem como às variáveis ligadas às velocidades de download e upload.
Resumo:
A Análise Técnica postula que os preços dos ativos nos mercados financeiros se movem em tendências de alta ou baixa. Ainda, no meio de uma tendência há patamares de preços, suportes e resistências, que quando rompidos indicam uma possível reversão dos preços para a direção contrária à direção vigente. Conseqüentemente, após essa “falha de movimento”, os agentes se beneficiariam dessa informação para tomar suas decisões de investimento e obter lucros. O presente trabalho analisa tal afirmação verificando a ocorrência deste fato no mercado de moedas, FOREX. A análise é feita por meio do teste de médias dos retornos de uma estratégia operacional baseada nas falhas contra a simples estratégia buy-and-hold. Adicionalmente, são feitas análises de sensibilidade para enriquecer o estudo. Por fim, verifica-se que a estratégia proposta não oferece resultados conclusivos a favor das falhas.
Resumo:
Neste trabalho, verificamos viabilidade de aplicação da estratégia de pairs trading no mercado acionário brasileiro. Diferentemente de outros estudos do mesmo tema, construímos ativos sintéticos a partir de uma combinação linear de preços de ações. Conforme Burgeois e Minko (2005), utilizamos a metodologia de Johansen para a formação dos pares a serem testados. Após a identificação de pares cointegrados, para assegurar a estacionaridade do ativo sintético contruído a partir da relação linear de preços das ações, utilizamos os testes DF-GLS e KPSS e filtramos àqueles que apresentavam raiz unitária em sua série de tempo. A seguir, simulamos a estratégia (backtesting) com os pares selecionados e para encontrar os melhores parâmetros, testamos diferentes períodos de formação dos pares, de operação e de parâmetros de entrada, saída e stop-loss. A fim de realizarmos os testes de forma mais realista possível, incluímos os custos de corretagem, de emolumentos e de aluguel, além de adicionar um lag de um dia para a realização das operações
Resumo:
Introdução: A presente dissertação de mestrado tem como foco a investigação de qualidade de vida em idosos. Não somente à expectativa de vida e à morbi-mortalidade, o interesse científico tem-se voltado a conferir qualidade aos anos de vida de uma população de idosos crescente em países desenvolvidos e em desenvolvimento. A definição do construto qualidade de vida não desfruta de consenso até o momento. Entretanto, é consensual que a população de idosos apresenta particularidades que, por conseguinte, se refletem na conceituação de qualidade de vida e na determinação de quais fatores contribuem para sua composição. Entretanto, diversos instrumentos utilizados em estudos de qualidade de vida em idosos não abrangem tais especificidades ou não apresentam propriedades psicométricas adequadamente testadas para esta população. Objetivos: Os objetivos principais desta dissertação são dois. Primeiramente, desenvolver a versão em português do módulo de aferição de qualidade de vida em idosos da Organização Mundial de Saúde WHOQOL-OLD e descrever suas propriedades psicométricas em uma amostra de idosos brasileiros. Em segundo lugar, realizar a testagem do desempenho psicométrico do instrumento genérico de avaliação de qualidade de vida WHOQOL-BREF, originalmente gerado em uma população de adultos não-idosos e crescentemente utilizado em investigações geriátricas. Método: 424 sujeitos com idade igual ou superior a 60 anos foram entrevistados, completando uma ficha de dados sócio-demográficos, os instrumentos WHOQOL-BREF, Inventário de Depressão de Beck (BDI), Escala de Desesperança de Beck (BHS) e o módulo WHOQOL-OLD. A uma subamostra de 51 sujeitos foi aplicado o Módulo WHOQOL-OLD após duas semanas. Resultados: A amostra foi constituída predominantemente de mulheres (64,2%), de sujeitos vivendo na comunidade (84,4%) e de sujeitos que se consideram saudáveis (67,5%). O Módulo WHOQOL-OLD é composto por seis facetas e 24 itens, gerando escores em cada uma das facetas e um escore geral (overall). Os coeficientes de Cronbach indicam que todas as facetas e o conjunto de itens apresentam fidedignidade satisfatória, variando de 0,710 (faceta autonomia) a 0,885 (overall). As seis facetas e o escore overall mostram-se capazes de discriminar os idosos com diferentes níveis de depressão, bem como os que se percebem saudáveis daqueles que se percebem doentes. A validade concorrente, aferida através da correlação dos escores com os de sintomatologia depressiva e de desesperança, apresenta significância estatística. A comparação das médias dos escores do teste e reteste não indica diferenças, atestando a estabilidade do instrumento. Em relação ao desempenho do instrumento WHOQOL-BREF, todos seus quatro domínios demonstraram-se capazes de discriminar níveis de sintomas depressivos e de desesperança, bem como diferentes percepções de estado de saúde. Os coeficientes de correlação entre os domínios e os escores do BDI e BHS apresentaram significância estatística. Os coeficientes de fidedignidade de Cronbach assumem valores que variam de 0,614 (domínio relações sociais) a 0,925(conjunto de 26 itens). Em relação à validade de critério, O domínio Relações Sociais não apresentou significância estatística no modelo proposto de regressão linear múltipla (p=0,061). Os domínios físico, psicológico e de meio-ambiente explicam 64,7% da variância do escore global, constituído por dois itens de qualidade de vida geral.Conclusão: O módulo WHOQOL-OLD representa uma ferramenta adicional aos questionários genéricos de qualidade de vida WHOQOL-100 ou WHOQOL-BREF como uma alternativa útil na investigação de qualidade de vida de idosos, abrangendo aspectos relevantes e não abordados nos instrumentos desenhados originalmente para populações não-idosas. A testagem do desempenho psicométrico do instrumento WHOQOL-BREF demonstrou que este apresenta consistência interna, validade concorrente, validade discriminante e validade de critério satisfatórias em uma amostra de idosos brasileiros. Seus itens foram analisados previamente em grupos focais, em relação ao conteúdo e fraseamento, tendo sido considerados pelos idosos como relevantes para a aferição de qualidade de vida e de fácil entendimento. Assim sendo, o WHOQOL-BREF apresenta características que o colocam como um instrumento genérico de aferição de qualidade de vida com adequado desempenho psicométrico testado em idosos.