208 resultados para líquido de aplicação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A criação de poder compensatório decorrente da ação concertada daqueles prejudicados em uma relação de poder assimétrica pode gerar aumento de bem-estar social. O desenvolvimento analítico a partir da estrutura proposta por Dobson et al. (1998) permite constatar que as condições para que sejam verificados os efeitos positivos são restritivas e estão diretamente relacionadas ao reconhecimento da interdependência e à cooperação entre os agentes envolvidos. Foi possível observar também que, diferentemente do que previu a análise de Dobson et al. (1998), a criação de poder compensatório pode ter efeitos positivos em termos de bem-estar, ainda que as partes não reconheçam sua interdependência e não cooperem entre si – o que depende da relação das elasticidades-preço da demanda e da oferta. A despeito da possibilidade de efeitos benéficos, as doutrinas de defesa da concorrência brasileira e nas demais jurisdições, como EUA e Comunidade Européia, aplicam de maneira equivocada o conceito de poder compensatório ou ignoram por completo sua existência. Há que se considerar, contudo, que o objetivo da política antitruste e o da criação de poder compensatório estão alinhados: equilíbrio de assimetrias de poder nas relações entre os agentes, coibindo o exercício abusivo do poder de uma das partes na transação. Verifica-se, portanto, uma incongruência entre a jurisprudência e a teoria econômica. O conflito na aplicação do conceito de poder compensatório pela doutrina antitruste pode ser nitidamente observado no mercado de saúde suplementar brasileiro. Um fenômeno verificado nesse setor é a coordenação de médicos em cooperativas para fazer frente ao exercício de poder de compra por parte das operadoras de planos de saúde. Essa ação concertada tem sido condenada pelas autoridades de defesa da concorrência com base na interpretação de que a coordenação entre médicos constitui formação de cartel, passível de condenação pelas autoridades antitruste. A análise empírica corrobora as proposições teóricas: no setor de saúde suplementar, pelo menos na dimensão preço, existe a possibilidade de efeitos positivos associados ao poder compensatório. Destaca-se, contudo, que esse resultado estaria associado às cooperativas condenadas pelo CADE, que devem representar o grupo de associações que efetivamente deteriam poder econômico para equilibrar a assimetria de poder na negociação com as operadoras de planos de saúde. Diante dessa constatação, é importante reavaliar as decisões do CADE acerca das cooperativas médicas enquanto política pública que visa aumentar o bem-estar social.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação possui a finalidade de pesquisar, a partir da teoria da ação coletiva, o caso do aquecimento global, com destaque para o papel exercido pelo ambiente institucional criado com o objetivo de mitigar a mudança climática, mais especificamente o Protocolo de Quioto. Este trabalho pretende responder a seguinte pergunta: O Protocolo de Quioto será capaz de alcançar a estabilização da concentração de gases de efeito estufa (GEEs) na atmosfera num nível que impeça uma interferência antrópica perigosa no sistema climático (objetivo da Convenção do Clima)? Ao focar o estudo na ciência do aquecimento global, na teoria da ação coletiva e na evolução do ambiente institucional criado, pretende-se formar a base para a conclusão da dissertação. A dissertação chega às seguintes conclusões: O Protocolo de Quioto não será capaz de atingir o objetivo da Convenção do Clima. Primeiro, Quioto gera custos elevados para que as nações industrializadas cumpram suas metas de compromissos. Segundo, a imposição de metas de emissão apenas para os países desenvolvidos e para as nações com economia em transição (Anexo B) representa um obstáculo para restringir as emissões globais, já que os países com maiores projeções de elevação de emissões nas próximas décadas (países em desenvolvimento) não possuem nenhuma restrição de emissão. Terceiro, a duração do Protocolo de Quioto (2008-2012) é limitada para que os países tomem medidas eficazes, pois o ambiente institucional está definido apenas até 2012. Quarto os mecanismos de punição em Quioto são falhos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

É consenso na análise antitruste que o ato de concentração de empresas com participação significativa deve sofrer averiguações quanto a sua aprovação em decorrência dos efeitos prejudiciais que pode gerar sobre a concorrência na indústria. Concorrência é sempre desejável por favorecer melhores níveis de bem-estar econômico. À luz das investigações econômicas que os sistemas de defesa da concorrência realizam, este trabalho analisa as mensurações da simulação de efeitos unilaterais de concentrações horizontais. As avaliações realizadas testam a utilização do modelo PC-AIDS (Proportionaly Calibrated AIDS), de Epstein e Rubinfeld (2002). Dentre algumas conclusões que se extraem do uso do modelo temos que: (i) em mercados com baixa concentração econômica, o modelo avaliado para um intervalo da vizinhança da elasticidade-preço própria estimada, traz mensurações robustas, e (ii) para mercados com alta concentração econômica uma atenção maior deve ser dada à correspondência dos valores calibrados e estimados das elasticidades-preços próprias, para que não ocorra sub ou superestimação dos efeitos unilaterais do ato de concentração. Esse resultado é avaliado no caso Nestlé/Garoto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho aplica a teoria de cópulas à mensuração do risco de mercado, através do cálculo do Value at Risk (VaR). A função de cópula oferece uma maior flexibilidade para a agregação de riscos quando comparada com abordagens tradicionais de mensuração de risco. A teoria de cópulas permite a utilização de distribuições de probabilidade diferentes da normal para a modelagem individual dos fatores de risco. Além disso, diferentes estruturas de associação entre eles podem ser aplicadas sem que restrições sejam impostas às suas distribuições. Dessa forma, premissas como a normalidade conjunta dos retornos e a linearidade na dependência entre fatores de risco podem ser dispensadas, possibilitando a correta modelagem de eventos conjuntos extremos e de assimetria na relação de dependência. Após a apresentação dos principais conceitos associados ao tema, um modelo de cópula foi desenvolvido para o cálculo do VaR de três carteiras, expostas aos mercados brasileiros cambial e acionário. Em seguida, a sua precisão foi comparada com a das metodologias tradicionais delta-normal e de simulação histórica. Os resultados mostraram que o modelo baseado na teoria de cópulas foi superior aos tradicionais na previsão de eventos extremos, representados pelo VaR 99%. No caso do VaR 95%, o modelo delta-normal apresentou o melhor desempenho. Finalmente, foi possível concluir que o estudo da teoria de cópulas é de grande relevância para a gestão de riscos financeiros. Fica a sugestão de que variações do modelo de VaR desenvolvido neste trabalho sejam testadas, e que esta teoria seja também aplicada à gestão de outros riscos, como o de crédito, operacional, e até mesmo o risco integrado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na presente dissertação foi apresentada, pela primeira vez para o mercado brasileiro, uma aplicação da análise de componentes principais para a identificação dos fatores que influenciam o comportamento da estrutura temporal de cupom cambial brasileira, tendo como amostra cotações de ajuste dos contratos futuros de DDI e de FRA (Forward Rate Agreement) de cupom cambial da BM&F, cotações de fechamento do Dólar à vista e cotações de venda da Ptax800, para o período entre 02/01/2002 e 29/12/2005. Através da aplicação da técnica de análise de componentes principais para as curvas de cupom cambial limpo à vista e a termo foi possível observar superioridade no poder explicativo da última com relação à primeira, com três componentes principais sendo responsáveis por mais de 94% da variabilidade explicada na aplicação da análise de componentes principais à curva a termo de cupom cambial. A superioridade dos resultados obtidos na análise da curva a termo de cupom cambial também pôde ser observada na interpretação visual dos componentes de nível, inclinação e curvatura (interpretação esta que não pôde ser claramente obtida na análise dos gráficos referentes à curva à vista de cupom cambial). Este trabalho também teve como objetivo a análise da efetividade de uma aplicação de imunização do risco de variação nas taxas de cupom cambial baseada nos resultados anteriormente obtidos com a análise de componentes principais da curva a termo de cupom cambial. A estratégia de imunização realizada demonstrou alta efetividade na comparação entre os resultados da carteira objeto de imunização (carteira arbitrária de swaps DólarxCDI) e os resultados da carteira instrumento de imunização (contratos futuros de FRA de cupom cambial da BM&F). Este resultado é de grande importância para o gerenciamento de carteiras que possuam títulos expostos ao risco de variações na curva de cupom cambial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Brasil possui um dos maiores mercados de telefonia celular do mundo, resultado de um crescimento impulsionado, sobretudo, pela expansão agressiva do modelo de serviço pré-pago. Este crescimento se deu por meio de grandes investimentos em subsidio como forma de aumentar a atratividade dos aparelhos celulares comercializados nos pontos de venda. Estes investimentos ao mesmo tempo em que aceleraram a captação de novos clientes comprometeram a rentabilidade deste segmento e da margem EBITDA (Earnings Before Interest, Taxes, Depreciation and Amortization) consolidada do setor no Brasil quando comparada a outros países. Portanto, um entendimento apropriado dos atributos mais valorizados pelos consumidores no processo decisório de compra de um aparelho celular é de fundamental importância para melhorar a alocação dos recursos e maximizar o retorno, sem perda de mercado. Este trabalho aplica a Metodologia de Preços Hedônicos como ferramenta para auxiliar na identificação dos atributos relevantes dos aparelhos celulares comercializados no mercado de massa brasileiro e seus respectivos preços implícitos. São 96 aparelhos celulares monitorados semanalmente ao longo do ano de 2007, constituindo mais de 37.000 registros. Como resultado, no estágio de maturidade do mercado na época, foram identificados intensos prêmios de preço associados às características físicas (design) e à presença de atributos relacionados à itens de multimídia (câmeras digitais, vídeos e MP3 player). Por fim, utilizamos o modelo econométrico desenvolvido para simular e identificar o preço sugerido ou potencial de novos celulares, não presentes na amostra utilizada para a regressão, mas constituídos por novas combinações de atributos com preços implícitos já identificados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Redes Bayesianas podem ser ferramentas poderosas para construção de modelos econômico-financeiros utilizados para auxílio à tomada de decisão em situações que envolvam grau elevado de incerteza. Relações não-lineares entre variáveis não são capturadas em modelos econométricos lineares. Especialmente em momentos de crise ou de ruptura, relações lineares, em geral, não mais representam boa aproximação da realidade, contribuindo para aumentar a distância entre os modelos teóricos de previsão e dados reais. Neste trabalho, é apresentada uma metodologia para levantamento de dados e aplicação de Redes Bayesianas na obtenção de modelos de crescimento de fluxos de caixa de empresas brasileiras. Os resultados são comparados a modelos econométricos de regressão múltipla e finalmente comparados aos dados reais observados no período. O trabalho é concluído avaliando-se as vantagens de desvantagens da utilização das Redes de Bayes para esta aplicação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho explora com cuidado o lado específico da implementação de um modelo de alocação de ativos em que o risco é tratado de maneira integrada, não somente através do desvio padrão do portfólio, mas também considerando outras métricas de risco como, por exemplo, o Expected Shortfall. Além disso, utilizamos algumas técnicas de como trabalhar com as variáveis de modo a extrair do mercado os chamados “invariantes de mercado”, fenômenos que se repetem e podem ser modelados como variáveis aleatórias independentes e identicamente distribuídas. Utilizamos as distribuições empíricas dos invariantes, juntamente com o método de Cópulas para gerar um conjunto de cenários multivariados simulados de preços. Esses cenários são independentes de distribuição, portanto são não paramétricos. Através dos mesmos, avaliamos a distribuição de retornos simulados de um portfólio através de um índice de satisfação que é baseado em uma função de utilidade quadrática e utiliza o Expected Shortfall como métrica de risco. O índice de satisfação incorpora o trade-off do investidor entre risco e retorno. Finalmente, escolhemos como alocação ótima aquela que maximiza o índice de satisfação ajustado a um parâmetro de aversão ao risco. Perseguindo esses passos, é possível obter um portfólio no qual a alocação em cada ativo, ou classe de ativos, reflete o prêmio esperado ao risco incorrido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação estuda a aplicação da estratégia Pairs Trading no mercado acionário brasileiro. Envolve basicamente a identificação de pares de ações que tenham movimentos de preço semelhantes e posteriormente a operação do diferencial entre seus preços. É possível observar no mercado a existência de um valor de equilíbrio de longo prazo para alguns pares de ações e quando o diferencial divergir de certa quantidade pré-definida opera-se o diferencial no intuito de que o mesmo retorne ao seu valor de equilíbrio de longo prazo, ou seja, espera-se que ocorra uma reversão à média do diferencial. A metodologia para a identificação desses pares de ações que descrevem movimentos semelhantes vem do conceito de cointegração. Essa metodologia é aplicada sobre as ações do índice Bovespa de 04-Jan-1993 a 30-Jun-2005. Inicialmente é feita uma pré-seleção dos pares de ações via correlação, ou medida de distância. Para a seleção final é feito o teste de cointegração, onde é utilizado o método de Dickey-Fuller aumentado (Augmented Dickey-Fuller test – ADF) para verificar a existência de raiz unitária da série de resíduo da combinação linear do logaritmo dos preços. Após a seleção, os pares são simulados historicamente (backtesting) para se analisar a performance dos retornos dos pares de ações, incluindo também os custos operacionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A literatura de Recursos Humanos sugere a seus profissionais que, ao buscar aprovação para investimentos em projetos e programas de RH, enfatizem a contribuição que eles podem dar ao atingimento dos objetivos de negócios de suas organizações. As empresas, impelidas pela competição cada dia mais acirrada, esperam que seus profissionais de RH justifiquem os investimentos em linguagem que demonstre de maneira clara os benefícios que possam adicionar na busca de tais objetivos - esta linguagem necessariamente se relaciona ao resultado financeiro e econômico das empresas. Se é reduzida a influência das áreas de RH ou baixa a prioridade dada à implementação de seus programas, esta situação pode não ser nada mais nada menos do que uma resposta racional da direção das empresas, que apesar de “conhecer” intuitivamente os benefícios da atividade, não dispõe de uma medida objetiva sobre eles. Na falta de tal medida, a organização não consegue priorizar adequadamente os programas de RH em seu plano de investimentos. A Análise da Utilidade oferece uma resposta a este problema. Ela consiste em uma família de teorias e medidas desenhadas para descrever, predizer e/ou explicar quão úteis e desejáveis são as opções de decisão relativas aos diversos programas da Gestão de RH – seleção, treinamento, avaliação de desempenho, remuneração, etc., e pode ser considerada como uma análise de custos e benefícios: os custos reduzem a utilidade e os benefícios a aumentam. A Análise da Utilidade é um instrumento adequado ao ambiente de negócios porque insiste em que tanto os custos como as conseqüências das decisões sejam sempre considerados de antemão. O mérito de sua abordagem é que ela resulta em decisões fundamentadas em raciocínio robusto, racional e consciente, através da linguagem mais utilizada no mundo dos negócios da atualidade – custos, benefícios, retornos de investimentos, e seus impactos sobre os resultados finais, financeiros e econômicos. Neste trabalho aplicamos a metodologia definida por Sturman et al. (2003), destinada ao uso da Análise da Utilidade na avaliação do valor econômico de diferentes políticas de remuneração, ao caso de uma grande empresa do setor financeiro no Brasil. Nossas conclusões demonstram o valor do uso da Análise da Utilidade na justificação de políticas de remuneração de alto valor. Esta justificação se baseia nas estimativas de valor incremental dos recursos humanos que tais políticas ajudam a reter, contrabalançado pelos riscos de sua implementação. Tais políticas, se julgadas pelos padrões tradicionais de custo, seriam descartadas. Demonstramos que a Análise da Utilidade viabiliza uma linguagem comum entre a área de RH, a alta direção e demais áreas da empresa – contribuição aos objetivos do negócio. Isto deve facilitar a comunicação e divulgação dos benefícios, implantação e monitoração dos programas de RH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem por objetivo analisar a participação de mercado dos diferentes grupos estratégicos que compõem o setor de agências de internet no Brasil, bem como as mudanças decorrentes de alterações nas variáveis críticas de concorrência, tais como preço, investimento em propaganda, investimento em tecnologia e disponibilidade de mão-de-obra.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A abordagem do Value at Risk (VAR) neste trabalho será feita a partir da análise da curva de juros por componentes principais (Principal Component Analysis – PCA). Com essa técnica, os movimentos da curva de juros são decompostos em um pequeno número de fatores básicos independentes um do outro. Entre eles, um fator de deslocamento (shift), que faz com que as taxas da curva se movam na mesma direção, todas para cima ou para baixo; de inclinação (twist) que rotaciona a curva fazendo com que as taxas curtas se movam em uma direção e as longas em outra; e finalmente movimento de torção, que afeta vencimentos curtos e longos no mesmo sentido e vencimentos intermediários em sentido oposto. A combinação destes fatores produz cenários hipotéticos de curva de juros que podem ser utilizados para estimar lucros e perdas de portfolios. A maior perda entre os cenários gerados é uma maneira intuitiva e rápida de estimar o VAR. Este, tende a ser, conforme verificaremos, uma estimativa conservadora do respectivo percentual de perda utilizado. Existem artigos sobre aplicações de PCA para a curva de juros brasileira, mas desconhecemos algum que utilize PCA para construção de cenários e cálculo de VAR, como é feito no presente trabalho.Nesse trabalho, verificaremos que a primeira componente principal produz na curva um movimento de inclinação conjugado com uma ligeira inclinação, ao contrário dos resultados obtidos em curvas de juros de outros países, que apresentam deslocamentos praticamente paralelos.