873 resultados para Gerenciamento costeiro


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral da dissertação é estudar o código de conduta de uma empresa multinacional, visando conhecer a coerência entre o comportamento ético da empresa na subsidiária no Brasil, em termos da relação fornecedor - profissionais do setor de compras. Através de um estudo exploratório de natureza qualitativa e emprego de entrevistas semi-estruturadas questionário Likert, procurou-se conhecer a percepção do fornecedor com relação ao comportamento ético do comprador da empresa no Brasil, bem como os fatores que influenciam este relacionamento. A análise dos dados mostra que, apesar da reputação negativa percebida pelos brasileiros com relação à ética nos negócios, a empresa estudada apresenta uma boa reputação para o grupo de stakeholders “fornecedores”. Confidencialidade de informações, respeito, ausência de favorecimentos, confiança, justiça, qualidade do produto, velocidade na resolução de problema, comunicação clara, negociação justa e honesta e vivência e comunicação do código de conduta da empresa pelos seus funcionários, foram identificados como fatores que influenciam o relacionamento fornecedor – comprador, bem como a percepção do fornecedor com relação ao comportamento ético do comprador. A percepção do comportamento ético do departamento de compras de uma empresa faz parte da imagem corporativa, e está intimamente ligada com a reputação da corporação. Comunicação, respeito mútuo e criação e manutenção de uma relação aberta e de confiança com seus stakeholders são componentes importantes no processo gerenciamento da identidade corporativa. Padrões éticos elevados, como os da empresa estudada, contribuem para estabelece a identidade da corporação e um bom relacionamento com seus stakeholders.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A questão do posicionamento de marcas é central ao processo de gerenciamento de marketing, pois produtos e serviços são adquiridos em grande parte em função da imagem que constroem na mente dos consumidores e clientes. Este trabalho busca explorar as relações existentes entre posicionamento de marca, preferências dos indivíduos e comportamento de compra através do tempo. Mais especificamente, ele se propõe a examinar as relações entre distância de uma marca ao ponto ideal num mapa perceptual e sua participação de mercado, e o quanto mudanças nessa distância através do tempo são acompanhadas de ganhos ou perdas de participação de mercado. Nessa tarefa são utilizadas técnicas de análise multivariada como o escalonamento multidimensional, a fim de elaborar os mapas perceptuais, e o mapeamento de preferências, a fim de localizar pontos ideiais nos mapas elaboradas. Também é utilizada a técnica de análise procrusteana, no processo de comparação de diferentes mapas perceptuais. Uma vez determinadas as distâncias das marcas ao ponto ideal e suas variações entre dois momentos no tempo, tais medidas são correlacionadas às participações de mercado das marcas, e suas variações. Os resultados obtidos no estudo empírico indicam que a variável "distância ao ponto ideal no mapa perceptual" é boa candidata a um indicador de participação de mercado, presente e futura. No entanto, esta distância não se mostra um bom indicador das variações na participação de mercado propriamente ditas. Outro resultado interessante diz respeito ao conceito de equilíbrio entre a ordenação das marcas em função das distâncias ao ponto ideal e ordenação das marcas em função da participação de mercado, sugerindo que quando existe uma discordância nestas ordens, as participações de mercado das mrcas tendem a mudar na direção de reduzir este desequilíbrio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ambiente financeiro internacional vem passando por profundas mudanças ao longo das últimas décadas, decorrentes especialmente da evolução tecnológica e científica, onde a globalização da atividade bancária e a alta competição por ganhos nunca antes imaginados expõem as corporações bancárias e a própria sociedade a toda sorte de riscos, considerando-se as possibilidades de perdas decorrentes de uma má gestão dos riscos e de eventuais comportamentos oportunistas dos seus agentes. Tem-se presenciado, por exemplo, os casos de crise recentes do subprime nos EUA e das perdas de mais de 4 bilhões de euros ocasionadas pelo operador Jérôme Kerviel do Société Générale. Da mesma forma, paralelamente esforços vem sendo desenvolvidos para padronização do controle e da regulação dos riscos em escala mundial, como forma de garantir um ambiente de segurança à atividade bancária internacional. Trata-se do Comitê de Basiléia, uma convenção internacional criada em 1974 e cujas recomendações são hoje seguidas por mais de 100 países, incluindo o Brasil. Em 2004 o comitê publicou o Novo Acordo de Capital (Basiléia II) que indica práticas para controle e mitigação de uma nova modalidade de risco, o risco operacional, ou seja, a possibilidade de ocorrência de perdas resultantes de falha, deficiência ou inadequação de processos internos, pessoas e sistemas, ou de eventos externos. Sua correspondente na legislação brasileira é a Resolução nº 3.380/06 do Conselho Monetário Nacional. A resolução determina a criação de uma estrutura dedicada para gerenciamento do risco operacional e da adoção das recomendações de Basiléia II sobre o tema em todas as organizações autorizadas a operar no Brasil pelo Banco Central do Brasil. Trata-se de um grande desafio para as empresas e seus gestores de risco que devem desenvolver e incorporar novos mecanismos de controle, os quais foram convencionados internacionalmente, a despeito de todas as dificuldades de ordem técnica e organizacional, envolvidas nos processos de adequação. O espírito da lei é da busca de total transparência das organizações e de seus membros no tocante à presença de falhas, deficiências e inadequações das práticas do dia-a-dia. Entretanto, há aspectos organizacionais como cultura, práticas sociais e elementos de interpretação que interferem na aplicação da lei na prática (enforcement). Este é um trabalho de caráter exploratório, descritivo e empírico que buscou entender através de análise qualitativa ‘se’ e ‘como’ esse espírito pode ser disseminado e incorporado dentro das organizações bancárias brasileiras de forma a se cumprir a lei e os prazos por ela determinados, face às pressões internacionais por padronização dos controles e da regulação do risco operacional, às pressões do mercado local e às pressões geradas internamente pelo próprio meio institucional da organização, além das necessidades prementes de atendimento à legislação. Espera-se que os resultados deste trabalho contribuam para o endereçamento de futuras pesquisas a cerca do tema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação é apresentado o atual estágio da Indústria de Entretenimento Móvel no Brasil, com base numa análise do setor de telefonia celular e da sua interação com a indústria do entretenimento. Para isso, discutem-se as principais características e dificuldades encontradas, por esses dois setores, na tentativa de implementação e gerenciamento de um modelo de negócios adequado à Indústria de Entretenimento Móvel. Realizou-se uma pesquisa exploratória, qualitativa, na qual foram efetuadas entrevistas com representantes da telefonia móvel e fornecedores de conteúdo de entretenimento no Brasil. Também foram analisados documentos secundários, tais como dados dos dois setores investigados disponíveis em websites e reportagens em revistas de negócios. Observou-se que, devido a uma relativa saturação do mercado de voz, o setor de telefonia celular, no Brasil, vem tentando ampliar suas receitas, direcionando-se para produtos da indústria do entretenimento. Essa junção vem resultando em um tipo novo de indústria. O avanço tecnológico foi determinante para essa interação através da evolução dos telefones celulares, que incorporaram novos recursos multimídia transformando-se numa nova mídia, com o surgimento do protocolo de Internet (TCP/IP). Com a tecnologia disponível, as duas indústrias começaram a ter interesses recíprocos: a indústria de telefonia móvel buscando oferecer novos serviços a seus usuários, visando o aumento do ARPU (Average Revenue per User); e a indústria de entretenimento buscando uma nova mídia para vender seus produtos, principalmente jogos, músicas e vídeos digitais. Entretanto, essas indústrias se posicionaram em bases diferentes, apesar de serem indústrias de serviços: a indústria de telefonia móvel, no Brasil, tem sua base na venda de mercadorias comoditizadas, tanto com minutos de voz quanto pela troca de dados; já a indústria do entretenimento tem o valor imaterial e intangível muito forte na composição do preço de troca de seus produtos. As diferentes formas de fazer negócios dessas duas indústrias têm gerado dificuldades na solidificação do que se convencionou chamar, no ambiente mercadológico, por “modelo de negócios”. 9 O desenvolvimento de modelos de negócios que responda às necessidades das duas indústrias é, segundo os entrevistados, o principal obstáculo para o aproveitamento do potencial da Indústria de Entretenimento Móvel. Essas diferenças constituem-se no principal argumento, deste autor para considerar a Indústria de Entretenimento Móvel separada de suas indústrias formadoras, criando uma “nova indústria”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O enfoque estratégico do gerenciamento da cadeia de suprimentos tem sido explorado em diversos trabalhos acadêmicos e científicos. Uma gama de técnicas e metodologias é cada vez mais difundida com o objetivo de aumentar sua lucratividade e eficiência operacional. Entretanto, episódios recentes como o atentado terrorista aos Estados Unidos em 11 de setembro de 2001, a competitividade e voracidade da economia chinesa e as barreiras à importação de produtos estrangeiros realizada pela União Européia, evidenciaram ao mundo a fragilidade e vulnerabilidade de diversas cadeias de suprimentos. Um agravante a essa realidade, foi a constatação de que essas cadeias não estavam suficientemente preparadas para enfrentar esses problemas e seus impactos devastadores. Particularmente, o setor de papel e celulose no Brasil, caracterizado pelo emprego de capital intensivo e pela sua escala, tem sido impactado pela crise energética, apagão logístico e infra-estrutura brasileira precária, para competir globalmente. Nesse contexto, um novo campo de conhecimento, o Gerenciamento de Riscos na Cadeia de Suprimentos (GRCS) ou Supply Chain Risk Management (SCRM) emergiu como componente estratégico das empresas para a construção de resiliência nas organizações. Esse trabalho realizou uma pesquisa inédita no setor de papel e celulose no Brasil, com o propósito de identificar as principais vulnerabilidades dessa importante cadeia de suprimentos, apontar suas principais estratégias de resiliência e avaliar as relações existentes entre essas estratégias de resiliência e os principais riscos de ruptura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A construção da sustentabilidade constitui-se em um dos grandes desafios deste tempo. A manchete de capa da Harvard Business Review, de agosto de 2003, traz a preocupação das lideranças empresariais com um mundo que mudou. A história da antiga Borregard, hoje Aracruz/ Unidade Guaíba, instalada no Município de Guaíba -RS, desde 1972, conta uma parte desta transformação. O objetivo da pesquisa foi identificar a participação da Aracruz/ Unidade Guaíba no Sistema Estadual de Recursos Hídricos tendo como referência os conceitos de governança e eco-comprometimento. O trabalho descreve a história desde o fechamento da Borregard em 1973/1974, em função das emissões atmosféricas lançadas sobre as populações de Porto Alegre e Guaíba, até consolidar a participação da Aracruz/ Unidade Guaíba no Sistema Estadual de Recursos Hídricos, a partir de 1998, com a criação do Comitê de Gerenciamento do Lago Guaíba. Para tecer esta história apresenta-se a estrutura do Sistema de Gestão de Recursos Hídricos, dando ênfase a sua natureza estatal e ao modelo sistêmico, descentralizado e participativo no qual está baseado Os dados foram coletados através de 31 entrevistas focais e semi-estruturadas, e através dos documentos da Aracruz Unidade Guaíba, do Comitê do Lago Guaíba e do Governo do Estado. Os entrevistados foram identificados entre membros do Comitê do Lago Guaíba, funcionários da Aracruz/ Unidade Guaíba e funcionários da Fundação Estadual de Proteção Ambiental. O questionário semi-estruturado contou com 59 questões, sendo 41 questões fechadas e 18 questões abertas, e as entrevistas focais contaram com um roteiro previamente construído. Utilizou-se o subsídio da Teoria de Governança, em seu enfoque político, para compreender a implementação do Sistema de Gestão de Recursos, e os diferentes papéis de cada um dos atores nele inscritos. Caracteriza-se o ambiente institucional do SERH pelas suas condições de articular o suporte para construção de uma alternativa de Desenvolvimento Sustentável.Na seqüência foi analisado o comprometimento da Aracruz/ Unidade Guaíba com a questão sócio-ambiental, em função da relação estabelecida com os sues stakeholders. Procedeu-se esta investigação tendo como referência os dados coletados, que foram examinados à luz do conceito de eco-comprometimento e de responsabilidade social. Com estes elementos identificou-se a postura da empresa frente aos desafios sócio-ambientais que se configuram na Bacia Hidrográfica do Lago Guaíba. Conclui-se que a atuação da empresa enfatiza uma postura legalista e reativa as tendências de mercado, principalmente em relação aos processos de certificação. A ênfase no tratamento da frente tecnológica do debate ambiental não supre a carência de uma atuação sócio-institucional mais pró-ativa. Percebe-se também que a construção das estruturas de governança para a gestão de recursos hídricos, em face da particularidade da Legislação do Brasil, pressupõe uma atuação eficiente do Estado. No contexto do SERH foram identificadas lacunas significativas na atuação do Estado, que prejudicam a consolidação do ambiente institucional para a construção dos acordos entre a Aracruz/ Uniadade Guaíba e os demais setores organizados da sociedade da bacia Hidrográfica do Lago Guaíba, que possibilitem a construção de alternativas de Desenvolvimento Sustentável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversos estudos vêm analisando a contribuição da gestão da qualidade para o resultados financeiros das empresas, sejam eles conduzidos por acadêmicos ou por firmas de consultoria diretamente interessadas em comprovar a relação entre qualidade e desempenho superior. Apesar dos benefícios atribuídos ao gerenciamento da qualidade, o conjunto de pesquisas empíricas publicadas até hoje apresenta resultados não conclusivos. A grande maioria desses trabalhos se utilizam de dados de empresas americanas ou européias; no Brasil tal linha de pesquisa ainda é incipiente. Além de comparar o desempenho financeiro de uma amostra de empresas que efetivamente adotam a gestão da qualidade com as demais empresas de seus respectivos setores de atuação, este trabalho avaliou também a evolução do desempenho das próprias empresas dessa amostra no longo prazo (10 anos), comparando seus resultados no período pós-implementação da qualidade com os resultados obtidos anteriormente. Como proxy para a adoção efetiva da qualidade foram consideradas na amostra de estudo 33 empresas reconhecidas como ganhadoras ou finalistas do Prêmio Nacional da Qualidade (PNQ). O desempenho financeiro foi medido em três dimensões: crescimento, lucratividade e valor de mercado. Esses dados foram obtidos de um conjunto de bases de dados entre as quais se destacam o Balanço Anual da Gazeta Mercantil, a Economática e as Pesquisas Industriais Anuais do IBGE. Para isolar o efeito do setor de atuação das empresas, as variáveis foram parametrizadas de acordo com uma relação entre o desempenho das empresas da amostra de estudo, o desempenho do setor e a variância do desempenho do setor. No total, foram utilizadas 12.010 observações de 2.624 empresas (33 da amostra de estudo e 2.591 dos setores), no período de 1987 a 2006. Na primeira etapa da metodologia, o desempenho de cada empresa da amostra de estudo foi sumarizado por meio de regressões lineares, resultando em dois coeficientes: um linear representando o desempenho no ponto médio do período e um angular representando a taxa de evolução do desempenho no mesmo período. A seguir, análises paramétricas (testes t) e não-paramétricas (testes de Wilcoxon para observações pareadas e teste dos sinais) foram realizadas para os dados de toda a amostra. Os resultados mostraram que a rentabilidade foi a única dimensão estudada onde as empresas da amostra tiveram desempenho superior à média de seus respectivos setores; por outro lado, não foram observadas melhorias no desempenho quando comparados os períodos anterior e posterior à implementação efetiva da qualidade. A análise em conjunto desses dois achados fornece indícios de uma relação de co-variância, e não causal, entre qualidade e lucratividade. As conclusões apresentam as principais implicações dos resultados, com ênfase na formulação de possíveis hipóteses para se entender as causas da falta de associação entre qualidade e desempenho superior. Entre as mais importantes destacam-se hipóteses que relacionam qualidade e a perda da capacidade de inovação e que avaliam a gestão da qualidade sob a ótica da linha de pesquisa em estratégia conhecida por visão baseada em recursos (resource-based view – RBV).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho procurou analisar os conceitos de planejamento estratégico, planejamento financeiro e gerenciamento com base no valor como ferramentas importantes no processo de gestão corporativa atual. Ao considerar que, nos dias atuais, cabe às empresas serem eficientes em suas operações para se manterem competitivas no mercado em que atuam, essas ferramentas mostram-se importantes para que esse objetivo de eficiência seja alcançado. O objetivo da dissertação realizada foi realizar uma avaliação desses conceitos e sua evolução, bem como procurar, através de uma pesquisa de campo qualitativa, identificar sua efetiva adoção no gerenciamento de empresas multinacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisa os primeiros resultados da implantação do Fundo de Desenvolvimento e Manutenção do Ensino Fundamental e Valorização do Magistério FUNDEF, no Estado de São Paulo, no período de 1998 a 2000, verificando se os seus objetivos estão sendo cumpridos, em especial diminuição de desigualdade de distribuição de recursos. Estuda dois municípios Santos e Cubatão a título de ilustração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse estudo tem por finalidade contribuir para a discussão e o aprimoramento da gestão econômica e do desenvolvimento de ferramentas de apoio à decisão estratégica para empresas de serviços de saúde suplementar. Com base nos fundamentos teóricos sobre serviços, serviços de saúde suplementar, gerenciamento estratégico de custos e sistemas ABC/ABM, o estudo propõe um modelo de sistema de gestão de custos indiretos em planos de saúde sob a óptica do ABC/ABM, que visa proporcionar aos gestores uma visão ampla sobre o desempenho econômico dos planos e dos clientes. Assim, este estudo pretende colaborar com o desenvolvimento desse setor, que tem sofrido nos últimos anos o impacto da evolução da tecnologia e da medicina, provocando a constante elevação dos custos da assistência à saúde. Com a finalidade de justificar o estudo, o modelo é testado com a sua implementação em uma operadora de planos de saúde, possibilitando a discussão sobre as conclusões obtidas em relação ao problema abordado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na presente dissertação foi apresentada, pela primeira vez para o mercado brasileiro, uma aplicação da análise de componentes principais para a identificação dos fatores que influenciam o comportamento da estrutura temporal de cupom cambial brasileira, tendo como amostra cotações de ajuste dos contratos futuros de DDI e de FRA (Forward Rate Agreement) de cupom cambial da BM&F, cotações de fechamento do Dólar à vista e cotações de venda da Ptax800, para o período entre 02/01/2002 e 29/12/2005. Através da aplicação da técnica de análise de componentes principais para as curvas de cupom cambial limpo à vista e a termo foi possível observar superioridade no poder explicativo da última com relação à primeira, com três componentes principais sendo responsáveis por mais de 94% da variabilidade explicada na aplicação da análise de componentes principais à curva a termo de cupom cambial. A superioridade dos resultados obtidos na análise da curva a termo de cupom cambial também pôde ser observada na interpretação visual dos componentes de nível, inclinação e curvatura (interpretação esta que não pôde ser claramente obtida na análise dos gráficos referentes à curva à vista de cupom cambial). Este trabalho também teve como objetivo a análise da efetividade de uma aplicação de imunização do risco de variação nas taxas de cupom cambial baseada nos resultados anteriormente obtidos com a análise de componentes principais da curva a termo de cupom cambial. A estratégia de imunização realizada demonstrou alta efetividade na comparação entre os resultados da carteira objeto de imunização (carteira arbitrária de swaps DólarxCDI) e os resultados da carteira instrumento de imunização (contratos futuros de FRA de cupom cambial da BM&F). Este resultado é de grande importância para o gerenciamento de carteiras que possuam títulos expostos ao risco de variações na curva de cupom cambial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como objeto de estudo a superfície de volatilidade implícita de opções européias da paridade Real / Dólar no mercado brasileiro. Este trabalho não tenta explicar as deformações ou os desvios da volatilidade implícita com relação à hipótese de volatilidade constante do modelo de Black & Scholes (1973), mas trata a volatilidade implícita como uma variável financeira interessante por si só, procurando analisar a dinâmica de sua superfície. Para a análise desta superfície, o presente estudo propõe a utilização de uma ferramenta empregada em estudos empíricos de diversos ramos da ciência: a Análise de Componentes Principais – ACP (Principal Component Analysis). As mudanças na superfície de volatilidade alteram o apreçamento das opções de uma carteira. Desta forma, constituem um fator de risco que precisa ser estudado e entendido para o desenvolvimento de estratégias de imunização e de técnicas de gerenciamento de risco, dentre elas o cálculo de Valor em Risco (V@R – Value at Risk). De posse dos resultados obtidos com a análise de componentes principais da superfície de volatilidade implícita, o presente estudo tem por objetivo obter valores limite de variação desta volatilidade implícita, como forma de estimar as conseqüentes variações extremas nos valores de uma carteira de opções. Para tanto, baseia-se em estudos sobre a aplicação da análise de componentes principais da superfície de volatilidade implícita desenvolvidos por Alexander (2001). Estes estudos, por sua vez, são derivados de estudo sobre a dinâmica de curvas de volatilidade proposto por Derman (1999). Para se verificar a eficiência da metodologia proposta, os valores extremos obtidos são testados de acordo com os critérios de teste retroativo propostos pela emenda ao comitê da Basiléia de 1996.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.