35 resultados para Mercado financeiro - modelos econométricos
Resumo:
As Séries de Fourier permitiram o advento de tecnologias aplicadas em diversas áreas do conhecimento ao proporcionar uma melhor compreensão do comportamento de séries de dados, decompondo-as em diversas harmônicas independentes. Poucos estudos foram encontrados aplicando tal ferramenta matemática para analisar séries de retornos de títulos financeiros. Este trabalho pesquisou - através de análise discreta de Fourier – o comportamento dos retornos de quatro ativos: Dow Jones, Ibovespa, e duas ações da Bolsa brasileira. Cotações mensais, diárias e de dez minutos (intraday) foram utilizadas. Além do espectro estático, registrou-se também a dinâmica dos coeficientes das harmônicas de Fourier. Os resultados indicaram a validade da forma fraca de eficiência de mercado para o curto prazo, dado que as harmônicas de período curto apresentaram comportamento aleatório. Por outro lado, o comportamento das harmônicas de longo prazo (período longo) apresentou maior correlação serial, sugerindo que no longo prazo o mercado não se comporta de acordo com o modelo Random Walk. Uma aplicação derivada deste estudo é a determinação do número de fatores necessários para uma modelagem via Precificação por Arbitragem (APT), dado um nível de correlação desejado.
Resumo:
Este estudo analisa as mudanças de estrutura, de gestão e de inserção no mercado financeiro ocorridas no Banco do Brasil como instituição que busca sua identidade no sistema financeiro nacional SFN. As mudanças são analisadas sob a influência dos acontecimentos que interferiram (a) no cenário financeiro internacional pós-Segunda Guerra Mundial e (b) no cenário financeiro nacional que, de certa forma, regulou a atuação dos bancos públicos e privados. A análise da performance do Banco do Brasil é feita a partir da década de sessenta, com ênfase na década de noventa, período em que as alterações são mais profundas, reafirmando o caráter dual público/privado do Banco. O estudo empreendido leva-nos a avaliar a permanência do Banco do Brasil no Sistema Financeiro Nacional pela legitimação da lógica empresarial e do caráter privado de gestão, com atuação agressiva na colocação de produtos e serviços no mercado, mesmo que mantida sua condição de Empresa sob o controle do Estado e de instrumento de algumas de suas políticas.
Resumo:
A globalização eliminou, ao longo dos tempos, as fronteiras territoriais para os capitais financeiros e intelectuais e, conseqüentemente, tem exigido dos governos, empresas, administradores e investidores uma enorme variedade de informações para nortear investimentos potencialmente eficientes e geradores de riquezas capazes de atrair e mobilizar esses recursos. Empreendedores modernos, coadunados com essa nova realidade mundial, têm buscado nas teorias da administração financeira elementos importantes na análise de seus planos estratégicos e dos projetos de investimentos, buscando minimizar os riscos e maximizar os recursos financeiros disponíveis e suas estruturas físicas e materiais, além de conhecer e prever os desdobramentos de suas decisões sobre a perpetuidade de suas empresas. Esses novos visionários agregam valor econômico à empresa e aos investidores, pois suas decisões empresariais e de investimentos são tabuladas de forma a projetar seus empreendimentos no longo prazo, afastando, desde já, a insolvência das empresas como suporte sócio-econômico da dinâmica das nações. Os variados modelos desenvolvidos nos campos acadêmicos para as áreas de administração financeira, quer por desconhecimento, descaso dos administradores ou pela complexidade de alguns destes, ainda não foram disseminados para um grande contingente de empresas ao redor do planeta. Certos modelos possuem especificidades restritas ou se prestam a situações especiais. Alguns empreendedores ainda se utilizam dos resultados extraídos da contabilidade tradicional na definição de valor econômico de seus investimentos, de uma maneira geral, dando ênfase aos dados financeiros tradicionais originados na contabilidade Para corrigir está deficiência estrutural, os acadêmicos desenvolveram modelos que, acompanhados dos dados relatados pela contabilidade, da forma como se apresenta na atualidade, complementam e dão suporte aos envolvidos, objetivando a mensuração do valor econômico de seus empreendimentos e a eficiência de suas decisões. Dentre esses variados modelos, pode-se destacar o modelo de fluxo de caixa descontado (DFC), considerado uma ferramenta eficiente para a avaliação de investimentos ao capturar a agregação de valor do projeto no longo prazo e os riscos inseridos no mesmo, muitas vezes negligenciado pelos administradores. O modelo em questão, e os outros mais, serão, sumariamente, conceituados ao longo do presente estudo, buscando identificar as potencialidades de cada um e em que tipo de avaliação pode, ou deve, ser aplicado. Conclusivamente, serão aplicadas todas as premissas abstraídas do modelo DFC, recomendado por COPELAND, KOLLER e MURRIN (2002), ajustado às características da empresa, para conhecer o valor de mercado da Linck Agroindustrial Ltda.
Resumo:
Este trabalho discute a aplicação de modelos de Pesquisa Operacional como base para o gerenciamento de operações e análise de tecnologias em empresa de transporte de carga. Inicialmente, busca-se contextualizar o escopo deste trabalho dentro do ambiente competitivo atual a fim de que sejam percebidas as conexões entre os sistemas de operações vigentes e os modelos apresentados. Também é feita uma discussão preliminar do conceito de logística, visto que este enseja uma série de acepções para o termo. Em seguida é apresentada uma revisão de algumas ferramentas de modelagem que usualmente são aplicadas a problemas de suprimento, distribuição e transbordo de produtos. Com base nesta revisão é proposta uma abordagem hierarquizada para o tratamento de problemas de logística. Um estudo de caso realizado em uma empresa de transporte de carga busca então aplicar algumas ferramentas de Pesquisa Operacional nos diversos níveis de gerenciamento de operações. Por fim, o trabalho verifica as potencialidades do uso de uma abordagem hierarquizada e a importância da adoção de modelos em empresas de transporte de carga como forma de alavancagem da sua competividade frente as novas exigências do mercado.
Resumo:
Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.
Resumo:
Este trabalho tem por objetivo mostrar a adaptação das estratégias de uma empresa fornecedora de equipamentos de transmissão de dados, a PARKS S/A COMUNICAÇÕES DIGITAIS, frente às mudanças do mercado de telecomunicações no Brasil Através de uma análise de caso, evidenciaram-se as mudanças ocorridas no mercado de telecomunicações, a percepção desta empresa para tais mudanças e a orientação estratégica adotada para os seus próprios setores, a saber, o comercial, o industrial, o financeiro, o de recursos humanos e qualidade e o de engenharia. O estudo das mudanças ocorridas neste mercado abrangeu dois períodos, quais sejam, o anterior à privatização e os anos de 1997 até 2000, ressaltando-se, porém, que a análise se centrou neste último, o qual foi analisado mais detalhadamente. Uma vez identificadas as principais mudanças ocorridas na empresa escolhida para o estudo de caso - PARKS S/A Comunicações -, através de observação e da vivência do autor, bem como de contribuições relatadas por colegas da empresa, igualmente participantes do processo, este trabalho analisa estas mudanças uma a uma, mostrando o reflexo das mesmas na estrutura da empresa, procurando explicar como se deu o fenômeno e, assim, contribuindo para a compreensão de processos análogos que venham a ocorrer em um futuro próximo.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
A gestão do risco de crédito é um tema que vem chamando a atenção dos Administradores, sendo considerado um instrumento gerencial importante no processo competitivo. Este estudo tem como objetivo identificar como as empresas que comercializam eletro-eletrônicos, na cidade de Caxias do Sul, estão procedendo no processo de concessão de crédito aos seus clientes. O estudo descritivo realizado em vinte grupos econômicos que atuam nesse mercado, representando trinta e sete estabelecimentos comerciais, evidenciou alguns problemas nos procedimentos realizados pelas empresas pesquisadas. Como por exemplo, a baixa utilização de sistemas de informação, como apoio ao processo de tomada de decisão. Há pouca aplicação de procedimentos de monitoramento pós-concessão de crédito. Não existe um indicador de inadimplência no segmento pesquisado; as empresas não têm comparativo para verificar seu desempenho. Além disso, poucas empresas possuem indicador de inadimplência, as que possuem calculam de forma similar. Outro fator, refere-se à capacitação dos profissionais responsáveis pela tomada de decisão de crédito. As entrevistas mostraram estas deficiências. As empresas pesquisadas ainda não incorporaram as técnicas de gestão do risco de crédito, desenvolvida pelo setor bancário. Poucas empresas possuem modelos de credit scoring, ou modelos sofisticados, que trabalhem o grande número de variáveis de seus cadastros. Suas decisões estão baseadas nos Cs do crédito, caracterizado pela análise tradicional de crédito, com ênfase no julgamento humano. Através da descrição do processo de concessão de crédito, este estudo procura dar uma visão mais ampla do assunto, evidenciando a implantação de políticas de crédito que explicitem os padrões de concessão; sendo um aliado na busca da redução de riscos que as empresas correm ao conceder crédito a seus clientes.
Resumo:
Esta Dissertação tem como objetivo analisar o Papel do Sistema Financeiro no Desenvolvimento Econômico Regional, no período de 1991 a 2000. No primeiro capítulo se procura caracterizar, de forma geral, o sistema financeiro e, de forma específica, a firma bancária, onde se confrontam a visão convencional e a visão pós-keynesiana, os modelos de financiamento do desenvolvimento econômico e seu papel nesse processo. É analisada, também, a experiência histórica e o modelo de alguns países. No segundo capítulo é abordada a evolução histórica do Sistema Financeiro Nacional, e a forma de como atuam os bancos públicos e privados, em nível nacional e regional. Neste mesmo capítulo, também se procura destacar o papel do sistema financeiro no processo do desenvolvimento econômico e justificar a manutenção das instituições financeiras públicas, para desempenhar a função de agente financiador do crédito, especialmente nas regiões menos desenvolvidas. No terceiro capítulo, é feita uma análise dos agregados monetários correspondente ao volume de depósitos e de crédito, em nível regional, no período de 1991 a 2000, enfatizando a distribuição dos recursos, entre bancos públicos e privados nas cinco regiões brasileiras. Procurou-se, também, comparar essas duas variáveis em relação ao PIB regional. Por fim, na conclusão, sugere-se a criação de mecanismos alternativos de financiamento, como o fomento e os incentivos fiscais.
Resumo:
Este trabalho tem por objetivo apresentar a fundamentação teórica e efetuar uma aplicação prática de uma das mais importantes descobertas no campo das finanças: o modelo de precificação de ativos de capital padrão, denominado de Capital Asset Price Model (CAPM). Na realização da aplicação prática, comparou-se a performance entre os retornos dos investimentos exigidos pelo referido modelo e os realmente obtidos. Foram analisadas cinco ações com a maior participação relativa na carteira teórica do Ibovespa e com retornos publicados de junho de 1998 a maio de 2001. Os dados foram obtidos da Economática da UFRGS e testados utilizando-se o Teste-t (duas amostras em par para médias) na ferramenta MS Excel. Os resultados foram tabelados e analisados, de onde se concluiu que, estatisticamente, com índice de confiança de 95%, não houve diferença de performance entre os retornos esperados e os realmente obtidos dos ativos objeto desta dissertação, no período estudado.
Resumo:
O lançamento de DRs (Recibos de Depósitos) por empresas brasileiras é um mecanismo que possibilita às empresas terem acesso a mercados de capitais maiores e mais líquidos, podendo servir como um instrumento para o aumento de suas visibilidades no exterior e como um possível redutor de seus custos de capital. Esta pesquisa verifica os reflexos ocorridos nas ações das empresas brasileiras que lançaram mão deste instrumento no que tange a suas valorizações de mercado, suas volatilidades e suas performances ajustadas ao risco. De uma forma geral, apesar de pouco significativos estatisticamente, os resultados encontrados para as empresas brasileiras parecem ser condizentes com a hipótese de que a negociação internacional dos papéis dessas companhias ajudam a reduzir os efeitos da segmentação de mercado em suas ações, estando associados a ajustes para cima em seus preços, e para baixo, em seus retornos esperados e em suas volatilidades, para todos os tipos de DRs brasileiros negociados no mercado norte-americano, à exceção dos DRs de nível III que, de uma forma não significativa, parecem se comportar como se fossem emissões sazonais de capitais tradicionais (seasoned equity offerings).
Resumo:
O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.
Resumo:
Com o advento dos processos submicrônicos, a capacidade de integração de transistores tem atingido níveis que possibilitam a construção de um sistema completo em uma única pastilha de silício. Esses sistemas, denominados sistemas integrados, baseiam-se no reuso de blocos previamente projetados e verificados, os quais são chamados de núcleos ou blocos de propriedade intelectual. Os sistemas integrados atuais incluem algumas poucas dezenas de núcleos, os quais são interconectados por meio de arquiteturas de comunicação baseadas em estruturas dedicadas de canais ponto-a-ponto ou em estruturas reutilizáveis constituídas por canais multiponto, denominadas barramentos. Os futuros sistemas integrados irão incluir de dezenas a centenas de núcleos em um mesmo chip com até alguns bilhões de transistores, sendo que, para atender às pressões do mercado e amortizar os custos de projeto entre vários sistemas, é importante que todos os seus componentes sejam reutilizáveis, incluindo a arquitetura de comunicação. Das arquiteturas utilizadas atualmente, o barramento é a única que oferece reusabilidade. Porém, o seu desempenho em comunicação e o seu consumo de energia degradam com o crescimento do sistema. Para atender aos requisitos dos futuros sistemas integrados, uma nova alternativa de arquitetura de comunicação tem sido proposta na comunidade acadêmica. Essa arquitetura, denominada rede-em-chip, baseia-se nos conceitos utilizados nas redes de interconexão para computadores paralelos. Esta tese se situa nesse contexto e apresenta uma arquitetura de rede-em-chip e um conjunto de modelos para a avaliação de área e desempenho de arquiteturas de comunicação para sistemas integrados. A arquitetura apresentada é denominada SoCIN (System-on-Chip Interconnection Network) e apresenta como diferencial o fato de poder ser dimensionada de modo a atender a requisitos de custo e desempenho da aplicação alvo. Os modelos desenvolvidos permitem a estimativa em alto nível da área em silício e do desempenho de arquiteturas de comunicação do tipo barramento e rede-em-chip. São apresentados resultados que demonstram a efetividade das redes-em-chip e indicam as condições que definem a aplicabilidade das mesmas.
Resumo:
Este trabalho estuda um tema relativamente recente na literatura econômica conhecido por contágio. Utilizando-se de modelos de mudança de regime markoviana multivariados (MS e MSGARCH) faz-se um estudo do comportamento das correlações ao longo do tempo entre alguns mercados de ações. Vale dizer, as correlações entre mercados de ações latino-americanos (Brasil, Argentina e México) e entre mercados asiáticos (Tailândia, Malásia e Coréia do Sul). O período abrangido pela amostra vai de janeiro de 1994 a início de janeiro de 2002, cobrindo, assim, as crises econômico-financeiras vivenciadas a partir de meados da década de noventa (a crise mexicana, em 1994/95, a crise asiática, em 1997, a crise russa, em 1998, e a crise brasileira, em 1999). A análise do comportamento das correlações ao longo do tempo mostrou que, para os mercados latino-americanos não houve evidência de contágio no período considerado, e sim, interdependência entre eles. Por outro lado, para os mercados de ações asiáticos, constatou-se a ocorrência de contágio entre os mercados tailandês e coreano e entre os mercados malaio e coreano.
Resumo:
A importância da validação de Sistemas de Apoio à Dedisão (SAD) cresce na medida em que o uso destes tem crescido a partir da facilidade de acesso das pessoas a computadores cada vez com maior capacidade de processamento e mais baratos. Este trabalho procura estabelecer um procedimento prático para um método de validação de SAD. Para tal, este procedimento foi aplicado na validação de um SAD financeiro na área de avaliação de opções. O método foi desenvolvido em três etapas básicas: validação conceitual, verificação e legitimidade, tendo apoio em uma metodologia desenvolvida por Borenstein e Becker (2001). As conclusões basearam-se em procedimentos qualitativos de validação, utilizando-se de testes de laboratório e de campo. Constatou-se que o método apresentou bons resultados, embora o caráter qualitativo da validação, demonstrando que este tem potencial para ser aplicado a outros sistemas, preenchendo uma lacuna na literatura de SAD.