548 resultados para Testa
Resumo:
Mercados com dinâmica competitiva baseada na inovaçâo são incertos e sujeitos a rupturas dos negócios envolvidos. Isto é bastante diferente dos mercados maduros, nos quais o equilíbrio de forças estabelece uma estrutura industrial relativamente estável. Mercados de inovação, ou high-tech, e em especial os de tecnologia da informação também estão sujeitos a outros fenômenos ou características que os distinguem dos mercados maduros. Trabalhamos com alguns destes fenômenos como: a difusão tecnológica, a qual está ligada a fatores psicológicos que motivam ou inibem a adoção da tecnologia por parte do cliente; o aprisionamento; a externalidades de rede; a disputas por padrões e a concorrência entre cadeias de valor distintas. Estas características demandam serviços, orientação do cliente quanto ao uso da tecnologia e casos de sucesso exemplares para vencer os fatores inibidores e estimular os fatores motivadores do cliente no seu processo de adoção da tecnologia. A teoria explica que os canais de marketing podem oferecer vantagem competitiva às empresas que bem se utilizam deles, e as características de demanda por serviços e orientação de uso pelos clientes podem ser bem atendidas pelos canais de marketing. Esta pesquisa testa esta teoria através de um estudo de caso sobre a Microsoft, empresa do ramo de software que tem sua atividade fortemente baseada em canais de marketing. Verificamos a teoria, isto é, o canal sendo um elemento diferencial e gerador de vantagem competitiva para a empresa
Resumo:
Trata do problema de compreender como a informação influencia os negócios e como a gerência estratégica da organização utiliza a informação de forma competitiva. Desenvolve e testa um modelo conceitual de medição do uso da informação pela alta gerência das organizações. Identifica a definição atual do termo informação. Identifica os possíveis usos da informação. Desenvolve os construtos para medição proposta
Resumo:
O objetivo deste trabalho é propor uma metodologia para medição e controle de uma estratégia pré-existente de manufatura, visando a preencher uma lacuna identificada nos processos de gestão estratégica – a falta de alinhamento automático das ações definidas nos processos de planejamento estratégico de manufatura com a medição do desempenho. Observada sob uma perspectiva sistêmica, a manufatura se relaciona com o meio pela importação de informação, energia e materiais, exportando produtos, informação e serviços. Através de mecanismos de realimentação, como a medição de desempenho e a monitoração de grandezas ambientais, a manufatura governa seus recursos de modo a atingir objetivos, geralmente estabelecidos no planejamento estratégico. Considerando a problemática de medição e controle, faz-se uma discussão sobre a perspectiva sistêmica da manufatura, sobre formas de estruturar objetos, muitas vezes intangíveis, que deverão ser medidos e sobre modelos já propostos de medição do desempenho organizacional, comparando-os e propondose uma classificação. Apoiado na revisão bibliográfica, por um método de pesquisa hipotético-dedutivo, propõe-se uma metodologia para estruturar um sistema de medição de uma estratégia existente, que permita o controle das ações sempre que os objetivos não estejam sendo alcançados e que possa se adaptar sempre que o cenário estratégico varie. Por um método de trabalho de aproximações parciais testa-se e refina-se a metodologia proposta. Inicia-se a fase experimental pela modelagem e avaliação da capacidade de competição de uma manufatura de equipamentos eletrônicos, dada uma estratégia existente. Passa-se então à modelagem de parâmetros de processo de manufatura, tais como o tempo de atravessamento, o inventário em processo e o desempenho, necessários para medições internas, testada em uma manufatura calçadista. Agrega-se então ao conhecimento já testado uma técnica de otimização de cursos de ação estratégica e testa-se a metodologia como um todo em uma estratégia existente de manufatura mecânica. Ao fim, discute-se o caso e comparam-se os resultados com outras fontes, encaminhando-se a continuidade de pesquisas.
Resumo:
This paper confronts the Capital Asset Pricing Model - CAPM - and the 3-Factor Fama-French - FF - model using both Brazilian and US stock market data for the same Sample period (1999-2007). The US data will serve only as a benchmark for comparative purposes. We use two competing econometric methods, the Generalized Method of Moments (GMM) by (Hansen, 1982) and the Iterative Nonlinear Seemingly Unrelated Regression Estimation (ITNLSUR) by Burmeister and McElroy (1988). Both methods nest other options based on the procedure by Fama-MacBeth (1973). The estimations show that the FF model fits the Brazilian data better than CAPM, however it is imprecise compared with the US analog. We argue that this is a consequence of an absence of clear-cut anomalies in Brazilian data, specially those related to firm size. The tests on the efficiency of the models - nullity of intercepts and fitting of the cross-sectional regressions - presented mixed conclusions. The tests on intercept failed to rejected the CAPM when Brazilian value-premium-wise portfolios were used, contrasting with US data, a very well documented conclusion. The ITNLSUR has estimated an economically reasonable and statistically significant market risk premium for Brazil around 6.5% per year without resorting to any particular data set aggregation. However, we could not find the same for the US data during identical period or even using a larger data set. Este estudo procura contribuir com a literatura empírica brasileira de modelos de apreçamento de ativos. Dois dos principais modelos de apreçamento são Infrontados, os modelos Capital Asset Pricing Model (CAPM)e de 3 fatores de Fama-French. São aplicadas ferramentas econométricas pouco exploradas na literatura nacional na estimação de equações de apreçamento: os métodos de GMM e ITNLSUR. Comparam-se as estimativas com as obtidas de dados americanos para o mesmo período e conclui-se que no Brasil o sucesso do modelo de Fama e French é limitado. Como subproduto da análise, (i) testa-se a presença das chamadas anomalias nos retornos, e (ii) calcula-se o prêmio de risco implícito nos retornos das ações. Os dados revelam a presença de um prêmio de valor, porém não de um prêmio de tamanho. Utilizando o método de ITNLSUR, o prêmio de risco de mercado é positivo e significativo, ao redor de 6,5% ao ano.
Resumo:
A relação entre estrutura de mercado e inovação tecnológica é um tema amplamente discutido, mas não existe concordância entre os autores que a estudam. Um dos aspectos que tornam o entendimento desta relação importante é seu possível impacto na praxis da política antitruste, já que esta assume que a concorrência perfeita é a estrutura de mercado que maximiza o bem-estar. Esta dissertação investiga o impacto da concentração de mercado (HHI) nos gastos em atividades inovativas para o caso dos setores industriais brasileiros através de uma análise de dados em painel. A partir de informações sobre os gastos em diferentes atividades inovativas e de características da indústria testa-se a hipótese de que a concorrência influencia os gastos em P&D internos às firmas na forma de um U invertido, como prevêem Scherer e Ross (1989) e Aghion et al. (2002). Os principais resultados encontrados indicam que essa relação em U invertido realmente existe e que o índice de concentração que maximiza os gastos em P&D interno é, em torno de, 0,30 de HHI. Apesar disso, quando efeitos específicos da indústria são controlados, o poder de explicação do HHI decai. Um segundo resultado importante é que quando se examina as atividades inovativas com menor risco associado, como capacitação tecnológica, a relação entre concentração e gastos inovativos é negativa.
Resumo:
A teoria da paridade do poder de compra (PPP) foi formalizada há quase um século por Gustav Cassel como um paradigma para explicar o comportamento das taxas de câmbio. Sua comprovação empírica é historicamente controversa, mas aos poucos, a literatura parece convergir para o consenso de que a PPP é válida, mas apenas no longo prazo. Ainda que a PPP não sirva para prever o comportamento da taxa de câmbio no curto prazo, seu uso é disseminado na macroeconomia aplicada como restrição de longo prazo para a taxa de câmbio. Como lembram Dornbusch e Krugman, “Sob a pele de qualquer economista internacional, está enraizada uma fé em alguma variante da teoria da PPP”. O presente estudo se propõe a avaliar as evidências para a PPP a partir de mais de cem anos de história das maiores economias da América Latina. Na literatura, a maior parte dos estudos da PPP no longo prazo utiliza dados de países desenvolvidos (em parte, por causa da disponibilidade dos dados). Taylor (2002) incluiu Argentina, Brasil e México na sua amostra de 20 países desenvolvidos e em desenvolvimento. Há também alguns estudos que tratam especificamente de um ou outro país da região (por exemplo, Délano 1998, que testa a PPP com dados do Chile de 1835 a 1995). Seguindo os métodos usuais descritos na literatura – testes de raiz unitária para se avaliar a estacionariedade da taxa de câmbio real,de aplicação de mecanismos de correção de erro e testes de co-integração – chega-se à conclusão que a evidência obtida a partir dos dados da América Latina é favorável à tese de existência da PPP no longo prazo.
Resumo:
Há mais de uma década, o Value-at-Risk (VaR) é utilizado por instituições financeiras e corporações não financeiras para controlar o risco de mercado de carteiras de investimentos. O fato dos métodos paramétricos assumirem a hipótese de normalidade da distribuição de retornos dos fatores de risco de mercado, leva alguns gestores de risco a utilizar métodos por simulação histórica para calcular o VaR das carteiras. A principal crítica à simulação histórica tradicional é, no entanto, dar o mesmo peso na distribuição à todos os retornos encontrados no período. Este trabalho testa o modelo de simulação histórica com atualização de volatilidade proposto por Hull e White (1998) com dados do mercado brasileiro de ações e compara seu desempenho com o modelo tradicional. Os resultados mostraram um desempenho superior do modelo de Hull e White na previsão de perdas para as carteiras e na sua velocidade de adaptação à períodos de ruptura da volatilidade do mercado.
Resumo:
Utilizando dados financeiros brasileiros do Ibovespa, testa-se a validade dos modelos de valor presente (MVP) no mercado de ações. Estes modelos relacionam o preço de uma ação ao seu fluxo de caixa futuro esperado (dividendos) trazido a valor presente utilizando uma taxa de desconto constante ou variante ao longo do tempo. Associada a estes modelos está a questão da previsibilidade dos retornos num contexto de expectativas racionais. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Autorregressões Vetoriais. Os resultados empíricos corroboram, em grande medida, o MVP para o Ibovespa brasileiro, pois há uma igualdade estatística entre a previsão ótima do mercado para o spread do equilíbrio de longo prazo e seus valores observados.
Resumo:
Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor presente na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, à previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Auto-Regressão Vetorial. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.
Resumo:
As organizações têm investido recursos significativos no desenvolvimento de cursos baseados em ambientes virtuais de aprendizagem na Internet. Esta modalidade de educação a distância apresenta vantagens significativas, derivadas principalmente da grande flexibilidade de tempo, local e recursos que a caracteriza. É preciso considerar, entretanto, que a esperança de uma utilização ampla dos cursos na Internet depende de diversos fatores que influenciam a efetividade destes cursos, como o modelo de aprendizagem, a tecnologia, o conteúdo, os professores e o nível de interação. Mas a preocupação desta pesquisa está no comportamento do estudante e no seu impacto. Mais particularmente, ela tem por objetivo identificar a influência das diferenças individuais dos estudantes em relação às preferências por contato social e à auto-regulação dos recursos da aprendizagem na efetividade dos cursos desenvolvidos em ambientes virtuais de aprendizagem na Internet. Para isso, realizou-se um estudo de caso no Curso de Capacitação de Técnicos dos Núcleos de Tecnologia Educacional (NTE) das escolas da Região Sul do Brasil. Foram utilizadas seis fontes de coleta de dados: levantamento estruturado (Pesquisa Survey), observação direta, análise de registros e documentos, entrevistas abertas e entrevistas semi-estruturadas. A Pesquisa Survey foi, contudo, o meio de coleta de dados mais relevante. Para realizá-la, adaptou-se e validou-se ao contexto da pesquisa algumas escalas ligadas à auto-regulação dos recursos de aprendizagem (gestão do tempo, do ambiente, do esforço, do ambiente social e prorrogação da gratificação acadêmica) e às preferências por contato social (motivação ao contato social e preferência por solitude). No processo de validação, realizou-se um estudo piloto aplicando o questionário preliminar em 292 estudantes de graduação de universidades de Porto Alegre (em cursos presenciais). Na coleta definitiva dos dados no Curso de Capacitação de Técnicos do NTE, foram realizadas 28 entrevistas semi-estruturadas e aplicou-se o questionário com 104 estudantes do curso. A análise dos dados permitiu verificar a influência dos fatores anteriormente citados de auto-regulação e contato social na percepção (1) dos resultados, (2) da qualidade e (3) da satisfação com o curso, (4) na percepção de efetividade dos cursos na Internet em comparação com os cursos presenciais e (5) na percepção das vantagens e desvantagens dos cursos na Internet. Os resultados mostram que os estudantes que conseguiram auto-regular melhor o ambiente social, o tempo, o esforço e o ambiente de estudo, além de apresentarem uma maior necessidade de apoio emocional, perceberam uma maior efetividade e qualidade no Curso de Capacitação de Técnicos do NTE, além de ficarem mais satisfeitos Também se verificou que os estudantes que acreditam que em muitos aspectos os cursos na Internet podem ser mais efetivos do que os cursos presenciais, apresentam igualmente uma maior auto-regulação do tempo, do esforço, do ambiente social, além de uma maior tendência de prorrogação da gratificação acadêmica, uma necessidade relativamente grande de atenção e intermediária de estímulo positivo. Os resultados encontrados mostraram ainda que os estudantes que identificaram mais vantagens nos cursos via Internet foram também mais capazes na gestão do ambiente social, do tempo, do esforço, além de apresentarem uma maior tendência à prorrogação da gratificação acadêmica e uma relativamente alta necessidade de apoio emocional e estímulo positivo. Por fim, se identificou grupos de estudantes com perfis similares de preferência por contato social e de auto-regulação dos recursos de aprendizagem e a influência destes perfis na efetividade dos cursos desenvolvidos na Internet.
Análise da perenidade do modelo de Wibe para previsão de demanda para papel para imprimir e escrever
Resumo:
A indústria de papel e celulose no mundo e no Brasil é de notável importância pela geração de empregos, faturamento e peso estratégico. Sendo uma indústria de base florestal tem sua cadeia produtiva verticalizada dependente de um longo ciclo de plantio, crescimento e colheita florestal que pode, nas melhores das condições, tomar de cinco a sete anos e, para casos mais extremos, demandar de 20 a 40 anos. O intenso capital empregado aliado à baixa mobilidade de curso faz da previsão de demanda para a indústria papeleira um ponto de extrema atenção. Esta pesquisa se propõe a estudar se um modelo proposto na década de 80, aplicado a dados da década de 70, se mantém válido até os dias atuais. Para tal, este trabalho levanta breve bibliografia relacionada aos conceitos de previsão de demanda e como a previsão de demanda foi aplicada para produtos de base florestal – dentre os quais, papel e celulose. O estudo segue com a escolha do modelo de Wibe (1984), sua reprodução e extrapolação para dados da década de 60, 70, 80 e 90. A função de demanda originalmente proposta por Wibe (1984) associa o cunsumo de papel à renda, preço e a um índice de substituição. Para teste de sua perenidade este trabalho mede a acurácia do modelo original para cada década e testa variações e simplificações de tal modelo.
Resumo:
A securitização é uma operação estruturada bastante popular no EUA e que vem crescendo no Brasil. A securitização traz benefícios aos investidores, tomadores de crédito, originadores de recebíveis e a economia como um todo e é vista como fonte alternativa de financiamento dentro da teoria de finanças. Utilizando a técnica do estudo de evento, este artigo testa se o anúncio de que uma empresa listada no Bovespa vai securitizar ativos via FIDC causa algum impacto no preço da ação dessa empresa. Foram testadas 38 emissões de FIDCs realizadas de 2000 a 2008. Os resultados encontrados indicam que tal efeito não ocorre na amostra testada, contrariando resultados de experimentos semelhantes nos EUA. Atribui-se tal resultado ao fato que: i) a securitização ainda é relativamente pouco significativa nas empresas e bancos brasileiros, quando comparada ao mercado americano; ii) a estrutura de garantias que a estrutura do FIDC impõe é considerada um hard credit enhancement, diferentemente do caso americano, onde securitizações podem ser feitas com soft credit enhancements; iii) Por último, devido a restrições legais, os bancos brasileiros não conseguem administrar seu capital regulatório via cessão de recebíveis a FIDCs, estando em posição mais conservadora do que as normas internacionais
Resumo:
A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.
Resumo:
Este trabalho testa a existência de relações de codependência de ordem zero em spreads formados a partir da estrutura a termo da taxa de juros no Brasil. O objetivo é verificar se existem combinações lineares dos spreads que geram um processo ruído branco contemporâneo. Essas combinações lineares poderiam ser utilizadas para a previsão de taxas de juros futuras dado que desvios destas relações estáveis implicariam em um movimento futuro das taxas de juros no sentido de restabelecer o equilíbrio. O modelo de Nelson e Siegel (1987) serve de base teórica para os testes empíricos. Ao verificar a hipótese de codependência de ordem zero é possível também analisar premissas quanto aos parâmetros do modelo em relação à estrutura a termo da taxa de juros no Brasil. As evidências obtidas a partir dos resultados empíricos apontam na rejeição da hipótese de codependência de ordem zero e, consequentemente, na impossibilidade de definir as combinações lineares mencionadas. Esta constatação pode estar relacionada aos períodos de instabilidade presentes na amostra ou na existência de codependência de ordem superior a zero.
Resumo:
O objetivo deste trabalho é investigar a ancoragem das expectativas de inflação de longo prazo no Brasil, medidas por intermédio das taxas de inflação implícitas nos títulos indexados ao IPCA. Para isso, são extraídas as curvas de juros reais e nominais dos preços do mercado secundário de títulos públicos, e uma vez de posse destes valores, são calculadas as taxas de inflação implícitas observadas diariamente no mercado brasileiro. Utilizando um modelo simples, estimado por Mínimos Quadrados Ordinários (MQO) robusto, testa-se a sensibilidade de alguns vértices das taxas de inflação implícita em relação às variações mensais de indicadores macroeconômicos relevantes para a trajetória de curto prazo da inflação e política monetária. Desta maneira, pretende-se avaliar se o comportamento da inflação implícita nos preços de mercado dos títulos públicos pode oferecer evidências de que as expectativas estão bem ancoradas no Brasil, no âmbito do regime de metas de inflação.