56 resultados para Testa, Arrigo.
Resumo:
Trata da análise da carreira e mobilidade de executivos no Brasil, a partir de uma pesquisa empírica entre 222 casos de executivos demitidos, em processo de "outplacement", Aborda a questão de carreira e mobilidade sob seus pressupostos culturais, psicológicos e sociológicos, buscando. revelar uma "ideologia de mobilidade e sucesso" nas organizações. Testa um grupo de hipóteses concebidas do senso comum sobre o assunto, englobando variáveis de carreira, mobilidade, não mobilidade ("estagnação"), demissão e "outplacement" dos executivos. Sugere relações não conhecidas entre as variáveis, Propõe novas questões e hipóteses para teste futuro e investigações suplementares no campo
Resumo:
Mercados com dinâmica competitiva baseada na inovaçâo são incertos e sujeitos a rupturas dos negócios envolvidos. Isto é bastante diferente dos mercados maduros, nos quais o equilíbrio de forças estabelece uma estrutura industrial relativamente estável. Mercados de inovação, ou high-tech, e em especial os de tecnologia da informação também estão sujeitos a outros fenômenos ou características que os distinguem dos mercados maduros. Trabalhamos com alguns destes fenômenos como: a difusão tecnológica, a qual está ligada a fatores psicológicos que motivam ou inibem a adoção da tecnologia por parte do cliente; o aprisionamento; a externalidades de rede; a disputas por padrões e a concorrência entre cadeias de valor distintas. Estas características demandam serviços, orientação do cliente quanto ao uso da tecnologia e casos de sucesso exemplares para vencer os fatores inibidores e estimular os fatores motivadores do cliente no seu processo de adoção da tecnologia. A teoria explica que os canais de marketing podem oferecer vantagem competitiva às empresas que bem se utilizam deles, e as características de demanda por serviços e orientação de uso pelos clientes podem ser bem atendidas pelos canais de marketing. Esta pesquisa testa esta teoria através de um estudo de caso sobre a Microsoft, empresa do ramo de software que tem sua atividade fortemente baseada em canais de marketing. Verificamos a teoria, isto é, o canal sendo um elemento diferencial e gerador de vantagem competitiva para a empresa
Resumo:
Trata do problema de compreender como a informação influencia os negócios e como a gerência estratégica da organização utiliza a informação de forma competitiva. Desenvolve e testa um modelo conceitual de medição do uso da informação pela alta gerência das organizações. Identifica a definição atual do termo informação. Identifica os possíveis usos da informação. Desenvolve os construtos para medição proposta
Resumo:
This paper confronts the Capital Asset Pricing Model - CAPM - and the 3-Factor Fama-French - FF - model using both Brazilian and US stock market data for the same Sample period (1999-2007). The US data will serve only as a benchmark for comparative purposes. We use two competing econometric methods, the Generalized Method of Moments (GMM) by (Hansen, 1982) and the Iterative Nonlinear Seemingly Unrelated Regression Estimation (ITNLSUR) by Burmeister and McElroy (1988). Both methods nest other options based on the procedure by Fama-MacBeth (1973). The estimations show that the FF model fits the Brazilian data better than CAPM, however it is imprecise compared with the US analog. We argue that this is a consequence of an absence of clear-cut anomalies in Brazilian data, specially those related to firm size. The tests on the efficiency of the models - nullity of intercepts and fitting of the cross-sectional regressions - presented mixed conclusions. The tests on intercept failed to rejected the CAPM when Brazilian value-premium-wise portfolios were used, contrasting with US data, a very well documented conclusion. The ITNLSUR has estimated an economically reasonable and statistically significant market risk premium for Brazil around 6.5% per year without resorting to any particular data set aggregation. However, we could not find the same for the US data during identical period or even using a larger data set. Este estudo procura contribuir com a literatura empírica brasileira de modelos de apreçamento de ativos. Dois dos principais modelos de apreçamento são Infrontados, os modelos Capital Asset Pricing Model (CAPM)e de 3 fatores de Fama-French. São aplicadas ferramentas econométricas pouco exploradas na literatura nacional na estimação de equações de apreçamento: os métodos de GMM e ITNLSUR. Comparam-se as estimativas com as obtidas de dados americanos para o mesmo período e conclui-se que no Brasil o sucesso do modelo de Fama e French é limitado. Como subproduto da análise, (i) testa-se a presença das chamadas anomalias nos retornos, e (ii) calcula-se o prêmio de risco implícito nos retornos das ações. Os dados revelam a presença de um prêmio de valor, porém não de um prêmio de tamanho. Utilizando o método de ITNLSUR, o prêmio de risco de mercado é positivo e significativo, ao redor de 6,5% ao ano.
Resumo:
A relação entre estrutura de mercado e inovação tecnológica é um tema amplamente discutido, mas não existe concordância entre os autores que a estudam. Um dos aspectos que tornam o entendimento desta relação importante é seu possível impacto na praxis da política antitruste, já que esta assume que a concorrência perfeita é a estrutura de mercado que maximiza o bem-estar. Esta dissertação investiga o impacto da concentração de mercado (HHI) nos gastos em atividades inovativas para o caso dos setores industriais brasileiros através de uma análise de dados em painel. A partir de informações sobre os gastos em diferentes atividades inovativas e de características da indústria testa-se a hipótese de que a concorrência influencia os gastos em P&D internos às firmas na forma de um U invertido, como prevêem Scherer e Ross (1989) e Aghion et al. (2002). Os principais resultados encontrados indicam que essa relação em U invertido realmente existe e que o índice de concentração que maximiza os gastos em P&D interno é, em torno de, 0,30 de HHI. Apesar disso, quando efeitos específicos da indústria são controlados, o poder de explicação do HHI decai. Um segundo resultado importante é que quando se examina as atividades inovativas com menor risco associado, como capacitação tecnológica, a relação entre concentração e gastos inovativos é negativa.
Resumo:
A teoria da paridade do poder de compra (PPP) foi formalizada há quase um século por Gustav Cassel como um paradigma para explicar o comportamento das taxas de câmbio. Sua comprovação empírica é historicamente controversa, mas aos poucos, a literatura parece convergir para o consenso de que a PPP é válida, mas apenas no longo prazo. Ainda que a PPP não sirva para prever o comportamento da taxa de câmbio no curto prazo, seu uso é disseminado na macroeconomia aplicada como restrição de longo prazo para a taxa de câmbio. Como lembram Dornbusch e Krugman, “Sob a pele de qualquer economista internacional, está enraizada uma fé em alguma variante da teoria da PPP”. O presente estudo se propõe a avaliar as evidências para a PPP a partir de mais de cem anos de história das maiores economias da América Latina. Na literatura, a maior parte dos estudos da PPP no longo prazo utiliza dados de países desenvolvidos (em parte, por causa da disponibilidade dos dados). Taylor (2002) incluiu Argentina, Brasil e México na sua amostra de 20 países desenvolvidos e em desenvolvimento. Há também alguns estudos que tratam especificamente de um ou outro país da região (por exemplo, Délano 1998, que testa a PPP com dados do Chile de 1835 a 1995). Seguindo os métodos usuais descritos na literatura – testes de raiz unitária para se avaliar a estacionariedade da taxa de câmbio real,de aplicação de mecanismos de correção de erro e testes de co-integração – chega-se à conclusão que a evidência obtida a partir dos dados da América Latina é favorável à tese de existência da PPP no longo prazo.
Resumo:
Há mais de uma década, o Value-at-Risk (VaR) é utilizado por instituições financeiras e corporações não financeiras para controlar o risco de mercado de carteiras de investimentos. O fato dos métodos paramétricos assumirem a hipótese de normalidade da distribuição de retornos dos fatores de risco de mercado, leva alguns gestores de risco a utilizar métodos por simulação histórica para calcular o VaR das carteiras. A principal crítica à simulação histórica tradicional é, no entanto, dar o mesmo peso na distribuição à todos os retornos encontrados no período. Este trabalho testa o modelo de simulação histórica com atualização de volatilidade proposto por Hull e White (1998) com dados do mercado brasileiro de ações e compara seu desempenho com o modelo tradicional. Os resultados mostraram um desempenho superior do modelo de Hull e White na previsão de perdas para as carteiras e na sua velocidade de adaptação à períodos de ruptura da volatilidade do mercado.
Resumo:
Utilizando dados financeiros brasileiros do Ibovespa, testa-se a validade dos modelos de valor presente (MVP) no mercado de ações. Estes modelos relacionam o preço de uma ação ao seu fluxo de caixa futuro esperado (dividendos) trazido a valor presente utilizando uma taxa de desconto constante ou variante ao longo do tempo. Associada a estes modelos está a questão da previsibilidade dos retornos num contexto de expectativas racionais. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Autorregressões Vetoriais. Os resultados empíricos corroboram, em grande medida, o MVP para o Ibovespa brasileiro, pois há uma igualdade estatística entre a previsão ótima do mercado para o spread do equilíbrio de longo prazo e seus valores observados.
Resumo:
Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor presente na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, à previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Auto-Regressão Vetorial. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.
Análise da perenidade do modelo de Wibe para previsão de demanda para papel para imprimir e escrever
Resumo:
A indústria de papel e celulose no mundo e no Brasil é de notável importância pela geração de empregos, faturamento e peso estratégico. Sendo uma indústria de base florestal tem sua cadeia produtiva verticalizada dependente de um longo ciclo de plantio, crescimento e colheita florestal que pode, nas melhores das condições, tomar de cinco a sete anos e, para casos mais extremos, demandar de 20 a 40 anos. O intenso capital empregado aliado à baixa mobilidade de curso faz da previsão de demanda para a indústria papeleira um ponto de extrema atenção. Esta pesquisa se propõe a estudar se um modelo proposto na década de 80, aplicado a dados da década de 70, se mantém válido até os dias atuais. Para tal, este trabalho levanta breve bibliografia relacionada aos conceitos de previsão de demanda e como a previsão de demanda foi aplicada para produtos de base florestal – dentre os quais, papel e celulose. O estudo segue com a escolha do modelo de Wibe (1984), sua reprodução e extrapolação para dados da década de 60, 70, 80 e 90. A função de demanda originalmente proposta por Wibe (1984) associa o cunsumo de papel à renda, preço e a um índice de substituição. Para teste de sua perenidade este trabalho mede a acurácia do modelo original para cada década e testa variações e simplificações de tal modelo.
Resumo:
A securitização é uma operação estruturada bastante popular no EUA e que vem crescendo no Brasil. A securitização traz benefícios aos investidores, tomadores de crédito, originadores de recebíveis e a economia como um todo e é vista como fonte alternativa de financiamento dentro da teoria de finanças. Utilizando a técnica do estudo de evento, este artigo testa se o anúncio de que uma empresa listada no Bovespa vai securitizar ativos via FIDC causa algum impacto no preço da ação dessa empresa. Foram testadas 38 emissões de FIDCs realizadas de 2000 a 2008. Os resultados encontrados indicam que tal efeito não ocorre na amostra testada, contrariando resultados de experimentos semelhantes nos EUA. Atribui-se tal resultado ao fato que: i) a securitização ainda é relativamente pouco significativa nas empresas e bancos brasileiros, quando comparada ao mercado americano; ii) a estrutura de garantias que a estrutura do FIDC impõe é considerada um hard credit enhancement, diferentemente do caso americano, onde securitizações podem ser feitas com soft credit enhancements; iii) Por último, devido a restrições legais, os bancos brasileiros não conseguem administrar seu capital regulatório via cessão de recebíveis a FIDCs, estando em posição mais conservadora do que as normas internacionais
Resumo:
A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.
Resumo:
Este trabalho testa a existência de relações de codependência de ordem zero em spreads formados a partir da estrutura a termo da taxa de juros no Brasil. O objetivo é verificar se existem combinações lineares dos spreads que geram um processo ruído branco contemporâneo. Essas combinações lineares poderiam ser utilizadas para a previsão de taxas de juros futuras dado que desvios destas relações estáveis implicariam em um movimento futuro das taxas de juros no sentido de restabelecer o equilíbrio. O modelo de Nelson e Siegel (1987) serve de base teórica para os testes empíricos. Ao verificar a hipótese de codependência de ordem zero é possível também analisar premissas quanto aos parâmetros do modelo em relação à estrutura a termo da taxa de juros no Brasil. As evidências obtidas a partir dos resultados empíricos apontam na rejeição da hipótese de codependência de ordem zero e, consequentemente, na impossibilidade de definir as combinações lineares mencionadas. Esta constatação pode estar relacionada aos períodos de instabilidade presentes na amostra ou na existência de codependência de ordem superior a zero.
Resumo:
O objetivo deste trabalho é investigar a ancoragem das expectativas de inflação de longo prazo no Brasil, medidas por intermédio das taxas de inflação implícitas nos títulos indexados ao IPCA. Para isso, são extraídas as curvas de juros reais e nominais dos preços do mercado secundário de títulos públicos, e uma vez de posse destes valores, são calculadas as taxas de inflação implícitas observadas diariamente no mercado brasileiro. Utilizando um modelo simples, estimado por Mínimos Quadrados Ordinários (MQO) robusto, testa-se a sensibilidade de alguns vértices das taxas de inflação implícita em relação às variações mensais de indicadores macroeconômicos relevantes para a trajetória de curto prazo da inflação e política monetária. Desta maneira, pretende-se avaliar se o comportamento da inflação implícita nos preços de mercado dos títulos públicos pode oferecer evidências de que as expectativas estão bem ancoradas no Brasil, no âmbito do regime de metas de inflação.
Resumo:
Introdução – Destaca o problema da escolha do tempo e da densidade ótimos para construir um imóvel, dadas as restrições das leis de zoneamento. Objetivo – Verificar se há um prêmio pela opção de se esperar para construir um imóvel, analisar a influência dos CEPACs no custo de construção. Métodos – O modelo amplia as inferências de Quigg (1993) e testa o modelo de Williams (1991). Os dados utilizados são da Embraesp, com 3.207 lançamentos imobiliários; da Prefeitura de São Paulo, com 259.021 imóveis; do ZAP, com 22.073 imóveis; no período de 2005 a 2011. Resultados – O valor do terreno vago baseado no modelo de opções reais excedeu o valor observado em todos os cenários, variando entre 16,6% e 61%. O maior prêmio obtido foi para imóveis comerciais (37,9%), seguido pelo prêmio para apartamentos (34,5%) e para casas (23,9%). Conclusões – Há um prêmio para se esperar para construir um imóvel. Ao se utilizar os CEPACs como instrumento para aumentar a densidade de construção, amplia-se o custo de construção do imóvel. Entretanto, a ampliação da densidade é limitada pelo aumento do custo adicional de construção.