56 resultados para Teste de validade


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo principal avaliar a existência de equivalência ricardiana no Brasil. Para isto, empregam-se três metodologias distintas. Inicialmente, com base no modelo de Enders e Lee (1990), utilizam-se regressões do tipo VAR e VEC e decomposição de variância para avaliar de que forma consumo e exportações líquidas reagem a variações não-antecipadas da dívida do setor público, mantidos constantes os gastos do governo. Em seguida, com base no mesmo modelo teórico, estimam-se parâmetros relativos à função consumo e testam-se as restrições de sobre-identificação associadas à técnica de MGM. Por último, efetuam-se testes relativos à restrição de liquidez com base no modelo de consumidores restritos de Campbell e Mankiw (1989). Embora alguns dos resultados sejam inconclusos, particularmente quando se utilizam os dois primeiros métodos de investigação (análise de variância e teste das restrições de sobre-identificação), de modo geral concluímos pela não-validade da hipótese para o Brasil. Teoricamente, isto é compatível com o fato de se ter uma parcela substancial de consumidores brasileiros restritos na obtenção de crédito (a exemplo do que já haviam também concluído Reis, Issler, Blanco e Carvalho (1998) e Issler e Rocha (2000) e do que também concluímos na última seção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Medimos a validade da paridade descoberta de juros – PDJ - para o mercado brasileiro no período de janeiro de 2010 a julho de 2014. Testamos a equação clássica da PDJ usando o Método dos Mínimos Quadrados Ordinários. Após a estimação dos parâmetros, aplicamos o Teste de Wald e verificamos que a paridade descoberta de juros não foi validada. Estendemos a equação tradicional da PDJ para uma especificação alternativa que captura medidas de risco Brasil e de alteração na liquidez internacional. Especificamente, acrescentamos três variáveis de controle: duas variáveis dummy que capturam condições de liquidez externa e o índice de commoditie CRB, que captura o risco Brasil. Com a especificação alternativa, a hipótese de que os retornos das taxas de juros em Real, dolarizadas, são iguais aos retornos da taxas de juros contratadas em dólares, ambas sujeitas ao risco Brasil, não foi rejeitada. Em complemento à análise das taxas representativas do mercado brasileiro, procurou-se avaliar a predominância da PDJ nas operações de swap cambial realizadas pela Vale S.A.. Para tanto, a série de taxa de juros em dólares do mercado brasileiro foi substituída pela taxa em dólar dos swaps contratados pela Vale. Os resultados encontrados demonstram que, quando comparado ao comportamento do mercado, as taxas em dólares da VALE são mais sensíveis às variações das taxas em Reais.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Programas de saúde e bem-estar têm sido adotados por empresas como forma de melhorar a saúde de empregados, e muitos estudos descrevem retornos econômicos positivos sobre os investimentos envolvidos. Entretanto, estudos mais recentes com metodologia melhor têm demonstrado retornos menores. O objetivo deste estudo foi investigar se características de programas de saúde e bem-estar agem como preditores de custos de internação hospitalar (em Reais correntes) e da proporção de funcionários que têm licença médica, entre Abril de 2014 e Maio de 2015, em uma amostra não-aleatória de empresas no Brasil, através de parceria com uma empresa gestora de ‘big data’ para saúde. Um questionário sobre características de programas de saúde no ambiente de trabalho foi respondida por seis grandes empresas brasileiras. Dados retirados destes seis questionários (presença e idade de programa de saúde, suas características – inclusão de atividades de screening, educação sobre saúde, ligação com outros programas da empresa, integração do programa à estrutura da empresa, e ambientes de trabalho voltado para a saúde – e a adoção de incentivos financeiros para aderência de funcionários ao programa), bem como dados individuais de idade, gênero e categoria de plano de saúde de cada empregado , foram usados para construir um banco de dados com mais de 76.000 indivíduos. Através de um modelo de regressão múltipla e seleção ‘stepwise’ de variáveis, a idade do empregado foi positivamente associada e a idade do programa de saúde e a categoria ‘premium’ de plano de saúde do funcionário foram negativamente associadas aos custos de internação hospitalar (como esperado). Inesperadamente, a inclusão de programas de screening e iniciativas de educação de saúde nos programas de saúde e bem-estar nas empresas foram identificados como preditores positivos significativos para custos de admissão hospitalar. Para evitar a inclusão errônea de licenças-maternidade, apenas os dados de licença médica de pacientes do sexo masculino foram analisados (dados disponíveis apenas para duas entre as companhias incluídas, com um total de 18.957 pacientes do sexo masculino). Analisando estes dados através de um teste Z para comparação de proporções, a empresa com programa de saúde que inclui atividades voltadas a cessação de hábitos ruins (como tabagismo e etilismo), controle de diabetes e hipertensão, e que adota incentivos financeiros para a aderência de funcionários ao programa tem menor proporção de empregados com licençca médica no período analisado, quando comparada com a outra empresa que não tem estas características (também conforme esperado). Entretanto, a companhia com menor proporção de funcionários com licença médica também foi aquela que adota programa de screening entre as atividades de seu programa de saúde. Potenciais fontes de ameaça à validade interna e externa destes resultados são discutidas, bem como possíveis explicações para a associação entre programas de screening e educação médica a piores indicadores de saúde nesta amostra de companhias são discutidas. Novos estudos com melhor desenho, com amostras maiores e randômicas são necessários para validar estes resultados e possivelmente melhorar a validade interna e externa destes resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desse trabalho é realizar um procedimento de back-test da Magic Formula no IBX-100, a fim de reunir evidencias sobre a eficiência de tal metodologia no processo de seleção das melhores ações e formação de carteiras que superem o desempenho do IBX-100 no longo prazo. Desenvolvida por Joel Greenblatt, a Magic Formula é uma metodologia de formação de carteiras que consiste em escolher ações com altos ROICs e Earnings Yields, seguindo a filosofia de Value Investing. Diversas carteiras foram montadas no período de janeiro de 2000 a junho de 2015 utilizando diferentes combinações de número de ativos por carteira e períodos de permanência. Nem todas as carteiras apresentaram retornos superiores ao índice de mercado. Aparentemente, as carteiras com mais ações e períodos de permanência mais longos apresentam desempenho superior às carteiras menores e com rotatividade maior (períodos de permanência mais curtos). A carteira de 10 ações, com período de permanência de 1 ano, apresentou o maior CAGR dentre todas as outras (17,77%), superando o CAGR de 13,17% do IBX-100 no mesmo período. Esse resultado foi superior mesmo quando ajustado ao risco. Independentemente do período de permanência e número de ações, todas as carteiras apresentaram riscos sistemáticos menores do que o índice IBX-100 (todos os betas foram significativos e menores do que 1). Por outro lado, os alfas das carteiras foram muito baixos e, raramente, significativos, sugerindo que a gestão ativa de acordo com os critérios da Magic Formula não adiciona retornos substancialmente maiores do que o retorno relacionado à variações de mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar do crescente interesse no conceito de engajamento da marca ainda existe discordância quanto aos seus conceitos fundamentais. Esta tese de doutorado explora a natureza da construção engajamento da marca do consumidor (EMC). No primeiro artigo, EMC é avaliada no âmbito da Teoria da Expectância para explicar e esclarecer como a antecipação de possíveis resultados de se envolver com uma marca, sendo tais resultados classificados como “primeiro nível” (resultante do esforço pessoal alocado para interagir com uma marca) e “segundo nível” (ou nível final, representando a consequência dos resultados de primeiro nível) e uma nova definição de EMC é formulada. Um arcabouço teórico abrangente é proposto para engajamento da marca, usando o Teoria Organizacional de Marketing para Expansão de Fronteiras (TOMEF) como referência para os pontos de contato entre o consumidor e a marca. A partir dos fundamentos teóricos das dimensões cognitivas, emocionais e comportamentais do EMC, quinze proposições teóricas são desenvolvidas para incorporar uma perspectiva multilateral às doutrinas teóricas do construto. No segundo artigo, quatro estudos são usados para desenvolver uma escala de engajamento da marca do consumidor. O Estudo 1 (n = 11) utiliza revisão da literatura e entrevistas em profundidade com os consumidores para gerar os itens da escala. No Estudo 2, oito especialistas avaliam 144 itens quanto a validade de face e validade de conteúdo. No Estudo 3 dados coletados com alunos de graduação (n = 172) é submetida à análise fatorial exploratória (AFE) e confirmatória (AFC) para redução adicional de itens. Trezentos e oitenta e nove respostas de um painel de consumidores são usados no Estudo 4 para avaliar o ajuste do modelo, usando a análise fatorial confirmatória (AFC) e Modelagem por Equações Estruturais (MEE). A escala proposta possui excelentes níveis de validade e confiabilidade. Finalmente, no terceiro papel, uma escala de engajamento do consumidor de Vivek et al. (2014) é replicada (n = 598) junto à consumidores em uma feira automotiva, para estender o debate sobre formas de medição do constructo usando a perspectiva da Teoria de Resposta ao Item (TRI). Embora o modelo desenvolvido com base na teoria clássica de teste (TCT) usando AFC, um modelo de resposta gradual (MRG) identifica cinco itens que têm baixos níveis de poder discriminante e com baixos níveis de informação. A abordagem usando TRI indica um possível caminho para melhorias metodológicas futuras para as escalas desenvolvidas na área de marketing em geral, e para a escala engajamento do consumidor, em particular.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This Master Thesis consists of one theoretical article and one empirical article on the field of Microeconometrics. The first chapter\footnote{We also thank useful suggestions by Marinho Bertanha, Gabriel Cepaluni, Brigham Frandsen, Dalia Ghanem, Ricardo Masini, Marcela Mello, Áureo de Paula, Cristine Pinto, Edson Severnini and seminar participants at São Paulo School of Economics, the California Econometrics Conference 2015 and the 37\textsuperscript{th} Brazilian Meeting of Econometrics.}, called \emph{Synthetic Control Estimator: A Generalized Inference Procedure and Confidence Sets}, contributes to the literature about inference techniques of the Synthetic Control Method. This methodology was proposed to answer questions involving counterfactuals when only one treated unit and a few control units are observed. Although this method was applied in many empirical works, the formal theory behind its inference procedure is still an open question. In order to fulfill this lacuna, we make clear the sufficient hypotheses that guarantee the adequacy of Fisher's Exact Hypothesis Testing Procedure for panel data, allowing us to test any \emph{sharp null hypothesis} and, consequently, to propose a new way to estimate Confidence Sets for the Synthetic Control Estimator by inverting a test statistic, the first confidence set when we have access only to finite sample, aggregate level data whose cross-sectional dimension may be larger than its time dimension. Moreover, we analyze the size and the power of the proposed test with a Monte Carlo experiment and find that test statistics that use the synthetic control method outperforms test statistics commonly used in the evaluation literature. We also extend our framework for the cases when we observe more than one outcome of interest (simultaneous hypothesis testing) or more than one treated unit (pooled intervention effect) and when heteroskedasticity is present. The second chapter, called \emph{Free Economic Area of Manaus: An Impact Evaluation using the Synthetic Control Method}, is an empirical article. We apply the synthetic control method for Brazilian city-level data during the 20\textsuperscript{th} Century in order to evaluate the economic impact of the Free Economic Area of Manaus (FEAM). We find that this enterprise zone had positive significant effects on Real GDP per capita and Services Total Production per capita, but it also had negative significant effects on Agriculture Total Production per capita. Our results suggest that this subsidy policy achieve its goal of promoting regional economic growth, even though it may have provoked mis-allocation of resources among economic sectors.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Operational capabilities são caracterizadas como um recurso interno da firma e fonte de vantagem competitiva. Porém, a literatura de estratégia de operações fornece uma definição constitutiva inadequada para as operational capabilities, desconsiderando a relativização dos diferentes contextos, a limitação da base empírica, e não explorando adequadamente a extensa literatura sobre práticas operacionais. Quando as práticas operacionais são operacionalizadas no ambiente interno da firma, elas podem ser incorporadas as rotinas organizacionais, e através do conhecimento tácito da produção se transformar em operational capabilities, criando assim barreiras à imitação. Apesar disso, poucos são os pesquisadores que exploram as práticas operacionais como antecedentes das operational capabilities. Baseado na revisão da literatura, nós investigamos a natureza das operational capabilities; a relação entre práticas operacionais e operational capabilities; os tipos de operational capabilities que são caracterizadas no ambiente interno da firma; e o impacto das operational capabilities no desempenho operacional. Nós conduzimos uma pesquisa de método misto. Na etapa qualitativa, nós conduzimos estudos de casos múltiplos com quatro firmas, duas multinacionais americanas que operam no Brasil, e duas firmas brasileiras. Nós coletamos os dados através de entrevistas semi-estruturadas com questões semi-abertas. Elas foram baseadas na revisão da literatura sobre práticas operacionais e operational capabilities. As entrevistas foram conduzidas pessoalmente. No total 73 entrevistas foram realizadas (21 no primeiro caso, 18 no segundo caso, 18 no terceiro caso, e 16 no quarto caso). Todas as entrevistas foram gravadas e transcritas literalmente. Nós usamos o sotware NVivo. Na etapa quantitativa, nossa amostra foi composta por 206 firmas. O questionário foi criado a partir de uma extensa revisão da literatura e também a partir dos resultados da fase qualitativa. O método Q-sort foi realizado. Um pré-teste foi conduzido com gerentes de produção. Foram realizadas medidas para reduzir Variância de Método Comum. No total dez escalas foram utilizadas. 1) Melhoria Contínua; 2) Gerenciamento da Informação; 3) Aprendizagem; 4) Suporte ao Cliente; 5) Inovação; 6) Eficiência Operacional; 7) Flexibilidade; 8) Customização; 9) Gerenciamento dos Fornecedores; e 10) Desempenho Operacional. Nós usamos análise fatorial confirmatória para confirmar a validade de confiabilidade, conteúdo, convergente, e discriminante. Os dados foram analisados com o uso de regressões múltiplas. Nossos principais resultados foram: Primeiro, a relação das práticas operacionais como antecedentes das operational capabilities. Segundo, a criação de uma tipologia dividida em dois construtos. O primeiro construto foi chamado de Standalone Capabilities. O grupo consiste de zero order capabilities tais como Suporte ao Cliente, Inovação, Eficiência Operacional, Flexibilidade, e Gerenciamento dos Fornecedores. Estas operational capabilities têm por objetivo melhorar os processos da firma. Elas têm uma relação direta com desempenho operacional. O segundo construto foi chamado de Across-the-Board Capabilities. Ele é composto por first order capabilities tais como Aprendizagem Contínua e Gerenciamento da Informação. Estas operational capabilities são consideradas dinâmicas e possuem o papel de reconfigurar as Standalone Capabilities.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem por finalidade apresentar uma contribuição teórica para os estudos de defesa, tendo como objeto de análise os livros brancos e também demais documentos oficiais relacionados ao tema. Inspirado no realismo neoclássico e nos conceitos estruturalistas empreendeu-se uma pesquisa quantitativa da dinâmica dos processos de elaboração da política declarada de defesa e seu correspondente alinhamento na construção ou desconstrução das estruturas de defesa no Pós-Segunda Grande Guerra, com vistas a compreender os novos caminhos que os sistemas de defesa selecionaram nesse início de século. Os documentos oficiais de defesa surgiram com escopo principal de promover a estabilidade e reduzir as incertezas no ambiente internacional, e pôde ser verificado que a difusão, desses documentos, ocorreu por ondas, durante o período da Guerra Fria, no Pós-Guerra Fria e depois dos atentados de 11 de setembro. A pesquisa também teve por escopo apresentar fatores domésticos e externos que contribuíram ou não para a difusão da documentação e também para a orientação doutrinária de defesa, usando como método de pesquisa o teste de Wald e a técnica implementada por Benoit, Laver e Garry, que desenvolveram uma forma de análise de textos políticos com auxílio de programa de computador, para estimar o posicionamento de cada documento por meio da contagem de palavras. Em que pese à pesquisa ser basicamente quantitativa, foram produzidos dois capítulos essencialmente qualitativos que tiveram o objetivo de prover os instrumentos quantitativos com um necessário arcabouço teórico, sendo feita uma análise mais qualitativa em 52 documentos de defesa e uma discussão teórica entre as principais correntes de pensamento que tratam do tema defesa. E por fim buscou-se atestar a validade desses documentos de defesa quanto aos propósitos que se destinam.