11 resultados para Testes genéricos a uma aplicação
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
O objetivo do trabalho é investigar a relação de longo prazo entre capital e inovação, utilizando técnicas econométricas mais recentes, com dados em painel. Diversos testes alternativos de cointegração foram utilizados, como testes com coeficientes comuns e idiossincráticos entre os cross-sections (testes de Pedroni, de Kao e de Fischer), e testes onde a hipótese de cointegração é nula (teste de McCoskey e Kao), incluindo testes com quebras estruturais (teste de Westerlund). As conclusões principais são a evidência forte de que estoque de capital humano afeta de forma significativa o número de inovações. Tabém foram encontradas evidências de que a hierarquia de educação importe para o aumento de inovações.
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
Esta dissertação é fruto de pesquisas, estudos e testes sobre os modelos de representação do conhecimento e os instrumentos utilizados na construção de sistemas especialistas. Visando estabelecer critérios que permitam, a partir da definição das estruturas do conhecimento de um determinado domínio, elaborar um modelo de representação do conhecimento adequado a esse domínio e, também, escolher o instrumento de desenvolvimento e implementação (uma linguaguem ou shell) mais adequado à aplicação em consideração
Resumo:
Neste trabalho são abordados modelos de taxas de câmbio em regime de bandas e é discutida a aplicação de um desses modelos ao caso brasileiro. São descritos os modelos de taxas de câmbio em regime de bandas existentes na literatura no tocante a suas respectivas hipóteses, derivação matemática e propriedades teóricas derivadas. São também apresentados os resultados de testes empíricos, quando existentes, realizados para cada um desses modelos.
Resumo:
O impacto da adoção de modelos de excelência em gestão com foco na qualidade sobre o desempenho de empresas é um tema recorrente em estratégia de operações. Segundo a teoria sobre o tema, as empresas que adotam estes modelos deveriam observar taxas de lucratividade ou crescimento superiores a outras empresas. Esta dissertação buscou evidenciar, empiricamente, estes impactos para empresas brasileiras que passaram para a segunda fase ou foram finalistas do Prêmio Nacional da Qualidade de 2000 a 2004. O estudo foi feito sobre uma amostra de 1727 observações de 426 empresas de 15 setores, das quais 23 haviam participado do Prêmio Nacional da Qualidade, e 13 haviam passado para sua segunda fase e 6 foram finalistas. Os dados foram obtidos das edições do Balanço Anual da Gazeta Mercantil de 2000 a 2004 e da Fundação Nacional da Qualidade. A técnica de análise incluiu análises de distribuições, testes de média, testes não paramétricos e regressões lineares. O estudo encontrou grande variância de resultados de lucratividade e crescimento, o que ressalta sua importância gerencial. O principal achado do estudo foi que empresas brasileiras que adotam o modelo apresentaram lucratividade acima da média, como foi encontrado por diversos estudos em outros países. No entanto, as empresas brasileiras que adotam o modelo apresentaram crescimento em linha com a média de seus setores. Enquanto a maior parte dos estudos empíricos de outros países mostra uma relação positiva entre a adoção do modelo e o crescimento de empresas, existem teorias que mostram possíveis efeitos adversos da adoção deste modelo de gerenciamento sobre a capacidade de empresas gerarem inovações radicais.
Resumo:
Este trabalho procurou desenvolver o conceito de estratégia institucional, ilustrando sua aplicação no contexto específico da disputa de mercado pelas empresas farmacêuticas por ocasião da regulamentação dos medicamentos genéricos no Brasil. Estratégia institucional implica uma compreensão combinada das facetas técnica e institucional do ambiente e das organizações, e o reconhecimento da condição e das possibilidades de agência como socialmente construídas, sendo pertinente e relevante para aqueles que desejam formular e executar estratégias empresariais. O conceito apóia-se em elementos amplamente discutidos em Teoria Institucional em estudos organizacionais, porém negligenciados nas abordagens predominantes no campo da Estratégia Empresarial, ancoradas em pressupostos da economia neoclássica. Através de análise documental e análise de conteúdo, em perspectiva longitudinal, buscou-se caracterizar estratégias institucionais empregadas pelos laboratórios farmacêuticos, verificando-se a influência que tiveram sobre a regulamentação do setor, e o conseqüente impacto sobre o desempenho econômico das empresas. Os resultados encontrados, em linha com o referencial teórico desenvolvido, sugerem que as empresas empreenderam manobras institucionais, influenciando mudanças nas ¿regras do jogo¿ ou fazendo uso delas para obter ou manter fontes de rendas econômicas, restringidas pela condição de legitimidade que lhes foi atribuída pelos outros atores. Diversas mudanças na regulamentação puderam ser associadas às manobras estratégicas, e o impacto do novo arranjo institucional sobre o desempenho das empresas pode ser observado. O estudo aponta a necessidade de incorporação de novos elementos aos processos e análises convencionais de estratégia de empresas, notadamente uma reflexão crítica sobre as pressões institucionais e a avaliação de respostas estratégicas que possam ser percebidas como legítimas pelos outros atores sociais envolvidos.
Resumo:
Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.
Resumo:
A teoria da paridade do poder de compra (PPP) foi formalizada há quase um século por Gustav Cassel como um paradigma para explicar o comportamento das taxas de câmbio. Sua comprovação empírica é historicamente controversa, mas aos poucos, a literatura parece convergir para o consenso de que a PPP é válida, mas apenas no longo prazo. Ainda que a PPP não sirva para prever o comportamento da taxa de câmbio no curto prazo, seu uso é disseminado na macroeconomia aplicada como restrição de longo prazo para a taxa de câmbio. Como lembram Dornbusch e Krugman, “Sob a pele de qualquer economista internacional, está enraizada uma fé em alguma variante da teoria da PPP”. O presente estudo se propõe a avaliar as evidências para a PPP a partir de mais de cem anos de história das maiores economias da América Latina. Na literatura, a maior parte dos estudos da PPP no longo prazo utiliza dados de países desenvolvidos (em parte, por causa da disponibilidade dos dados). Taylor (2002) incluiu Argentina, Brasil e México na sua amostra de 20 países desenvolvidos e em desenvolvimento. Há também alguns estudos que tratam especificamente de um ou outro país da região (por exemplo, Délano 1998, que testa a PPP com dados do Chile de 1835 a 1995). Seguindo os métodos usuais descritos na literatura – testes de raiz unitária para se avaliar a estacionariedade da taxa de câmbio real,de aplicação de mecanismos de correção de erro e testes de co-integração – chega-se à conclusão que a evidência obtida a partir dos dados da América Latina é favorável à tese de existência da PPP no longo prazo.
Resumo:
Neste trabalho, verificamos viabilidade de aplicação da estratégia de pairs trading no mercado acionário brasileiro. Diferentemente de outros estudos do mesmo tema, construímos ativos sintéticos a partir de uma combinação linear de preços de ações. Conforme Burgeois e Minko (2005), utilizamos a metodologia de Johansen para a formação dos pares a serem testados. Após a identificação de pares cointegrados, para assegurar a estacionaridade do ativo sintético contruído a partir da relação linear de preços das ações, utilizamos os testes DF-GLS e KPSS e filtramos àqueles que apresentavam raiz unitária em sua série de tempo. A seguir, simulamos a estratégia (backtesting) com os pares selecionados e para encontrar os melhores parâmetros, testamos diferentes períodos de formação dos pares, de operação e de parâmetros de entrada, saída e stop-loss. A fim de realizarmos os testes de forma mais realista possível, incluímos os custos de corretagem, de emolumentos e de aluguel, além de adicionar um lag de um dia para a realização das operações
Resumo:
Muitas teorias de finanças implicam em relações monotônicas nos retornos esperados em função de variáveis financeiras, tais como a hipótese de preferência por liquidez e o Capital Asset Pricing Model (CAPM). No entanto, estudos empíricos que testam este tipo de relação não são muitos explorados, principalmente no mercado brasileiro. A contribuição científica neste trabalho é utilizar ativos domésticos e verificar se no mercado nacional estas implicações monotônicas das teorias de finanças são sustentadas empiricamente. Fizemos uma revisão dos testes presentes na literatura para verificar a monotonicidade: os testes t, Bonferroni utilizado por Fama (1984), Wolak (1989) e o teste MR, de Patton e Timmermann (2010). Utilizamos a técnica de bootstrap e incluímos na análise dos resultados os testes “Up” e “Down”. No teste para verificar a hipótese de preferência por liquidez foram utilizadas as séries da taxa referencial de swaps DI pré-fixada para vencimentos de até 1 ano. Os testes convergem e encontram evidências estatísticas de relação monotônica entre os retornos e os prazos de vencimento. No caso do teste no CAPM, foram utilizadas as séries históricas do preço das ações que compuseram o índice IBrX. Contrário ao esperado, para os dados amostrados, os testes não sustentaram a implicação teórica de monotonicidade entre os retornos médios dos portfólios e os betas de mercado ordenados crescentemente. Este resultado é de grande relevância para o mercado brasileiro.
Resumo:
O presente trabalho investigou o valor de uma floresta nativa no bioma Mata Atlântica. Para isso, utilizou-se da metodologia de custo de reposição. Além disso, buscou-se explicitar os principais fatores determinantes desse valor, bem como seus impactos. Foram formuladas quatro hipóteses de pesquisa, a saber, i) o nível de degradação da área não influencia o custo total de reposição da floresta nativa; ii) relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa; iii) a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa; e iv) a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Para chegar aos resultados foram realizados testes simples de diferença de médias para as variáveis qualitativas. Os resultados encontrados foram de que pode-se rejeitar a hipótese de que relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa. No entanto, não se rejeitam as hipóteses de que a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa e de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Após essa primeira aproximação, é realizada uma série de regressões, utilizando o modelo clássico de mínimos quadrados ordinários (MQO). Fez-se uma análise de sensibilidade dos resultados obtidos. O levantamento de dados foi obtido por meio da realização de uma pesquisa (questionário) a uma série de entidades do setor. Foram testadas as quatro hipóteses. De acordo com os testes realizados, pode-se dizer que a hipótese 2 sobre o impacto de um relevo mais acidentado das áreas a serem restauradas no custo total de reposição da floresta nativa se mostrou não significativa em todos os modelos. No entanto, a hipótese 1 do impacto do nível de degradação sobre o valor do projeto foi rejeitada em todos os modelos. A hipótese 3 do impacto da localização da área em relação ao centro urbano sobre o valor do projeto foi rejeitada em dois modelos e a hipótese 4 de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa foi rejeitada em um modelo. Chegou-se ao resultado de R$22 mil/hectare para o custo de reposição de uma floresta nativa do bioma Mata Atlântica. Esse tipo de estudo foi contextualizado no desenvolvimento feito pela economia ambiental ao longo do tempo, ressaltando suas principais características. Nas conclusões destaca-se os principais pontos do trabalho e são discutidas uma série de implicações teóricas e gerenciais do presente estudo, bem como apresentadas sugestões para novos estudos nessa área.