17 resultados para Teste de software. Geração de testes. Gramáticas
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
Este trabalho busca explorar, através de testes empíricos, qual das duas principais teorias de escolha de estrutura ótima de capital das empresas, a Static Trade-off Theory (STT) ou a Pecking Order Theory(POT) melhor explica as decisões de financiamento das companhias brasileiras. Adicionalmente, foi estudado o efeito da assimetria de informações, desempenho e liquidez do mercado acionário nessas decisões. Utilizou-se no presente trabalho métodos econométricos com dados de empresas brasileiras de capital aberto no período abrangendo 1995 a 2005, testando dois modelos representativos da Static Trade-off Theory (STT) e da Pecking Order Theory(POT). Inicialmente, foi testado o grupo amplo de empresas e, posteriormente, realizou-se o teste em subgrupos, controlando os efeitos de desempenho e liquidez do mercado acionário, liquidez das ações das empresas tomadoras e assimetria de informações. Desta forma, os resultados obtidos são indicativos de que a Pecking Order Theory, na sua forma semi-forte, se constitui na melhor teoria explicativa quanto à escolha da estrutura de capital das empresas brasileiras, na qual a geração interna de caixa e o endividamento oneroso e operacional é a fonte prioritária de recursos da companhia, havendo algum nível, embora baixo, da utilização de emissão de ações. Os estudos empíricos para os subgrupos de controle sugerem que a liquidez do mercado e liquidez das ações das empresas são fatores de influência na propensão das empresas emitirem ações, assim como a assimetria de informação. O desempenho do mercado acionário, com base nos dados analisados, aparenta ter pouca influência na captação de recursos via emissões de ações das empresas, não sendo feito no presente estudo distinções entre emissões públicas ou privadas
Resumo:
Utiliza a técnica de simulação para estimar a "eficiência" de se testar o modelo Capital Asset Pricing Model (CAPM) num mercado com características do mercado acionário paulista, marcado por elevado retorno e alta volatilidade.
Resumo:
A partir da bastante difundida metodologia de Cointegração e Características (Features), propõe-se a execução dos testes de Johansen e regressão auxiliar para verificar a existência de Características Comuns de primeira e segunda ordem entre índices e retornos de bolsas latinoamericanas. A existência de Características Comuns em séries financeiras é de particular importância por implicar em previsibilidade, derivando relações que podem ter aplicações em estratégias de transação e hedge, por exemplo. Os resultados mostram que a ocorrência de Características Comuns é restrita. O primeiro teste indica ocorrência de relações de longo prazo em uma região envolvendo a Argentina. No curto prazo, foram identificados Ciclos Comuns entre Argentina, Brasil, Chile e México. As relações encontradas neste caso servem como indicadores de movimentos pró-cíclicos na resposta a notícias entre estes países. Nos testes de segunda ordem, nenhuma Característica Comum foi identificada.
Resumo:
A sustentabilidade da dívida pública brasileira no período entre dezembro de 1997 e junho de 2004 é testada nesse trabalho. Além disso, estima- se como o governo a justa em valor presente os impostos e gastos futuros diante de um choque nestas variáveis. Para testar a sustentabilidade, dois tipos de testes são aplicados: o primeiro segue a metodologia de coin- tegração presente nos modelos desenvolvidos por Hakkio e Rush (1991) e Bohn (1991); e o segundo baseia-se na reação do superávit primário a mudanças na razão dívida-PIB, como demonstrado por Bohn (1998). Para estes testes, utiliza-se séries como proporção do PIB, pois são as variáveis de relevância para o governo na condução da política fiscal. Os resultados dos três modelos indicam sustentabilidade da dívida pública brasileira. Sob a confirmação empírica de que a dívida é sustentável, o modelo desenvolvido por Bohn (1991) foi aplicado para avaliar como o governo reage a inovações nos gastos ou nos impostos de modo a manter a relação de equilíbrio de longo prazo do seu orçamento. Os resultados indicam que o governo reage com aumento de impostos quando a economia sofre choques nas variáveis fiscais. Isto resulta da exogeneidade fraca dos gastos no modelo de correção-de-erro estimado.
Resumo:
Trata do desenvolvimento e experimentação prática de um aplicativo para jogo de empresas, baseado no acoplamento de um modelo empresarial genérico, construído dentro do paradigma de dinâmica de sistemas, com um modelo em aplicativo de planilhas, operando como um gerador randômico de cenários. Este aplicativo pode ser usado tanto na forma individual, como com vários participantes, de maneira individual ou em grupos, com a participação de um administrador. A geração automática e randômica de cenários num jogo de empresas, propicia um ambiente diferenciado às metas de aprendizado e treinamento dos participantes.
Resumo:
Este trabalho tem por objetivo avaliar a eficiência do mercado acionário brasileiro a partir de testes estatísticos, para posterior modelagem das séries de retorno das ações, utilizando os modelos ARMA, ARCH, GARCH, Modelo de Decomposição e, por final, VAR. Para este trabalho foram coletados dados intradiários, que são considerados dados de alta freqüência e menos suscetíveis a possíveis alterações na estrutura de mercado, tanto micro como macroeconômicos. Optou-se por trabalhar com dados coletados a cada cinco minutos, devido à baixa liquidez dos ativos no mercado financeiro (que poderia acarretar em dados ausentes para intervalos de tempo inferiores). As séries escolhidas foram: Petrobrás PN, Gerdau PN, Bradesco PN, Vale do Rio Doce PN e o índice Ibovespa, que apresentam grande representatividade do mercado acionário brasileiro para o período analisado. Com base no teste de Dickey-Fuller, verificou-se indícios que o mercado acionário brasileiro possa ser eficiente e, assim foi proposto modelos para as séries de retorno das ações anteriormente citadas.
Resumo:
O objetivo do trabalho é investigar a relação de longo prazo entre capital e inovação, utilizando técnicas econométricas mais recentes, com dados em painel. Diversos testes alternativos de cointegração foram utilizados, como testes com coeficientes comuns e idiossincráticos entre os cross-sections (testes de Pedroni, de Kao e de Fischer), e testes onde a hipótese de cointegração é nula (teste de McCoskey e Kao), incluindo testes com quebras estruturais (teste de Westerlund). As conclusões principais são a evidência forte de que estoque de capital humano afeta de forma significativa o número de inovações. Tabém foram encontradas evidências de que a hierarquia de educação importe para o aumento de inovações.
Resumo:
O trabalho procura investigar a existência de relação de cointegração entre a Taxa de Câmbio Real (CRER), Passivo Externo Líquido (PEL), Termos de Troca (TOT) e um fator de produtividade (BS), utilizando um teste não paramétrico proposto por Bierens (1997), aplicado a uma amostra de dados para EUA e Brasil que cobre o período de 1980 a 2010. Para os EUA, é encontrada evidência da influência das variáveis elencadas. No caso brasileiro verifica-se pouca relevância da variável BS, sendo as demais variáveis presentes no vetor de cointegração.
Resumo:
A necessidade de se desenvolverem instrumentos adequados a avaliação de programas educacionais é premente no momento atual. Segundo os estudos mais recentes no campo da medida educacional, os testes com referência a critério são os que atendem a esta necessidade. Este estudo teve por objetivo a construção de dois testes deste tipo para a avaliação do Programa de Alfabetização Funcional do MOBRAL nos dominios da aquisição das competências basicas em leitura e escrita. Inicialmente foram selecionadas e descritas quatro competências para serem medidas por cada teste. As competências foram selecionadas tendo como base os objetivos do programa apresentados no Roteiro de Orientação ao Alfabetizador (1977). A segunda etapa do estudo consistiu na criação das especificações para cada competência selecionadas nos dois dominios. A partir destas especificações foram construidos 32 itens para o teste de leitura e 40 para o de escrita. Estes itens foram, distribuidos randomicamente em 5 formas experimentais para cada teste. O teste de leitura é composto de itens de múltipla escolha e o teste de escrita de itens de resposta construida. Os criterios de correção e os padrões minimos de desempenho foram estabelecidos para cada teste. Para a analise destes padrões minimos foram calculados as medias e os desvios-padrão para cada forma aplicada. Estes resultados permitem a manutenção dos padrões minimos usados em estudos posteriores. A análise dos itens foi feita em duas etapas: na primeira foram calculados os indices de discriminância pelo processo tradicional e na segunda os indices de sensitivida de pelo processo desenvolvido por Gronlund (1976). Os resultados obtidos permitiram o aproveitamento de todos os itens. Os itens foram divididos em duas formas equivalentes para cada teste, cada um pode ser subdividido em três subtestes para a medida isolada das competências descritas. Para o exame de validade foram estabelecidos os indices de validade descritiva e de seleção de dominio. A fidedignidade dos testes ficou assegurada com a construção de mais de 5 itens para competência Gronlund (1976).
Resumo:
Este trabalho investiga basicamente a validade do Teste Illinois de Habilidades Psicolinguísticas -ITPA -instrumento de avaliação do desenvolvimento da linguagem infantil. Seus autores, S. Kirk e J.J. McCarthy (1961), utilizam o referencial teórico proposto por C. Osgood (1957), a ele incorporando o modelo derivado da Teoria da Informação, o que permite que, na prática clínica, o ITPA possa ser incluído no processo psicodiagnóstico como instrumento de avaliação dos problemas da comunicação em crianças entre três e dez anos. Os objetivos que conduzem e orientam o trabalho apresentado podem ser definidos em três níveis: 1) O que trata dos constructos e suas interrelaç6es -análise crítica da validade teóricado ITPA; 2) O que avalia sua condição de instrumento diagnóstico do desempenho escolar -sensibilidade discriminante do rendimento acadêmico; 3) O que trata da eficácia da prática psicopedagógica proposta pelo mesmo instrumento. O estudo sobre a validade teórica foi realizado com 931 crianças entre três e dez anos de idade, em processo de escolarização, frequentando creches, jardins de infância ou classes regulares da Rede de Ensino do Primeiro Grau no Município do Rio de Janeiro. Utilizou-se a técnica da Análise Fatorial, complementada por uma abordagem lógica que comprovaram algumas das dimensões propostas pelo referencial teórico de Kirk e McCarthy. Para a validade diagnóstica foram avaliadas 71 crianças com dificuldades no desempenho acadêmico, expressas através de conceitos de insuficiência ou deficiência de rendimento e seus resultados foram comparados com os de um subgrupo, aleatoriamente constituído de crianças que participaram do estudo anterior. Utilizou-se a técnica da Análise Discriminante chegando-se à seguinte conclusão: embora a validade de constructo do IIPA não tenha sido completamente confirmada num nível diagnóstico os resultados permitem identificar, com baixa margem de erro, as crianças que pertencem a um ou outro dos grupos de contraste. Quanto ao terceiro nível, foi feita ampla-revelação bibliográfica sobre investigações efetuadas com este instrumento no Brasil e no Exterior. Visou-se avaliar a eficácia da prática psicopedagógica utilizada quando desenvolvida à luz dos recursos de intervenção que o IIPA propõe. Concluiu-se que as pesquisas, até o presente momento efetuadas, não são suficientes para formar um juízo mais seguro da praxis educativa destinada à reabilitação das crianças com problemas da comunicação - o que constitui impedimento a seu desempenho acadêmico - em função das controvérsias que tais pesquisas apresentam.
Resumo:
Este artigo propõe um novo teste para distinção entre modelos macroeconômicos de precificação. Onde testes antigos concluíram haver uma relação negativa entre inflação corrente e duração de um preço, indicando estado-dependência, nosso teste indica que a relação verdadeira é entre inflação esperada e duração do preço, indicando tempo-dependência-endógena. Argumentamos que os resultados previamente encontrados possivelmente sofreram de viés de variável omitida.
Resumo:
O trabalho aqui apresentado relata um estudo exploratório na área de Educação Técnico-Industrial de segundo grau, cujo objetivo consistiu em selecionar, dentre vários testes, os que fossem melhores preditores do aproveitamento acadêmico dentro da formarão profissional, para formar parte da bateria de testes que serão utilizadas na seleção dos candidatos aos cursos oferecidos pelo Colégio Técnico Nacional para a formação de técnicos de nível médio. o estudo em apreço, realizado mediante a colaboração entre o Departamento de Educação Técnica e o Departamento de Orientação Educacional e Vocacional, ambos do Ministério de Educa9ão e Cultura do Paraguai, é parte do projeto de expansão da orientação no nível de Formação Técnico-Industrial e Formação Profissional do qual um dos objetivos é controlar a qualidade da matricula a fim de evitar a evasão e favorecer o maior aproveitamento destes cursos oferecidos a este nível, o que será possível através da implantarão, em todos os Colégios desde tipo, de medidas de avaliação de aptidões e interesses para o desenvolvimento dos recursos humanos dos países em desenvolvimento. Partiu-se de uma análise minuciosa dos programas de estudo das matérias que compunham a bagagem de cada especialidade, com a finalidade de realizar uma lista de aptidões e traços que compõe a especificação profissional de cada especialidade. Foram experimentados 13 testes psicométricos, um de interesses ocupacionais e dois de personalidade. Dos quais após submetidos ao tratamento estadístico para conhecer sua precisão e validade em relação a um critério (o rendimento acadêmico nas matérias da especialidade) foram selecionados os seguintes testes: I N V de Pierre Weil, Raciocínio espacial Ribakow, Rapidez e exatidão no cálculo da bateria CEPA, Teste de Destreza Manual e Atenção distribuída e o Raciocínio Mecânico do DAT por ser os de melhor índice de precisão e validade (elevada correlação com as mate rias profissionais das especialidades). Este estudo se constitui no passo inicial para a elaboração de outros sistemas de seleção de matrícula baseados em provas pSicol6gicas, organizados pela Unidade de Psicometria e Psicologia Escolar de Dpto. de Orientação Educativa e Vocacional do M. E. C.
Resumo:
Este artigo analisa as séries de câmbio real brasileira calculada a partir de índices de preços ao consumidor para o Brasil e 21 parceiros comerciais no período de 1957 a 2010. O primeiro objetivo deste trabalho será o de avaliar a validade da Paridade do Poder de Compra (PPC) entre Brasil e seus parceiros comerciais através de diversos testes de raiz unitária (ADF, PP, KPSS, Kapetanios et al. (2003) e Bierens (1997)). O segundo objetivo consiste em investigar a hipótese de Taylor (2001) de que a meia-vida é superestimada quando os dados das séries são construídos a partir de um mecanismo de agregação temporal pela média e cujo processo gerador dos dados é linear. O trabalho apresenta elementos para confirmar o argumento de Taylor (2001) de que agregação temporal causa sérias distorções na estimação da meia-vida dos choques da PPC. Os resultados dos testes de raiz unitária lineares (PP e ADF) são desfavoráveis a PPC. Já o teste KPSS, de Kapetanios et al. (2003) e de Bierens (1997) aplicados a base sem agregação temporal sugerem um cenário bem mais favorável a PPC.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
Este trabalho tem a finalidade de analisar as evidências de relações de longo prazo entre a taxa de câmbio real (“RER”), a posição internacional de investimentos (“NFA”) e o efeito Balassa-Samuelson (“PREL”) em um grupo de 28 países, grupo este que inclui países em diferentes estágios de desenvolvimento. A metodologia utilizada foi a de testes de cointegração. Os testes aplicados foram desenvolvidos por Bierens (1997), teste não paramétrico, e por Saikkonen e Lütkepohl (2000a, b, c), teste que consiste em primeiro estimar um termo determinístico. Evidências de cointegração são constatadas, em ambos os testes, na maioria dos países estudados. Entretanto, houve diferenças relevantes entre os resultados encontrados através dos dois testes aplicados. Estas diferenças entre os resultados, bem como alguns casos especiais de países que não demonstraram evidências de cointegração, requerem análises mais aprofundadas sobre o comportamento de longo prazo das três variáveis estudadas.