951 resultados para specifications
Resumo:
Using the Pricing Equation in a panel-data framework, we construct a novel consistent estimator of the stochastic discount factor (SDF) which relies on the fact that its logarithm is the "common feature" in every asset return of the economy. Our estimator is a simple function of asset returns and does not depend on any parametric function representing preferences. The techniques discussed in this paper were applied to two relevant issues in macroeconomics and finance: the first asks what type of parametric preference-representation could be validated by asset-return data, and the second asks whether or not our SDF estimator can price returns in an out-of-sample forecasting exercise. In formal testing, we cannot reject standard preference specifications used in the macro/finance literature. Estimates of the relative risk-aversion coefficient are between 1 and 2, and statistically equal to unity. We also show that our SDF proxy can price reasonably well the returns of stocks with a higher capitalization level, whereas it shows some difficulty in pricing stocks with a lower level of capitalization.
Resumo:
We study the effects of population size in the Peck-Shell analysis of bank runs. We find that a contract featuring equal-treatment for almost all depositors of the same type approximates the optimum. Because the approximation also satisfies Green-Lin incentive constraints, when the planner discloses positions in the queue, welfare in these alternative specifications are sandwiched. Disclosure, however, it is not needed since our approximating contract is not subject to runs.
Resumo:
The aim of this article is to assess the role of real effective exchange rate volatility on long-run economic growth for a set of 82 advanced and emerging economies using a panel data set ranging from 1970 to 2009. With an accurate measure for exchange rate volatility, the results for the two-step system GMM panel growth models show that a more (less) volatile RER has significant negative (positive) impact on economic growth and the results are robust for different model specifications. In addition to that, exchange rate stability seems to be more important to foster long-run economic growth than exchange rate misalignment
Resumo:
Este trabalho tem por objetivo analisar se a capacidade de resposta de política econômica foi fator relevante para minimizar a severidade da crise financeira de 2008, no primeiro ano do episódio. A hipótese da pesquisa é que países com um maior espaço para políticas expansionistas – maiores taxas de juros maiores e melhores resultados do governo central – tenham registrado uma crise menos severa, tudo mais constante. Os resultados econométricos corroboram com a hipótese em relação à política monetária. No que diz respeito à política fiscal, o sinal dos parâmetros encontrado é oposto ao esperado, sinalizando que, possivelmente, mesmo países com bons resultados fiscais possam ter limitações a estímulos keynesianos em função da tolerância ao seu nível de endividamento. Entretanto, a interação entre o resultado do governo central e o endividamento está em linha com a hipótese da pesquisa, uma vez que uma melhor gestão tanto do fluxo fiscal, quanto do estoque da dívida no ano anterior ao evento mostrou-se relevante. A adição da variável de investment grade às especificações ressaltou uma crise mais severa nas economias desenvolvidas.
Resumo:
This dissertation seeks to identify specifications bu which the Subsection cf Buildings c f the Civil Construction os Rio de Janeiro could be improved. It attempt to determine the factors that make construction workers both victims of accidents, as well as the cause of these accidents. It a150 seeks t o identify the means af the capitalist way that as the producer specific kind af society, creates this type af invisible of a worker. Further more, to verify the violent ar disguised ways, that lead the worker to have a guilty consclence relative to himself and to the other workers , and maklng him feel responsible even for accident - related deaths on the job. A revolting factor is that malnutrition and endemic hunger, are in large part responsible for accidents at work in the capitalist production system, ln which production relations are still primitive. Therefore, the accidents at work are a product of society, especially caused by conditions in the construction sector . This fac 19 often masked, and responsibility is put on the worker ln 77,5~ of work related accident . Under these specific working conditions the cumulative overtime hours of work and tasks make the rythm and working hours extreme and overburdensome. The large and modern firms subcantract to smoller construc~i ns firms who have more dangeraus working condictions which result in more frequent and mayor accidents. These are not computed in the statistics of the large firms and the workers of the subcontractors do not appear on the builging construction lists, and are therefore a non - existent entities. Even opressed, the workers still continue to work under these conditions mak1ng there resistence a form af struggle. The Education that intends to be transformed in to an instrument of the workers struggle, should stimulated the participation in the daily educational and political practices and try to reconstructed what the dominant knowledge has fragmented: the ptoduction of existence as an integrated whole.
Resumo:
A necessidade de se desenvolverem instrumentos adequados a avaliação de programas educacionais é premente no momento atual. Segundo os estudos mais recentes no campo da medida educacional, os testes com referência a critério são os que atendem a esta necessidade. Este estudo teve por objetivo a construção de dois testes deste tipo para a avaliação do Programa de Alfabetização Funcional do MOBRAL nos dominios da aquisição das competências basicas em leitura e escrita. Inicialmente foram selecionadas e descritas quatro competências para serem medidas por cada teste. As competências foram selecionadas tendo como base os objetivos do programa apresentados no Roteiro de Orientação ao Alfabetizador (1977). A segunda etapa do estudo consistiu na criação das especificações para cada competência selecionadas nos dois dominios. A partir destas especificações foram construidos 32 itens para o teste de leitura e 40 para o de escrita. Estes itens foram, distribuidos randomicamente em 5 formas experimentais para cada teste. O teste de leitura é composto de itens de múltipla escolha e o teste de escrita de itens de resposta construida. Os criterios de correção e os padrões minimos de desempenho foram estabelecidos para cada teste. Para a analise destes padrões minimos foram calculados as medias e os desvios-padrão para cada forma aplicada. Estes resultados permitem a manutenção dos padrões minimos usados em estudos posteriores. A análise dos itens foi feita em duas etapas: na primeira foram calculados os indices de discriminância pelo processo tradicional e na segunda os indices de sensitivida de pelo processo desenvolvido por Gronlund (1976). Os resultados obtidos permitiram o aproveitamento de todos os itens. Os itens foram divididos em duas formas equivalentes para cada teste, cada um pode ser subdividido em três subtestes para a medida isolada das competências descritas. Para o exame de validade foram estabelecidos os indices de validade descritiva e de seleção de dominio. A fidedignidade dos testes ficou assegurada com a construção de mais de 5 itens para competência Gronlund (1976).
Resumo:
Este trabalho teve o prof5sito de utilizar o Modelo de Likert (mensuração das variáveis causais, intervenientes e de resultado) nos Departamentos da Universidade Federal do Espirito Santo. Esta iniciativa decorreu da intenção de obter o perfil administrativo dos Departamentos, bem como de seu respectivo desempenho (mensuração das variáveis de resultado). De posse das mensurações dos três grupos de variáveis (causais, intervenientes e de resultado), pôde-se efetuar comparações dos 50 Departamentos objeto de pesquisa. preliminarmente, procurou-se de maneira bastante abrangente enfatizar o estudo, seus objetivos, importância e, finalmente, a organização do trabalho (Capitulo 1). Na segunda etapa, proporcionou-se uma ampla visão da teoria organizacional, procurando salientar as quatro grandes correntes. A seguir, apresentou-se o Modelo de Likert com todas as suas especificidades (Capitulo 2). Com relação a terceira etapa, foi estabelecida toda a operacionalização do trabalho, iniciando com a definição da população e amostra, passando pela coleta de da- \ dos, trabalho de campo, análise dos dados e, finalmente, enfatizando as inúmeras limitações da pesquisa (Capitulo 3). No tocante a quarta etapa, antes de iniciar a apresentação e análise dos resultados, fez-se uma retrospectiva histórica da estrutura da Universidade Federal do Espirito Santo, com o intuito de buscar suas origens e facilitar o entendimento da análise (Capítulo 4). Finalmente, na quinta etapa, procurou-se registrar todos os pontos conclusivos decorrentes da utilização do Modelo de Likert junto aos Departamentos da Universidade Federal do Espírito Santo. Neste capitulo, ficou evidenciada, sobretudo, a necessidade de a Universidade procurar otimizar seus recursos (Capítulo 5).
Resumo:
O trabalho aqui apresentado relata um estudo exploratório na área de Educação Técnico-Industrial de segundo grau, cujo objetivo consistiu em selecionar, dentre vários testes, os que fossem melhores preditores do aproveitamento acadêmico dentro da formarão profissional, para formar parte da bateria de testes que serão utilizadas na seleção dos candidatos aos cursos oferecidos pelo Colégio Técnico Nacional para a formação de técnicos de nível médio. o estudo em apreço, realizado mediante a colaboração entre o Departamento de Educação Técnica e o Departamento de Orientação Educacional e Vocacional, ambos do Ministério de Educa9ão e Cultura do Paraguai, é parte do projeto de expansão da orientação no nível de Formação Técnico-Industrial e Formação Profissional do qual um dos objetivos é controlar a qualidade da matricula a fim de evitar a evasão e favorecer o maior aproveitamento destes cursos oferecidos a este nível, o que será possível através da implantarão, em todos os Colégios desde tipo, de medidas de avaliação de aptidões e interesses para o desenvolvimento dos recursos humanos dos países em desenvolvimento. Partiu-se de uma análise minuciosa dos programas de estudo das matérias que compunham a bagagem de cada especialidade, com a finalidade de realizar uma lista de aptidões e traços que compõe a especificação profissional de cada especialidade. Foram experimentados 13 testes psicométricos, um de interesses ocupacionais e dois de personalidade. Dos quais após submetidos ao tratamento estadístico para conhecer sua precisão e validade em relação a um critério (o rendimento acadêmico nas matérias da especialidade) foram selecionados os seguintes testes: I N V de Pierre Weil, Raciocínio espacial Ribakow, Rapidez e exatidão no cálculo da bateria CEPA, Teste de Destreza Manual e Atenção distribuída e o Raciocínio Mecânico do DAT por ser os de melhor índice de precisão e validade (elevada correlação com as mate rias profissionais das especialidades). Este estudo se constitui no passo inicial para a elaboração de outros sistemas de seleção de matrícula baseados em provas pSicol6gicas, organizados pela Unidade de Psicometria e Psicologia Escolar de Dpto. de Orientação Educativa e Vocacional do M. E. C.
Resumo:
Este trabalho, concebido dentro de uma perspectiva humanista, propõe-se a elaborar e testar um modelo de Diagnóstico e Intervenção Organizacional. A abordagem sistêmica permitiu a aplicação de conceitos da Teoria da Informação, tendo em vista a ideia de se elaborar uma sistemática de tratamento de dados coleta dos, que possibilite uma nova forma de Descrição de Cargos e consequente Especificações de Trabalho. O objetivo de tal colocação visa minorar as principais falhas existentes na passagem ' dos requisitos de Trabalho às Especificações decorrentes, tornando este "salto" menos subjetivo, mais operacional e melhor quantificável. Por outro lado, o tratamento de dados à luz da Teoria da Informação, permite a elaboração de novas categorizações e avaliações para fins psicológicos. Além de se obter uma classificação objetiva, operacional e dinâmica em termos de análise de trabalho, são formulados novos recursos com vista s a uma seleção adequada, um tratamento útil e específico, fundamentados nos elementos discriminantes de cada cargo. Finalmente, através de uma análise da estrutura e da dinâmica de uma organização específica, fundamentada em processos de análise de trabalho e de avaliação de pessoal, baseadas na teoria da, informação é também possível planejar-se mudanças organizacionais - com perspectivas ergonômicas - na área considera da crítica, para minimizar a eficiência dos recursos humanos de uma organização, isto é, a adaptação do trabalho ao Homem.
Resumo:
Aparentemente existe uma anomalia no mercado de ações, onde é possível prever excessos de retomo das ações baseando-se em dados passados de divulgação de lucro. Este fenômeno é estatisticamente significante e parece não ser um artefato de amostragem ou metodologia, mas de uma ineficiência de mercado. Estudos mostram uma tendência dos excessos de retornos acumulados das ações se movimentarem na direção da surpresa de lucro, e este movimento se estende por meses após a data de divulgação de lucro trimestral. Neste trabalho mostro que este fenômeno ocorre também no Brasil, mesmo utilizando uma amostra com especificidades do mercado brasileiro e utilizando dados de expectativas de lucro de analistas financeiros no lugar de previsão estatística.
Resumo:
O modelo racional de decisão tem sido objeto de estudo constante na academia de vários países, contribuindo para evolução do ser racional como importante tomador de decisão. A evolução destes estudos tem aberto questionamentos quanto à capacidade de racionalidade que temos como tomadores de decisão, deleitando assim em várias teorias novas que pesquisam estas limitações no decidir. Especialmente aplicadas a teorias econômicas, estudos como Inteligência Artificial, Contabilidade Mental, Teoria dos Prospectos, Teoria dos Jogos entre outras se destacam neste cenário de estudo das finanças comportamentais. A contabilidade como ferramenta de apoio as decisões financeiras ocupa posição de destaque. Esta tem em seu escopo de trabalho normas (aquilo que deveria ser feito) que regulam sua atuação, em alguns casos esta regulamentação não é precisa em suas especificações, deixando janelas que levam seus profissionais a erros de interpretação. A imprecisão contábil pode causar viés em suas classificações. Os profissionais, deparados com este legado podem se utilizar de heurísticas para interpretar da melhor maneira possível os acontecimentos que são registrados na contabilidade. Este trabalho tem a intenção de análise de alguns pontos que consideramos importantes quando temos imprecisão contábil, respondendo as seguintes perguntas: a imprecisão de normas contábeis causa viés na decisão? O profissional que se depara com imprecisão contábil se utiliza de Heurística para decidir? Quais os erros mais comuns de interpretação sob incerteza contábil? Para que o assunto fosse abordado com imparcialidade de maneira a absorver retamente quais são as experiências dos profissionais que atuam na área contábil, foi elaborado um questionário composto por uma situação possível que leva o respondente a um ambiente de tomada de decisões que envolva a prática contábil. O questionário era dividido em duas partes principais, com a preocupação de identificar através das respostas se existe imprecisão contábil (sob a luz do princípio da prudência) e quais heurísticas que os respondentes se utilizam com mais freqüência, sendo o mesmo aplicado em profissionais que atuam na área contábil e que detenham experiências profissionais relacionadas à elaboração, auditoria ou análise de demonstrações contábeis. O questionário aplicado na massa respondente determinou, através das respostas, que existe, segundo os profissionais, interpretações diferentes para os mesmos dados, caracterizando assim zona cinzenta, segundo Penno (2008), ou seja, interpretações que podem ser mais agressivas ou mais conservadoras conforme a interpretação do profissional. Já quanto às estratégias simplificadoras, ou heurísticas, que causam algum tipo de enviesamento no processo decisório, alguns foram identificadas como: associações pressupostas, interpretação errada da chance, regressão a media e eventos disjuntivos e eventos conjuntivos, que reforçam a pesquisa dando indícios de que os respondentes podem estar tomando decisões enviesadas. Porém, não se identificou no estudo tomada de decisões com enviesamentos como recuperabilidade e insensibilidades ao tamanho da amostra. Ao final do estudo concluímos que os respondentes têm interpretações diferenciadas sobre o mesmo assunto, mesmo sob a luz do princípio contábil da prudência, e ainda se utilizam de estratégias simplificadoras para resolverem assuntos quotidianos.
Resumo:
Muitos trabalhos têm sido elaborados a respeito da curva de demanda agregada brasileira, a curva IS, desde a implementação do Plano Real e, principalmente, após a adoção do regime de câmbio flutuante. Este trabalho tem como objetivo estimar algumas especificações para a curva IS brasileira, para o período após a implementação do câmbio flutuante, do regime de metas de inflação e da Lei de Responsabilidade Fiscal, i.e. após o ano 2000. As especificações para as curvas estimadas tiveram como base o modelo novo-keynesiano, tendo sido incluídas algumas variáveis explicativas buscando captar o efeito na demanda agregada da maior intermediação financeira na potência da política monetária e o efeito do esforço fiscal feito pelo governo brasileiro. O trabalho utiliza o Método dos Momentos Generalizados (MMG) para estimar a curva IS em sua especificação foward-looking e o Método dos Mínimos Quadrados Ordinários (MQO) para estimar a curva IS em sua versão backward-looking. Os resultados mostram forte significância para o hiato do produto em todas as especificações. As especificações foward-looking mostram coeficientes significantes, porém com sinais opostos ao esperado para os juros e superávit primário. Nas regressões backward-looking o sinal dos coeficientes encontrados são os esperados, porém, mostram-se não significantes.
Resumo:
In this paper we study the dynamic hedging problem using three different utility specifications: stochastic differential utility, terminal wealth utility, and we propose a particular utility transformation connecting both previous approaches. In all cases, we assume Markovian prices. Stochastic differential utility, SDU, impacts the pure hedging demand ambiguously, but decreases the pure speculative demand, because risk aversion increases. We also show that consumption decision is, in some sense, independent of hedging decision. With terminal wealth utility, we derive a general and compact hedging formula, which nests as special all cases studied in Duffie and Jackson (1990). We then show how to obtain their formulas. With the third approach we find a compact formula for hedging, which makes the second-type utility framework a particular case, and show that the pure hedging demand is not impacted by this specification. In addition, with CRRA- and CARA-type utilities, the risk aversion increases and, consequently the pure speculative demand decreases. If futures price are martingales, then the transformation plays no role in determining the hedging allocation. We also derive the relevant Bellman equation for each case, using semigroup techniques.
Resumo:
We study the optimal “inflation tax” in an environment with heterogeneous agents and non-linear income taxes. We first derive the general conditions needed for the optimality of the Friedman rule in this setup. These general conditions are distinct in nature and more easily interpretable than those obtained in the literature with a representative agent and linear taxation. We then study two standard monetary specifications and derive their implications for the optimality of the Friedman rule. For the shopping-time model the Friedman rule is optimal with essentially no restrictions on preferences or transaction technologies. For the cash-credit model the Friedman rule is optimal if preferences are separable between the consumption goods and leisure, or if leisure shifts consumption towards the credit good. We also study a generalized model which nests both models as special cases.
Resumo:
We study an intertemporal asset pricing model in which a representative consumer maximizes expected utility derived from both the ratio of his consumption to some reference level and this level itself. If the reference consumption level is assumed to be determined by past consumption levels, the model generalizes the usual habit formation specifications. When the reference level growth rate is made dependent on the market portfolio return and on past consumption growth, the model mixes a consumption CAPM with habit formation together with the CAPM. It therefore provides, in an expected utility framework, a generalization of the non-expected recursive utility model of Epstein and Zin (1989). When we estimate this specification with aggregate per capita consumption, we obtain economically plausible values of the preference parameters, in contrast with the habit formation or the Epstein-Zin cases taken separately. All tests performed with various preference specifications confirm that the reference level enters significantly in the pricing kernel.