718 resultados para Intuitive
Resumo:
In this thesis, we investigate some aspects of the interplay between economic regulation and the risk of the regulated firm. In the first chapter, the main goal is to understand the implications a mainstream regulatory model (Laffont and Tirole, 1993) have on the systematic risk of the firm. We generalize the model in order to incorporate aggregate risk, and find that the optimal regulatory contract must be severely constrained in order to reproduce real-world systematic risk levels. We also consider the optimal profit-sharing mechanism, with an endogenous sharing rate, to explore the relationship between contract power and beta. We find results compatible with the available evidence that high-powered regimes impose more risk to the firm. In the second chapter, a joint work with Daniel Lima from the University of California, San Diego (UCSD), we start from the observation that regulated firms are subject to some regulatory practices that potentially affect the symmetry of the distribution of their future profits. If these practices are anticipated by investors in the stock market, the pattern of asymmetry in the empirical distribution of stock returns may differ among regulated and non-regulated companies. We review some recently proposed asymmetry measures that are robust to the empirical regularities of return data and use them to investigate whether there are meaningful differences in the distribution of asymmetry between these two groups of companies. In the third and last chapter, three different approaches to the capital asset pricing model of Kraus and Litzenberger (1976) are tested with recent Brazilian data and estimated using the generalized method of moments (GMM) as a unifying procedure. We find that ex-post stock returns generally exhibit statistically significant coskewness with the market portfolio, and hence are sensitive to squared market returns. However, while the theoretical ground for the preference for skewness is well established and fairly intuitive, we did not find supporting evidence that investors require a premium for supporting this risk factor in Brazil.
Resumo:
O processo de tomada de decisão, por desempenhar papel central no gerenciamento das organizações, tem sido alvo de análises dos principais teóricos da administraçã.o, em interpretações que enfatizam ora os aspectos racionais, ora os organizacionais, ora os políticos e, mais recentemente, os intuitivos. A diversidade de modelos existentes, no entanto, não garante o entendimento completo do fenômeno decisório, na medida em que cada um dos modelos, ao privilegiar determinado ângulo de análise, acaba por obscurecer outros, talvez tão importantes quanto aquele enfocado. Partindo-se dessa premissa, iniciou-se a análise de um processo decisório específico: a criação do Centro Cultural Banco do Brasil (CCBB). Através desse estudo foi possível reforçar a crença de que, em se tratando de decisões complexas ou não-estruturadas não há somente um fator explicativo, mas sim a interveniência de elementos de natureza variada.
Resumo:
Estudo da teoria das opções reais que incorpora à avaliação de projetos de investimentos, as opções de crescimento e as flexibilidades gerenciais que surgem devido às incertezas existentes no ambiente no qual as empresas operam. Aborda os métodos tradicionais de avaliação de investimentos baseados no fluxo de caixa descontado (FCD), destaca as suas vantagens e limitações; a teoria das opções reais mostrando suas vantagens em relação aos métodos tradicionais; e um estudo de caso. Tem como objetivo principal apresentar que a teoria das opções reais é viável e complementar aos métodos tradicionais de avaliação de investimentos na indústria de mineração de ferro, com a abordagem da avaliação em tempo discreto. Este método permite especificar o problema de análise e resolvê-lo com o uso de programa de software de análise de decisão disponível no mercado de forma mais simples e mais intuitivo que os métodos tradicionais de avaliação de opções reais e permite maior flexibilidade na modelagem do problema de avaliação. A modelagem das opções reais do projeto baseia-se no uso de árvore de decisão binomial para modelar o processo estocástico. A avaliação é realizada em quatro passos de acordo com a metodologia proposta por Copeland e Antikarov (2001) e Brandão e Dyer (2005): modelagem do ativo básico, ou seja, cálculo do valor presente líquido sem flexibilidade; criação do modelo binomial utilizando o software computacional para modelar o ativo básico, computando as probabilidades neutras a risco; modelagem das opções reais no projeto; e resolução da árvore binomial, ou seja, análise das opções reais. Os resultados apresentados demonstram que é possível implementar a abordagem da avaliação de opções reais em projetos de investimentos na indústria de mineração de ferro.
Resumo:
Apresento aqui uma abordagem que unifica a literatura sobre os vários modelos de apreçamento de derivativos que consiste em obter por argumentos intuitivos de não arbitragem uma Equação Diferencial Parcial(EDP) e através do método de Feynman-Kac uma solução que é representada por uma esperança condicional de um processo markoviano do preço do derivativo descontado pela taxa livre de risco. Por este resultado, temos que a esperança deve ser tomada com relação a processos que crescem à taxa livre de risco e por este motivo dizemos que a esperança é tomada em um mundo neutro ao risco(ou medida neutra ao risco). Apresento ainda como realizar uma mudança de medida pertinente que conecta o mundo real ao mundo neutro ao risco e que o elemento chave para essa mudança de medida é o preço de mercado dos fatores de risco. No caso de mercado completo o preço de mercado do fator de risco é único e no caso de mercados incompletos existe uma variedade de preços aceitáveis para os fatores de risco pelo argumento de não arbitragem. Neste último caso, os preços de mercado são geralmente escolhidos de forma a calibrar o modelo com os dados de mercado.
Resumo:
A visualização de conjuntos de dados volumétricos é comum em diversas áreas de aplicação e há já alguns anos os diversos aspectos envolvidos nessas técnicas vêm sendo pesquisados. No entanto, apesar dos avanços das técnicas de visualização de volumes, a interação com grandes volumes de dados ainda apresenta desafios devido a questões de percepção (ou isolamento) de estruturas internas e desempenho computacional. O suporte do hardware gráfico para visualização baseada em texturas permite o desenvolvimento de técnicas eficientes de rendering que podem ser combinadas com ferramentas de recorte interativas para possibilitar a inspeção de conjuntos de dados tridimensionais. Muitos estudos abordam a otimização do desempenho de ferramentas de recorte, mas muito poucos tratam das metáforas de interação utilizadas por essas ferramentas. O objetivo deste trabalho é desenvolver ferramentas interativas, intuitivas e fáceis de usar para o recorte de imagens volumétricas. Inicialmente, é apresentado um estudo sobre as principais técnicas de visualização direta de volumes e como é feita a exploração desses volumes utilizando-se recorte volumétrico. Nesse estudo é identificada a solução que melhor se enquadra no presente trabalho para garantir a interatividade necessária. Após, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para determinar as possíveis técnicas de interação mais fáceis de serem utilizadas por ferramentas de recorte. A partir desse embasamento, este trabalho apresenta o desenvolvimento de três ferramentas de recorte genéricas implementadas usando-se duas metáforas de interação distintas que são freqüentemente utilizadas por usuários de aplicativos 3D: apontador virtual e mão virtual. A taxa de interação dessas ferramentas é obtida através de programas de fragmentos especiais executados diretamente no hardware gráfico. Estes programas especificam regiões dentro do volume a serem descartadas durante o rendering, com base em predicados geométricos. Primeiramente, o desempenho, precisão e preferência (por parte dos usuários) das ferramentas de recorte volumétrico são avaliados para comparar as metáforas de interação empregadas. Após, é avaliada a interação utilizando-se diferentes dispositivos de entrada para a manipulação do volume e ferramentas. A utilização das duas mãos ao mesmo tempo para essa manipulação também é testada. Os resultados destes experimentos de avaliação são apresentados e discutidos.
Resumo:
As técnicas qualitativas disponiveis para a modelagem de cenários têm sido reconhecidas pela extrema limitação, evidenciada no principio das atividades do processo, como a fase inicial de concepção. As principais restrições têm sido: • inexistência de uma ferramenta que teste a consistência estrutural interna do modelo, ou pela utilização de relações econômicas com fundamentação teórica mas sem interface perfeita com o ambiente, ou pela adoção de variações binárias para testes de validação; • fixação "a priori" dos possíveis cenários, geralmente classificados sob três adjetivos - otimista, mais provável e pessimista - enviesados exatamente pelos atributos das pessoas que fornecem esta informação. o trabalho trata da utilização de uma ferramenta para a interação entre uma técnica que auxilia a geração de modelos, suportada pela lógica relacional com variações a quatro valores e expectativas fundamentadas no conhecimento do decisor acerca do mundo real. Tem em vista a construção de um sistema qualitativo de previsão exploratória, no qual os cenários são obtidos por procedimento essencialmente intuitivo e descritivos, para a demanda regional por eletricidade. Este tipo de abordagem - apresentada por J. Gershuny - visa principalmente ao fornecimento de suporte metodológico para a consistência dos cenários gerados qualitativamente. Desenvolvimento e estruturação do modelo são realizados em etapas, partindo-se de uma relação simples e prosseguindo com a inclusão de variáveis e efeitos que melhoram a explicação do modelo. o trabalho apresenta um conjunto de relações para a demanda regional de eletricidade nos principais setores de consumo residencial, comercial e industrial bem como os cenários resultantes das variações mais prováveis das suas componentes exógenas. Ao final conclui-se que esta técnica é útil em modelos que: • incluem variáveis sociais relevantes e de dificil mensuração; • acreditam na importância da consistência externa entre os resultados gerados pelo modelo e aqueles esperados para a tomada de decisões; • atribuem ao decisor a responsabilidade de compreender a fundamentação da estrutura conceitual do modelo. Adotado este procedimento, o autor aqui recomenda que o modelo seja validado através de um procedimento iterativo de ajustes com a participação do decisor. As técnicas quantitativas poderão ser adotadas em seguida, tendo o modelo como elemento de consistência.
Resumo:
This dissertation deals with the problem of making inference when there is weak identification in models of instrumental variables regression. More specifically we are interested in one-sided hypothesis testing for the coefficient of the endogenous variable when the instruments are weak. The focus is on the conditional tests based on likelihood ratio, score and Wald statistics. Theoretical and numerical work shows that the conditional t-test based on the two-stage least square (2SLS) estimator performs well even when instruments are weakly correlated with the endogenous variable. The conditional approach correct uniformly its size and when the population F-statistic is as small as two, its power is near the power envelopes for similar and non-similar tests. This finding is surprising considering the bad performance of the two-sided conditional t-tests found in Andrews, Moreira and Stock (2007). Given this counter intuitive result, we propose novel two-sided t-tests which are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test of Moreira (2003).
Resumo:
This paper analyzes the effects of the mlmmum wage on both, eammgs and employment, using a Brazilian rotating panel data (Pesquisa Mensal do Emprego - PME) which has a similar design to the US Current Population Survey (CPS). First an intuitive description of the data is done by graphical analysis. In particular, Kemel densities are used to show that an increase in the minimum wage compresses the eamings distribution. This graphical analysis is then forrnalized by descriptive models. This is followed by a discussion on identification and endogeneity that leads to the respecification of the model. Second, models for employment are estimated, using an interesting decomposition that makes it possible to separate out the effects of an increase in the minimum wage on number of hours and on posts of jobs. The main result is that an increase in the minimum wage was found to compress the eamings distribution, with a moderately small effect on the leveI of employment, contributing to alleviate inequality.
Resumo:
This paper introduces the concept of common deterministic shifts (CDS). This concept is simple, intuitive and relates to the common structure of shifts or policy interventions. We propose a Reduced Rank technique to investigate the presence of CDS. The proposed testing procedure has standard asymptotics and good small-sample properties. We further link the concept of CDS to that of superexogeneity. It is shown that CDS tests can be constructed which allow to test for super-exogeneity. The Monte Carlo evidence indicates that the CDS test for super-exogeneity dominates testing procedures proposed in the literature.
Resumo:
This paper analyzes the determinants of expectational coordination on the perfect foresight equilibrium of an open economy in the class of one-dimensional models where the price is determined by price expectations. In this class of models, we relate autarky expectational stability conditions to regional integration ones, providing an intuitive open economy interpretation ofthe elasticities condition obtained by Guesnerie [11]. There, we show that the degree of structural heterogeneity trades-off the existence of standard efficiency gains -due to the increase in competition (spatial price stabilization)- and coordination upon the welfare enhancing free-trade equilibrium (stabilizing price expectations). This trade-off provides a new rationale for an exogenous price intervention at the international levei. Through the coordinational concern of the authority, trading countries are ab]e to fully reap the bene:fits from trade. We illustrate this point showing that classical measures evaluating ex-ante the desirability of economic integration (net welfare gains) do not always advise integration between two expectationally stable economies.
Resumo:
Modelos de tomada de decisão necessitam refletir os aspectos da psi- cologia humana. Com este objetivo, este trabalho é baseado na Sparse Distributed Memory (SDM), um modelo psicologicamente e neuro- cientificamente plausível da memória humana, publicado por Pentti Kanerva, em 1988. O modelo de Kanerva possui um ponto crítico: um item de memória aquém deste ponto é rapidamente encontrado, e items além do ponto crítico não o são. Kanerva calculou este ponto para um caso especial com um seleto conjunto de parâmetros (fixos). Neste trabalho estendemos o conhecimento deste ponto crítico, através de simulações computacionais, e analisamos o comportamento desta “Critical Distance” sob diferentes cenários: em diferentes dimensões; em diferentes números de items armazenados na memória; e em diferentes números de armazenamento do item. Também é derivada uma função que, quando minimizada, determina o valor da “Critical Distance” de acordo com o estado da memória. Um objetivo secundário do trabalho é apresentar a SDM de forma simples e intuitiva para que pesquisadores de outras áreas possam imaginar como ela pode ajudá-los a entender e a resolver seus problemas.
Resumo:
The Rest will be able to catch up and grow faster than the West only if it goes against a “received truth”, namely that capital-rich countries should transfer their capital to capital-poor countries. This intuitive truth is the mantra that the West cites to justify its occupation of the markets of developing countries with its finance and its multinationals. Classical Developmentalism successfully criticized the unequal exchange involved in trade liberalization, but it didn’t succeed in criticizing foreign finance. This task has been recently achieved by New Developmentalism and its developmental macroeconomics, which shows that countries will invest and grow more if they don’t run current account deficits, even when these deficits are financed by foreign direct investment
Resumo:
A control system was designed to allow humans to manually drive an, usually automatic, two wheeled hovercraft. The size, the mass and the way of driving this vehicle proves to be an issue for the everyday, untrained person to achieve. During this thesis several control layouts were designed with the objective of creating an intuitive and easy way of driving such a vehicle. At the end two where usertested using a simulation (also developed during this thesis) of the said hovercraft set against obstacles similar to those expected to be encountered on its real environment. The two layouts are just slightly apart in performance but numerous issues were found that can be used to redesign a better control layout. This means that no definitive winner was found but a foundation for a better design was indeed found.
Resumo:
Existing wearable computing research and indeed commercial products, have explored how to control phones and music players in pockets. They have typically relied on interaction via simple flexible button sensors. This thesis proposes, design and develops new ways of interacting which explore the potential of clothes, such as pulling or stretching. Its aim to present and demonstrate the value of embodied and intuitive inputs based on standard clothing elements such as zips, fasteners, beads, Velcro and magnets. Individual interactions for each are described and discussed before a final combination application, the MusicHoodie, which is developed to control an MP3 player. A simple usability test on this system reveals a range of interesting and promising results about which were the most acceptable and understandable inputs. This thesis closes with a discussion of the implications and contributions of the work it presents.
Resumo:
As the world evolves, organizations are becoming more and more complex, and the need to understand that complexity is increasing as well. With this demand, arises organizational engineering, which is a subject that emerged with the purpose to make organizations easier to understand, by putting in practice the concept of organizational self-awareness, which means that that the collaborators who are part of an organization, need to understand it and know what their role in it is. The DEMO methodology (Design Engineering Methodology for Organizations), came up with the purpose of representing these organizations’ self-awareness, through the definition and creation of consistent and coherent diagrams. Semantic wikis have features that can help in enterprise modelling. UEAOM (Universal Enterprise Adaptive Organization Model) is a model that allows the specification and dynamic evolution of languages, meta-models, models, and their representations as diagrams and tables. In this project, it was implemented a system based on UEAOM, and Semantic Media Wiki which allows a graphical creation and edition of diagrams. UEAOM can be divided into the meta-modeling level where a language is defined, and the modelling level where instances of classes of that language are created. The system we developed focuses on the modeling level, but will takes as a basis the project that focuses on meta-modeling. The DEMO language was used as an example for the implementation and tests of a graphical editor, based in web technologies and SVG, integrated with SemanticMediaWiki to allow an intuitive, coherent and consistent navigation and editing of organization diagrams.