14 resultados para Robust Probabilistic Model, Dyslexic Users, Rewriting, Question-Answering
em Repositório digital da Fundação Getúlio Vargas - FGV
Resumo:
O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
Resumo:
O presente trabalho tem por objetivo subsidiar o investidor de Fundos de Investimento Imobiliário na escolha de uma carteira de aplicação de FIIs, visando obter performance igual ou superior ao índice de referência do setor (IFIX). Tal subsídio é constituído, inicialmente, por uma metodologia que considera que o conceito de Carteira Eficiente (Risco/Retorno) preconizada por Markowitz pode trabalhar em conjunto com a dimensão do conceito das Finanças Comportamentais, liderada por Daniel Kahneman, constituindo as bases de orientação do investidor. Acrescentamos o caminho metodológico com as indicações, sugeridas por Bazerman e Moore, no processo de tomada de decisão, que reduza os efeitos de heurísticas e vieses.
Resumo:
A forte alta dos imóveis no Brasil nos últimos anos iniciou um debate sobre a possível existência de uma bolha especulativa. Dada a recente crise do crédito nos Estados Unidos, é factível questionar se a situação atual no Brasil pode ser comparada à crise americana. Considerando argumentos quantitativos e fundamentais, examina-se o contexto imobiliário brasileiro e questiona-se a sustentabilidade em um futuro próximo. Primeiramente, analisou-se a taxa de aluguel e o nível de acesso aos imóveis e também utilizou-se um modelo do custo real para ver se o mercado está em equilíbrio o não. Depois examinou-se alguns fatores fundamentais que afetam o preço dos imóveis – oferta e demanda, crédito e regulação, fatores culturais – para encontrar evidências que justificam o aumento dos preços dos imóveis. A partir dessas observações tentou-se chegar a uma conclusão sobre a evolução dos preços no mercado imobiliário brasileiro. Enquanto os dados sugerem que os preços dos imóveis estão supervalorizados em comparação ao preço dos aluguéis, há evidências de uma legítima demanda por novos imóveis na emergente classe média brasileira. Um risco maior pode estar no mercado de crédito, altamente alavancado em relação ao consumidor brasileiro. No entanto, não se encontrou evidências que sugerem mais do que uma temporária estabilização ou correção no preço dos imóveis.
Resumo:
Este trabalho procura dar uma resposta à seguinte pergunta de pesquisa: quais variáveis influenciam o comportamento colecionar a partir da perspectiva do consumidor? Para tanto, faz uso de métodos complementares: uso de análise de conteúdo e de modelagem de equações estruturais. As seguintes variáveis foram identificadas: ideal temático, envolvimento, desejo, prazer, permanência, ocupação do espaço e exposição, conhecimento e autoridade. O construto ideal temático foi desenvolvido e escalas para medi-lo e às variáveis permanência, ocupação do espaço e exposição, conhecimento, autoridade e colecionar também foram desenvolvidas. Os resultados sugerem que o modelo estrutural de colecionar aqui desenvolvido é consistente, confiável e válido pelos diversos critérios de análise empregados (índices de adequação do modelo; verificação das hipóteses do modelo; coeficientes de determinação; efeitos diretos, indiretos e totais dos caminhos do modelo e análise de modelos alternativos) e que, portanto, representa uma construção cabível do fenômeno colecionar na área de comportamento do consumidor e que o colecionar é uma forma de estender o eu do colecionador, de uma forma diferenciada, especial. Neste estudo esse fato foi ligado à influência do ideal temático no colecionar.
Resumo:
This thesis develops and evaluates a business model for connected full electric vehicles (FEV) for the European market. Despite a promoting political environment, various barriers have thus far prevented the FEV from becoming a mass-market vehicle. Besides cost, the most noteworthy of these barriers is represented by range anxiety, a product of FEVs’ limited range, lacking availability of charging infrastructure, and long recharging times. Connected FEVs, which maintain a constant connection to the surrounding infrastructure, appear to be a promising element to overcome drivers’ range anxiety. Yet their successful application requires a well functioning FEV ecosystem which can only be created through the collaboration of various stakeholders such as original equipment manufacturers (OEM), first tier suppliers (FTS), charging infrastructure and service providers (CISP), utilities, communication enablers, and governments. This thesis explores and evaluates how a business model, jointly created by these stakeholders, could look like, i.e. how stakeholders could collaborate in the design of products, services, infrastructure, and advanced mobility management, to meet drivers with a sensible value proposition that is at least equivalent to that of internal combustion engine (ICE) cars. It suggests that this value proposition will be an end-2-end package provided by CISPs or OEMs that comprises mobility packages (incl. pay per mile plans, battery leasing, charging and battery swapping (BS) infrastructure) and FEVs equipped with an on-board unit (OBU) combined with additional services targeted at range anxiety reduction. From a theoretical point of view the thesis answers the question which business model framework is suitable for the development of a holistic, i.e. all stakeholder-comprising business model for connected FEVs and defines such a business model. In doing so the thesis provides the first comprehensive business model related research findings on connected FEVs, as prior works focused on the much less complex scenario featuring only “offline” FEVs.
Resumo:
A crescente utilização de recursos de informática e comunicação nas empresas, visando modernização, agilidade, redução de custos e outros, tem trazido diversos benefícios, mas tem também se tornado um enorme problema para o planeta. A quantidade de lixo eletrônico (e-waste) gerada pelos equipamentos de informática e comunicação tem dobrado a cada cinco anos, se tornando um dos principais focos de atenção nos últimos anos. O volume de lixo eletrônico gerado pelo descarte de equipamentos de informática e comunicação (TIC), já ultrapassa a marca de 50 milhões de toneladas por ano, o que equivale a oito vezes a produção total de resíduos da cidade de São Paulo. O mercado brasileiro total de eletrônicos é considerado o quinto do mundo, depois da China, Estados Unidos, Japão e Rússia. A produção total de lixo eletrônico no Brasil em 2011 foi de um milhão de toneladas e a parte referente a equipamentos de TIC foi estimada em 98 mil toneladas. Frente a este contexto este estudo visa contribuir para a expansão do conhecimento na gestão verde da cadeia de suprimentos (GSCM) aplicado à realidade empresarial brasileira de TIC. Especificamente pretende-se identificar quais fatores influenciam o processo de adoção e aplicação da gestão verde de TIC, em grandes empresas usuárias de TIC no Brasil, a partir dos modelos propostos por Molla (2008) e Molla e Coopers (2008). Desta forma buscou-se responder ao seguinte problema de pesquisa: quais fatores influenciam grandes empresas usuárias de tecnologia da informação e comunicação (TIC) no Brasil na adoção de conceitos de gestão de verde? Para isto, foi realizado estudo de caso em seis grandes empresas, todas lideres em seus setores, representando grandes áreas de serviços e manufatura. Como resultado final, foi proposto um novo modelo analítico, que pareceu mais adequado ao setor de serviços. O estudo também identificou que na gestão verde de TIC empresas manufatureiras tem prioridades diferentes das de serviço. Muitas vezes seus desafios operacionais são mais críticos em relação à sustentabilidade, que a gestão verde de TIC em si. Por outro lado, o estudo dos serviços prestados pelo setor público apesar dos grandes orçamentos anuais, apontou restrições quanto aos aspectos legais e deficiência de qualificação e capacitação de seus colaboradores como fatores limitantes para a implantação de programas de gestão verde mais abrangentes.
Resumo:
We study semiparametric two-step estimators which have the same structure as parametric doubly robust estimators in their second step. The key difference is that we do not impose any parametric restriction on the nuisance functions that are estimated in a first stage, but retain a fully nonparametric model instead. We call these estimators semiparametric doubly robust estimators (SDREs), and show that they possess superior theoretical and practical properties compared to generic semiparametric two-step estimators. In particular, our estimators have substantially smaller first-order bias, allow for a wider range of nonparametric first-stage estimates, rate-optimal choices of smoothing parameters and data-driven estimates thereof, and their stochastic behavior can be well-approximated by classical first-order asymptotics. SDREs exist for a wide range of parameters of interest, particularly in semiparametric missing data and causal inference models. We illustrate our method with a simulation exercise.
Resumo:
This paper discusses distribution and the historical phases of capitalism. It assumes that technical progress and growth are taking place, and, given that, its question is on the functional distribution of income between labor and capital, having as reference classical theory of distribution and Marx’s falling tendency of the rate of profit. Based on the historical experience, it, first, inverts the model, making the rate of profit as the constant variable in the long run and the wage rate, as the residuum; second, it distinguishes three types of technical progress (capital-saving, neutral and capital-using) and applies it to the history of capitalism, having the UK and France as reference. Given these three types of technical progress, it distinguishes four phases of capitalist growth, where only the second is consistent with Marx prediction. The last phase, after World War II, should be, in principle, capital-saving, consistent with growth of wages above productivity. Instead, since the 1970s wages were kept stagnant in rich countries because of, first, the fact that the Information and Communication Technology Revolution proved to be highly capital using, opening room for a new wage of substitution of capital for labor; second, the new competition coming from developing countries; third, the emergence of the technobureaucratic or professional class; and, fourth, the new power of the neoliberal class coalition associating rentier capitalists and financiers
Resumo:
Cognition is a core subject to understand how humans think and behave. In that sense, it is clear that Cognition is a great ally to Management, as the later deals with people and is very interested in how they behave, think, and make decisions. However, even though Cognition shows great promise as a field, there are still many topics to be explored and learned in this fairly new area. Kemp & Tenembaum (2008) tried to a model graph-structure problem in which, given a dataset, the best underlying structure and form would emerge from said dataset by using bayesian probabilistic inferences. This work is very interesting because it addresses a key cognition problem: learning. According to the authors, analogous insights and discoveries, understanding the relationships of elements and how they are organized, play a very important part in cognitive development. That is, this are very basic phenomena that allow learning. Human beings minds do not function as computer that uses bayesian probabilistic inferences. People seem to think differently. Thus, we present a cognitively inspired method, KittyCat, based on FARG computer models (like Copycat and Numbo), to solve the proposed problem of discovery the underlying structural-form of a dataset.
Resumo:
Atypical points in the data may result in meaningless e±cient frontiers. This follows since portfolios constructed using classical estimates may re°ect neither the usual nor the unusual days patterns. On the other hand, portfolios constructed using robust approaches are able to capture just the dynamics of the usual days, which constitute the majority of the business days. In this paper we propose an statistical model and a robust estimation procedure to obtain an e±cient frontier which would take into account the behavior of both the usual and most of the atypical days. We show, using real data and simulations, that portfolios constructed in this way require less frequent rebalancing, and may yield higher expected returns for any risk level.
Resumo:
A longstanding unresolved question is whether the one-period Kyle Model of an informed trader and a noisily informed market maker has an equilibrium that is different from the closed-form solution derived by Kyle (1985). This note advances what is known about this open problem.
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.
Resumo:
Differences-in-Differences (DID) is one of the most widely used identification strategies in applied economics. However, how to draw inferences in DID models when there are few treated groups remains an open question. We show that the usual inference methods used in DID models might not perform well when there are few treated groups and errors are heteroskedastic. In particular, we show that when there is variation in the number of observations per group, inference methods designed to work when there are few treated groups tend to (under-) over-reject the null hypothesis when the treated groups are (large) small relative to the control groups. This happens because larger groups tend to have lower variance, generating heteroskedasticity in the group x time aggregate DID model. We provide evidence from Monte Carlo simulations and from placebo DID regressions with the American Community Survey (ACS) and the Current Population Survey (CPS) datasets to show that this problem is relevant even in datasets with large numbers of observations per group. We then derive an alternative inference method that provides accurate hypothesis testing in situations where there are few treated groups (or even just one) and many control groups in the presence of heteroskedasticity. Our method assumes that we can model the heteroskedasticity of a linear combination of the errors. We show that this assumption can be satisfied without imposing strong assumptions on the errors in common DID applications. With many pre-treatment periods, we show that this assumption can be relaxed. Instead, we provide an alternative inference method that relies on strict stationarity and ergodicity of the time series. Finally, we consider two recent alternatives to DID when there are many pre-treatment periods. We extend our inference methods to linear factor models when there are few treated groups. We also derive conditions under which a permutation test for the synthetic control estimator proposed by Abadie et al. (2010) is robust to heteroskedasticity and propose a modification on the test statistic that provided a better heteroskedasticity correction in our simulations.
Resumo:
We consider multistage stochastic linear optimization problems combining joint dynamic probabilistic constraints with hard constraints. We develop a method for projecting decision rules onto hard constraints of wait-and-see type. We establish the relation between the original (in nite dimensional) problem and approximating problems working with projections from di erent subclasses of decision policies. Considering the subclass of linear decision rules and a generalized linear model for the underlying stochastic process with noises that are Gaussian or truncated Gaussian, we show that the value and gradient of the objective and constraint functions of the approximating problems can be computed analytically.