52 resultados para expectation
Resumo:
Trata-se de uma pesquisa de natureza marcadamente descritiva, com etapas exploratórias, que visa a descrever as percepções e reflexões desveladas pelos sujeitos da pesquisa nas análises temáticas realizadas sobre diversas questões que envolvem o tema da autonomia da Perícia Criminal Oficial, no âmbito da Polícia Federal. Para esse fim, utilizou-se da metodologia da análise de conteúdo, segundo Bardin (1977). Os sujeitos da pesquisa foram escolhidos segundo o critério de acessibilidade e da natureza dos cargos, quais sejam: Delegado da Polícia Federal, Juiz Federal, Perito Criminal Federal e Procurador da República. Face à predominância do cunho qualitativo neste estudo, não há expectativas de generalizações dos resultados obtidos no campo, assim como a seleção desses sujeitos não priorizou pela representatividade quantitativa de cada cargo. O referencial teórico foi construído com o propósito de contextualizar e favorecer a compreensão do leitor sobre como é constituída a realidade em que se insere o objeto de estudo, buscando descrever os termos e conceitos necessários a essa compreensão, tais como: (i) o que é o Sistema de Justiça Criminal e como se deu seu processo de formação no Estado moderno; (ii) como é a estrutura e o fluxo processual básico do modelo brasileiro, com destaque para a posição que ocupam os órgãos ou Instituto de Criminalística; (iii) qual o nível de efetividade desse sistema, no Brasil, e quais os principais problemas que afetam a funcionalidade da Perícia Oficial em sua estrutura; (iv) quais os reflexos do uso dos paradigmas repressivo e preventivo, pelo Estado, no controle da violência, da criminalidade e da impunidade dos criminosos, visando a garantir a manutenção da ordem pública como bem coletivo; (v) que relevância tem o papel da Perícia Oficial para a efetividade do Sistema de Justiça Criminal, segundo o paradigma preventivo; (vi) o que é Criminalística e qual a natureza de sua atividade; e (vii) como se apresenta a atual estrutura administrativa e a rede de clientes da Perícia Oficial. Ao se aproximar do objeto de estudo, o pesquisador buscou descrever como se deu a origem do processo de autonomia da Criminalística, no Brasil, e como esse processo vem sendo desenhado como uma política de segurança pública, destacando as principais medidas administrativas e normativas adotadas no país que favoreceram a sua consolidação, tais como: a aprovação do PNSP (2002), do PNDH I (1996), do PNDH II (2002) e do PNDH III (2009), além da promulgação da Lei nº 12.030/2009, que assegura, de forma específica, a autonomia técnico-científica e funcional da função pericial criminal. Tratamento especial foi dado ao significado e ao alcance que têm as dimensões conceituais do termo “autonomia” para a função pericial. Em que pesem os resultados obtidos, as conclusões revelam que a complexidade do tema, teoria e prática, aguarda continuidade em pesquisas futuras.
Resumo:
Apresento aqui uma abordagem que unifica a literatura sobre os vários modelos de apreçamento de derivativos que consiste em obter por argumentos intuitivos de não arbitragem uma Equação Diferencial Parcial(EDP) e através do método de Feynman-Kac uma solução que é representada por uma esperança condicional de um processo markoviano do preço do derivativo descontado pela taxa livre de risco. Por este resultado, temos que a esperança deve ser tomada com relação a processos que crescem à taxa livre de risco e por este motivo dizemos que a esperança é tomada em um mundo neutro ao risco(ou medida neutra ao risco). Apresento ainda como realizar uma mudança de medida pertinente que conecta o mundo real ao mundo neutro ao risco e que o elemento chave para essa mudança de medida é o preço de mercado dos fatores de risco. No caso de mercado completo o preço de mercado do fator de risco é único e no caso de mercados incompletos existe uma variedade de preços aceitáveis para os fatores de risco pelo argumento de não arbitragem. Neste último caso, os preços de mercado são geralmente escolhidos de forma a calibrar o modelo com os dados de mercado.
Resumo:
O trabalho está inserido na grande área do direito societário, especificamente sob a temática dos conflitos de interesses nas deliberações de S.A.´s listadas em Bolsa de Valores. O objetivo assumido foi o de percorrer criticamente as propostas teóricas empregadas na interpretação do problema jurídico resultante destes conflitos, para depois realizar um estudo empírico sobre uma modalidade negocial potencialmente conflitiva, as transações entre partes relacionadas. Após o estudo da lógica norteadora das propostas doutrinárias, sustenta-se a hipótese de que as explicações da literatura jurídica brasileira variam na razão do conceito aberto de “interesse da companhia”, articulado de acordo com a posição da parte representada pelo advogado. Arbitrariamente concebidas como formais ou substancias, tais interpretações cuidam do momento de violação do interesse da companhia, respectivamente, visando proibir ou garantir o exercício de voto do interessado por meio de entendimentos convenientes ao tempo do litígio. Diante deste comprometimento do raciocínio abstrato com a prática da advocacia, sugere-se a abordagem do tema por outra proposta teórica, vinculada a uma noção específica do Direito. Compreendido como um provedor de informações relevantes aos interessados nas operações das empresas, ele atua na regulação dos dados exigidos destas sociedades e na confecção das informações produzidas individualmente por elas. Tal transparência, junto das regras que vinculam o mercado, forma o conteúdo conceitual da expressão governança corporativa, desenvolvido em torno da proposta chamada de “sistema de governança corporativa”. A interpretação das informações dos diversos possíveis sistemas deve oferecer ao tomador de decisão a chance de conhecer os seus poderes, prerrogativas, incentivos, competências, limitações e proibições, de modo a avaliar se a sua escolha é uma boa prática de governo da empresa, segundo o sistema no qual ela opera. Aos terceiros interessados, deve servir para verificar se o processo decisório segue o esperado pelo ambiente negocial que o sistema de governança delineia. No tema do conflito de interesses, a sugestão de pensar o problema por esta noção do Direito visa respaldar a criação e divulgação de regras próprias pelas empresas listadas, as quais alimentem o aludido sistema de governança e sirvam à tomada de decisões que orientem o alinhamento dos objetivos dissonantes envolvidos na companhia, sem que haja a necessidade de recorrer ao arbitramento externo. O trabalho empírico se debruça então nos estudos destas regras particulares aplicáveis às transações entre partes relacionadas, tais mecanismos são colhidos nos formulários de referência das 100 companhias mais líquidas da BM&FBovespa no ano de 2011. Os resultados mostram que apenas 6% das empresas possuem procedimentos para identificar as relações conflituosas decorrentes da modalidade negocial estudada e 29% para tratar o problema. Os números relativos às sociedades que estabelecem regras para a administração dos conflitos de interesses nas deliberações de assembleia geral e conselho de administração também são baixos, respectivamente, 7% e 13% apresentam mecanismos de identificação, 4% e 11% para o seu tratamento. A baixa frequência mostrada pelos resultados à luz da proposta teórica construída identifica uma oportunidade, qual seja, a de pensar a mitigação do problema por esta via particular e extrajudicial.
Resumo:
This paper proposes a two-step procedure to back out the conditional alpha of a given stock using high-frequency data. We rst estimate the realized factor loadings of the stocks, and then retrieve their conditional alphas by estimating the conditional expectation of their risk-adjusted returns. We start with the underlying continuous-time stochastic process that governs the dynamics of every stock price and then derive the conditions under which we may consistently estimate the daily factor loadings and the resulting conditional alphas. We also contribute empiri-cally to the conditional CAPM literature by examining the main drivers of the conditional alphas of the S&P 100 index constituents from January 2001 to December 2008. In addition, to con rm whether these conditional alphas indeed relate to pricing errors, we assess the performance of both cross-sectional and time-series momentum strategies based on the conditional alpha estimates. The ndings are very promising in that these strategies not only seem to perform pretty well both in absolute and relative terms, but also exhibit virtually no systematic exposure to the usual risk factors (namely, market, size, value and momentum portfolios).
Resumo:
As empresas no mercado atual estão em um ambiente de agressiva concorrência, e sua sobrevivência depende de fatores como a produtividade, inovação e atingimento de resultados, contudo, sem haver o comprometimento da qualidade. Os departamentos de Tecnologia da Informação possuem grande influência na operação e nos resultados da empresa, pois a importância da tecnologia, tanto no suporte, quanto na própria atividade fim das companhias, é vital. Diante deste contexto, este trabalho analisou as melhores práticas de mercado na gestão de tecnologia da informação como o framework Cobit (Control Objectives for Information Technology) analisada em conjunto com as ferramentas consagradas de mensuração de percepção de qualidade de serviços, de forma a identificar os fatores críticos de sucesso para qualidades de serviços em TI. Utilizou-se a metodologia SERVQUAL em um caso específico de uma empresa de comunicação e assessoria de imprensa, através de um questionário dividido em duas partes e vinte e duas perguntas cada, permitindo identificar as lacunas entre a expectativa e a percepção dos serviços fornecidos em cada uma das cinco dimensões da qualidade de serviço: tangibilidade, confiabilidade, responsabilidade, segurança e empatia. Foram identificados como fatores críticos as dimensões de confiabilidade e de empatia, e para cada uma delas, relacionou-se um conjunto de objetivos de controle do Cobit que permitem a atuação na melhoria das avaliações destes elementos.
Resumo:
Nos próximos anos são esperados elevados volumes de investimentos em Tecnologia da Informação (TI) no Brasil e no Mundo. Por trás desses investimentos está a expectativa de que as organizações irão alcançar níveis superiores de performance e produtividade, os quais deverão ser gerados, entre outras coisas, por novas formas de organização e práticas inovadoras de negócio viabilizadas pela TI. Nesse contexto, a capacidade de gerir as possíveis resistências que serão trazidas por essas mudanças organizacionais se mostra um dos fatores mais importantes para o sucesso desses investimentos. Diante disso, o objetivo deste trabalho é analisar alguns dos diversos modelos existentes sobre resistência a mudança em implantações de Sistemas de Informação e, a partir da articulação de três deles, propor um metamodelo teórico que poderá ter um maior poder de explicação desse fenômeno.
Resumo:
Terceirização de Serviços de Tecnologia da Informação (TI) é uma prática crescente entre organizações de diversos portes e setores, onde uma relação entre contratante e contratado usualmente regida por contratos. Contratos são dispositivos destinados a regular obrigações e direitos entre as partes. Em função da impossibilidade das partes preverem todas as contingências futuras e também devido à imprecisão da linguagem escrita, contratos são usualmente reconhecidos em Economia como sendo fundamentalmente incompletos. Disso se origina a possibilidade de classificar contratos como predominantemente formais, aqueles cuja estrutura escrita apresenta mecanismos de completude suficiente para conduzir o relacionamento entre as partes, e predominantemente relacionais, aqueles cuja estrutura formal é insuficiente para coordenar o relacionamento, e que demandam mecanismos adicionais de comunicação e interação para que o relacionamento entre as partes ocorra de adequadamente em torno do objeto contratado. Dentre os mecanismos usados em contratos formais para sinalizar às partes os comportamentos desejados, inclui-se a estrutura de incentivos. Pouco se estudou sobre o efeito que a combinação de estruturas de incentivos e mecanismos relacionais tem sobre o andamento dos contratos. Este estudo analisa os efeitos de mecanismos formais de estruturas de incentivos e os mecanismos relacionais sobre o andamento do contrato, usando como contexto o cenário de contratações de serviços de terceirização de Tecnologia da Informação (TI). Como resultados dos três capítulos principais deste estudo, configurados no formato de artigos acadêmicos, são apresentados altos poderes explicativos das interações entre estruturas de incentivos, governança relacional, comportamento do contratado e expectativa de sucesso dos contratos. Da mesma forma, antecedentes e resultantes são analisados e discutidos. Do ponto de vista da contribuição para a prática gerencial, o trabalho como um todo contribui para melhorar decisões de contratação de serviços de TI, formulação de contratos mais efetivos, e apoio na escolha dos mecanismos de contratação mais adequados ao contexto do contratante.
Resumo:
In the first essay, "Determinants of Credit Expansion in Brazil", analyzes the determinants of credit using an extensive bank level panel dataset. Brazilian economy has experienced a major boost in leverage in the first decade of 2000 as a result of a set factors ranging from macroeconomic stability to the abundant liquidity in international financial markets before 2008 and a set of deliberate decisions taken by President Lula's to expand credit, boost consumption and gain political support from the lower social strata. As relevant conclusions to our investigation we verify that: credit expansion relied on the reduction of the monetary policy rate, international financial markets are an important source of funds, payroll-guaranteed credit and investment grade status affected positively credit supply. We were not able to confirm the importance of financial inclusion efforts. The importance of financial sector sanity indicators of credit conditions cannot be underestimated. These results raise questions over the sustainability of this expansion process and financial stability in the future. The second essay, “Public Credit, Monetary Policy and Financial Stability”, discusses the role of public credit. The supply of public credit in Brazil has successfully served to relaunch the economy after the Lehman-Brothers demise. It was later transformed into a driver for economic growth as well as a regulation device to force private banks to reduce interest rates. We argue that the use of public funds to finance economic growth has three important drawbacks: it generates inflation, induces higher loan rates and may induce financial instability. An additional effect is the prevention of market credit solutions. This study contributes to the understanding of the costs and benefits of credit as a fiscal policy tool. The third essay, “Bayesian Forecasting of Interest Rates: Do Priors Matter?”, discusses the choice of priors when forecasting short-term interest rates. Central Banks that commit to an Inflation Target monetary regime are bound to respond to inflation expectation spikes and product hiatus widening in a clear and transparent way by abiding to a Taylor rule. There are various reports of central banks being more responsive to inflationary than to deflationary shocks rendering the monetary policy response to be indeed non-linear. Besides that there is no guarantee that coefficients remain stable during time. Central Banks may switch to a dual target regime to consider deviations from inflation and the output gap. The estimation of a Taylor rule may therefore have to consider a non-linear model with time varying parameters. This paper uses Bayesian forecasting methods to predict short-term interest rates. We take two different approaches: from a theoretic perspective we focus on an augmented version of the Taylor rule and include the Real Exchange Rate, the Credit-to-GDP and the Net Public Debt-to-GDP ratios. We also take an ”atheoretic” approach based on the Expectations Theory of the Term Structure to model short-term interest. The selection of priors is particularly relevant for predictive accuracy yet, ideally, forecasting models should require as little a priori expert insight as possible. We present recent developments in prior selection, in particular we propose the use of hierarchical hyper-g priors for better forecasting in a framework that can be easily extended to other key macroeconomic indicators.
Resumo:
O objetivo deste trabalho é entender, pela ótica da educação, a divergência da renda per capita e a convergência dos anos de escolaridade entre os países da África Subsaariana e os países europeus entre 1960 e 2010. Para tanto, o presente trabalho utiliza um ferramental de equilíbrio geral, no qual existem dois setores na economia e consumidores homogêneos que escolhem consumo, educação formal e educação infantil. De acordo com os resultados do trabalho, apesar da educação infantil para os países subsaarianos ter evoluído entre 1960 e 2010 os países subsaarianos em 2010 não alcançaram a educação infantil que os europeus tinham em 1960. Além disso, a produtividade total dos fatores e a expectativa de vida foram fatores importantes para compreender esse aumento da distância da renda per capita entre os países subsaarianos e os europeus. Por fim, o principal resultado em termos de política educacional é que políticas de incentivo à educação infantil são mais eficazes em impactar a renda per capita do que políticas de incentivo à educação formal.
Resumo:
The impact of digitization was felt before it could be described and explained. The Mapping Digital Media project is a way of catching up, an ambitious attempt at depicting and understanding the progress and effects of digitization on media and communications systems across the world. The publication of over 50 country reports provides the most comprehensive picture to date on the changes undergone by journalism, news production, and the media as a result of the transition of broadcasting from analog to digital and the advent of the internet. These extensive reports, all sharing the same structure, cover issues such as media consumption, public media, changes in journalism, digital activism, new regulation, and business models. Reports have been published from nine Latin American countries: Mexico, Argentina, Colombia, Peru, Chile, Brazil, Guatemala, Nicaragua, and Uruguay. Given the recent evolution of Brazil’s media landscape and regulation, and its position as a regional reference, few reports have generated as much expectation as the Brazilian one. This excellent text is key to understanding digitization in Brazil, in Latin America, and in the world at large.
Resumo:
Recruiters make many inferences about applicants' abilities and interpersonal attributes on the basis of applicants' resumes. For example, every once in a while, a good resume leaves a strong positive impression and the recruiter creates a high expectation for the selection interview. What if a disappointing interview follows? Will the great resume help or hurt the candidate? The purpose of this study is to assess the impact of a good resume on the recruiter’s evaluation of a candidate when a non-enthusiastic interview follows as well as the interacting role of gender. The results of two online experiments (n=454) where participants played the role of the recruiter, showed that, on average, a very good resume (vs. no resume) before a non-enthusiastic interview did not affect the recruiter’s evaluation of the candidate. However, when the recruiter’s and the candidate’s gender were taken into consideration, a different picture emerged. While no effect was found for male recruiters, the candidate’s resume had a clear significant impact on female recruiter’s evaluations: when the candidate was also a female, the good resume shown before the non-enthusiastic interview performance tended to help, whereas when the candidate was a male, the good resume had a significant negative effect on female recruiters’ evaluation of the candidate. In sum, in situations where the resume had a strong impact on the recruiter’s evaluation (female recruiters), the direction of the effect was moderated by the candidate’s gender. Gender differences in information processing as well as in-group/out-group biases due to gender matching are used to hypothesize and explain the main findings.
Resumo:
Até recentemente, pesquisas sobre a relação do usuário com o uso de tecnologia focaram sistemas utilitários. Com a popularização dos PCs para uso doméstico e o surgimento da Internet, a interação dos usuários com tecnologia deixou de ser vista apenas de forma utilitária, e passou a ser orientada também ao atendimento de necessidades hedônicas, fazendo com que as pesquisas em Tecnologia e Sistemas de Informação (SI) extrapolassem os limites da empresa. As pesquisas no campo tem dado atenção cada vez maior ao uso de sistemas hedônicos, cujo objetivo é satisfazer necessidades como entretenimento e diversão, ao invés de um valor instrumental. Entre os sistemas hedônicos, um em particular recebe cada vez mais destaque, os videogames. Jogos digitais estão presentes por toda a sociedade, existindo uma crescente adoção, institucionalização e ubiquidade dos videogames na vida diária. A nova geração foi criada com jogos interativos e espera o mesmo tipo de interação nos demais SI. Por serem divertidos e envolventes, organizações de diversos setores estão tentando integrar características dos jogos digitais em sistemas organizacionais, com a expectativa de melhorar a motivação e desempenho dos funcionários e engajar consumidores online. Para analisar a relação do usuário com jogos digitais foram desenvolvidas três pesquisas. A primeira aborda os motivos pelos quais o indivíduo se engaja com o jogo, definindo Engajamento com base em desafio, imersão e curiosidade. Já as motivações dos indivíduos são analisadas pelo divertimento e a competição. A partir do momento em que o indivíduo está engajado, é necessário medir a experiência holística que ele experimenta desta interação. Para tanto, a segunda pesquisa analisa os dois construtos mais utilizados no campo para mensurar tal experiência, Flow e Absorção Cognitiva. A última pesquisa se utiliza dos conceitos explorados nas duas anteriores para desenvolver uma rede nomológica para a predição da intenção comportamental do indivíduo para o uso de jogos digitais. Como resultados temos um esclarecimento sobre os fatores que levam a um comportamento engajado dos jogadores, com maior importância do desafio de dominar o jogo e divertimento em relação a competição com outros jogadores. Outra contribuição é a conclusão que Flow e Absorção Cognitiva, dois dos principais construtos utilizados em SI para medir a experiência hedônica do usuário, não são adequados para mensurar tal experiência para videogames. Por fim existe a proposta de uma rede nomológica em um contexto de utilização de um sistema hedônico interativo, permitindo que novos trabalhos possam se beneficiar.
Resumo:
This paper presents optimal rules for monetary policy in Brazil derived from a backward looking expectation model consisting of a Keynesian IS function and an Augmented Phillips Curve (ISAS). The IS function displays'a high sensitivity of aggregate demand to the real interest rate and the Phillips Curve is accelerationist. The optimal monetary rules show low interest rate volatility with reaction coefficients lower than the ones suggested by Taylor (1993a,b). Reaction functions estimated through ADL and SUR models suggest that monetary policy has not been optimal and has aimed to product rather than inflation stabilization.
Resumo:
We develop and empirically test a continuous time equilibrium model for the pricing of oil futures. The model provides a link between no-arbitrage models and expectation oriented models. It highlights the role of inventories for the identification of different pricing regimes. In an empirical study the hedging performance of our model is compared with five other one- and two-factor pricing models. The hedging problem considered is related to Metallgesellschaft´s strategy to hedge long-term forward commitments with short-term futures. The results show that the downside risk distribution of our inventory based model stochastically dominates those of the other models.
Resumo:
The inability of rational expectation models with money supply rules to deliver inflation persistence following a transitory deviation of money growth from trend is due to the rapid adjustment of the price level to expected events. The observation of persistent inflation in macroeconomic data leads many economists to believe that prices adjust sluggishly and/or expectations must not be rational. Inflation persistence in U.S. data can be characterized by a vector autocorrelation function relating inflation and deviations of output from trend. In the vector autocorrelation function both inflation and output are highly persistent and there are significant positive dynamic cross-correlations relating inflation and output. This paper shows that a flexible-price general equilibrium business cycle model with money and a central bank using a Taylor rule can account for these patterns. There are no sticky prices and no liquidity effects. Agents decisions in a period are taken only after all shocks are observed. The monetary policy rule transforms output persistence into inflation persistence and creates positive cross-correlations between inflation and output.