530 resultados para Granger causalidade
Resumo:
Primeiramente, o trabalho descreve sinteticamente a tradição common law, inserindo o o duty to mitigate the loss em contexto próprio. Então, traça as linhas gerais que, naquele cenário, conformam o instituto. Atenção é dada aos fundamentos do duty to mitigate the loss e às funções por ele desempenhadas, inclusive nos casos subordinados à United Nations Convention on Contracts for the International Sale of Goods (CISG). No contexto próprio, o duty to mitigate the loss tem por fundamento primeiro a causation e funciona como um limitador do quantum indenizatório; não trata de um “dever”; cabe ao demandante; tem na razoabilidade das medidas mitigadoras e no reembolso das despesas incorridas características essenciais. Em segundo lugar, a dissertação investiga o duty to mitigate the loss no Brasil, a partir da doutrina selecionada e de decisões do Superior Tribunal de Justiça e de diversos tribunais estaduais. As pesquisas demonstram que o duty to mitigate the loss, sob o nome de mitigation doctrine, ingressou no Brasil pela doutrina, mas desta forma repercutiu pouco nos tribunais. Desprovido desta influência doutrinária anterior, o duty to mitigate the loss retornou ao Brasil por meio de enunciado do Conselho da Justiça Federal, proposto em documento cujo conteúdo é objeto de reflexões neste trabalho, notadamente na questão da íntima relação entre o duty to mitigate the loss e a boa-fé objetiva. A partir do leading case no Superior Tribunal de Justiça, que adotou o enunciado e o documento que lhe serviu de proposta, o duty to mitigate the loss expandiu rapidamente no Brasil. Em São Paulo, foi alçado à princípio e brocardo. No Superior Tribunal e Justiça, foi considerado sub-princípio da boa-fé e aplicado em questões adjetivas e substantivas criminais. Comparativamente, o duty to mitigate the loss no Brasil guarda remotas semelhanças ao instituto homônimo da common law. Este trabalho aponta as diferenças entre os intitutos e concluí com a sistematização das funções que o duty to mitigate the loss desempenha no Brasil, formulando proposta para a reedição de enunciado do Conselho da Justiça Federal.
Resumo:
This dissertation presents two papers on how to deal with simple systemic risk measures to assess portfolio risk characteristics. The first paper deals with the Granger-causation of systemic risk indicators based in correlation matrices in stock returns. Special focus is devoted to the Eigenvalue Entropy as some previous literature indicated strong re- sults, but not considering different macroeconomic scenarios; the Index Cohesion Force and the Absorption Ratio are also considered. Considering the S&P500, there is not ev- idence of Granger-causation from Eigenvalue Entropies and the Index Cohesion Force. The Absorption Ratio Granger-caused both the S&P500 and the VIX index, being the only simple measure that passed this test. The second paper develops this measure to capture the regimes underlying the American stock market. New indicators are built using filtering and random matrix theory. The returns of the S&P500 is modelled as a mixture of normal distributions. The activation of each normal distribution is governed by a Markov chain with the transition probabilities being a function of the indicators. The model shows that using a Herfindahl-Hirschman Index of the normalized eigenval- ues exhibits best fit to the returns from 1998-2013.
Resumo:
Esta tese tem como objetivo a avaliação dos primeiros impactos da política de UPPs, buscando incorporar as relações de causalidade envolvidas através de análises de diferenças-em-diferenças com diversas especificações a fim de medir os impactos sobre criminalidade, desempenho escolar,renda, desigualdade, posse de ativos e imigração.
Resumo:
Este trabalho tem como objectivo compreender de que forma os investidores veem as energias renováveis: se as veem como parte do sector tecnológico, à espera de novos desenvolvimentos, ou como uma alternativa aos métodos existentes de produção de energia. Para responder a esta questão, foi desenvolvido um modelo de vectores autoregressivos com quatro variáveis de forma a se poder aplicar um Granger causality test e Impulse Response function. Os resultados sugerem que para o período de 2002-2007 à escala global ambas as hipóteses se confirmam, porém de 2009-2014 os resultados sugerem que os investidores não reconhecem as energias renováveis como um ramo do sector tecnológico, neste período. Para além disso, durante o período de 2009-2014, e quando comparados investidores Americanos com Europeus, os resultados sugerem que apenas o último identifica as energias renováveis como uma fonte viável para a produção energética.
Resumo:
O fortalecimento da democracia passa necessariamente pelo acesso a informação. Esta vem sendo regulada por marcos legais ao longo das últimas décadas. Entretanto sabemos que a prática por vezes não corresponde à teoria. Verificar como os municípios brasileiros vêm implementando suas obrigações em face da LAI passa, além de avaliar seu cumprimento pela investigação das causas de eventuais desníveis em tal atendimento. Mais que isto, tentar identificar variáveis que impactem mais decisivamente tal implementação. A partir desta premissa, buscamos identificar tais fatores e quantificar o impacto de cada um deles no resultado de avaliação de um dos índices de transparência criados recentemente – o Escala Brasil Transparente (EBT). Cumpriu-se essa tarefa por meio das seguintes ações: (i) realização de pesquisa bibliográfica a partir da produção acadêmica; (ii) catalogação e análise dos instrumentos legais para transparência; (iii) levantamento das variáveis determinantes para a transparência; (iv) estabelecimento de relação entre tais variáveis e os índices de transparência encontrados, por meio de técnicas estatísticas, especialmente correlação e regressão. As pesquisas feitas constataram que a produção acadêmica da área de Administração Pública sobre o tema ainda é virtualmente inexistente e que as investigações da causalidade da transparência se faz necessária; que, dada a correlação encontrada entre as variáveis selecionadas e a transparência, as conclusões são por hipóteses promissoras que merecem estudos mais detalhados, com técnicas qualitativas a fim de uma determinação mais precisa de causa-efeito.
Resumo:
No contexto do desenvolvimento econômico, este trabalho tem como principal objetivo explorar a relação entre comércio internacional e produtividade. Após fazer uma ampla discussão sobre as teorias do comércio internacional e as teorias do desenvolvimento econômico, busca-se definir a relação de causalidade entre essas duas variáveis. A pergunta que se segue refere-se ao sentido da causalidade, ou seja, produtividade gera comércio ou comércio gera produtividade? Esse trabalho sugere que os dois sentidos são possíveis e a diferença encontra-se justamente no componente da produtividade que está sendo analisado. Assim, produtividade, no nível do produto (intrasetorial) gera comércio, tal como argumentam Smith (1776) e Ricardo (1817), mas comércio gera produtividade (intersetorial) tal como argumentam Hausmann, Hwang e Rodrik (2007) e McMillan e Rodrik (2011). Na sequência, o estudo faz uma ampla análise dos métodos de decomposição da produtividade, concluindo que existe mais de uma forma de se fazer essa decomposição e que a interpretação de cada uma dessas abordagens difere podendo enviesar as conclusões. Adicionalmente, é feita a decomposição da produtividade nos seus componentes utilizando duas bases de dados distintas: 10-Sector Database do GGDC e contas nacionais do IBGE, concluindo que, a depender da base, os resultados encontrados podem variar significativamente. Da mesma forma, dentro de uma abordagem estruturalista, diferenciam-se setores que possuem maior potencial de crescimento de setores tradicionais com menor potencial de crescimento. Definindo a complexidade das exportações a partir do conceito desenvolvido por Hausmann at al (2014), estimam-se para o caso brasileiro recente, através de um modelo de painel dinâmico, os coeficientes de uma equação para explicar variações no efeito intersetorial estático da produtividade. O modelo estimado sugere que a complexidade das exportações impacta significativa e positivamente o componente estrutural da produtividade. Assim, pode-se dizer que uma pauta de exportações com produtos mais sofisticados favorece o crescimento da produtividade via seu componente intersetorial.
Resumo:
Neste trabalho, o objetivo é identificar, a partir da análise de um estudo de caso, quais são as principais divergências encontradas quando se compara o que a teoria preconiza como o escopo e a abordagem dos Project Management Offices - PMOs e o que acontece na prática, no que diz respeito à real atuação destas estruturas. O tema pode ser considerado relevante devido ao fato de fornecer uma melhor compreensão sobre como as estruturas de PMO realmente atuam, principalmente no que diz respeito ao escopo, isto é, se o PMO é um Programa-Projeto, um PMO Departamental ou um PMO Corporativo e relativamente a sua amplitude, ou seja, se sua atuação é operacional, tática ou estratégica. Para este estudo foi utilizada a metodologia qualitativa, por meio da abordagem de estudo de caso. Foi selecionada uma empresa de grande porte do setor de manufatura não estruturada por projeto para avaliação. A empresa do estudo de caso possui uma estrutura organizacional complexa que possibilita um estudo abrangente. A atuação dos PMOs do estudo de caso foi discutida à luz da revisão de literatura e levando-se em conta, também, as informações colhidas a partir da observação participante. Os resultados deste trabalho permitem concluir que o pressuposto defendido, que é a existência de divergências entre o que a teoria preconiza como escopo e abordagem do PMO e a real atuação dos PMOs, foi confirmado através do estudo de caso; além disso, não existe relação de causalidade clara entre o escopo de atuação dos PMOs e sua posição hierárquica dentro da empresa; e não existe uma atuação padrão destas estruturas, quando comparadas às funções que elas exercem. Por fim, são apresentadas recomendações relativas ao estudo de caso realizado, ou seja, é importante realizar um estudo multicasos entre ao menos uma empresa não estruturada por projeto e outra estruturada por projeto e comparar a atuação dos seus PMOs para melhor compreensão do tema, incluir mais stakeholders no grupo de entrevistados dentro do estudo de caso, realizar um survey com várias empresas de vários segmentos dentro do território nacional e um possível estudo onde seja verificado se tipologias diferentes de estruturas organizacionais podem afetar a atuação práticas dos PMOs.
Resumo:
Currently the organizations are passing for continuous cycles of changes due to necessity of survival in the work market. The administration of the future points a way to the organizations of today and tomorrow, the search of the competitiveness from loyalty and motivation of its staff. Of this form, the model of the Auditoria do Sistema Humano (ASH), developed for Spanish researchers and that now it is being applied in Brazil, contemplates a series of dimensions about Human Resources management quality in the companies and the organizational effectiveness, such as the environment where the company is inserted, the strategies, the organizational drawing, the psychological and psychosocial processes, e the reached results. In this direction, the present research analyzed the factors of job satisfaction and organizational commitment, making, also, a relation of causality between the same ones. The quantitative-descriptive research had as population the employees of twenty three nourishing industries of the State of Rio Grande do Norte (Brazil), registered in the Federacy of the Industries of the state. The collection of the data occurred for the months of October of 2005 and March of 2006, by means of the application of questionnaire of model ASH. The sample was composed for 197 employees, however it was observed presence of five outliers, that they had been excluded from the analysis of the data. To extract the dimensions of the satisfaction and the commitment and identification the factorial analysis was used, with extraction method of principal components, rotation Varimax and normalization Kaiser. The gotten dimensions had been evaluated with the calculation of the coefficient Alpha of Cronbach. The factorial analysis of the pointers of the organizational commitment and identification had extracted ten factors. Of these, four had gotten significance of the analyses inside: affective commitment, values commitment, continuance commitment and necessity commitment. The result of the analysis of the pointers of job satisfaction indicated four factors: extrinsic, motivations, relation with the friends and auto-accomplishment. To deal with the data the relation between job satisfaction and organizational commitment it was used technique of multiple regression. The correlation between commitment and satisfaction was satisfactory, detaching the affective commitment with bigger index of correlation, followed of the affective one
Análise de volatilidade, integração de preços e previsibilidade para o mercado brasileiro de camarão
Resumo:
The present paper has the purpose of investigate the dynamics of the volatility structure in the shrimp prices in the Brazilian fish market. Therefore, a description of the initial aspects of the shrimp price series was made. From this information, statistics tests were made and selected univariate models to be price predictors. Then, it was verified the existence of relationship of long-term equilibrium between the Brazilian and American imported shrimp and if, confirmed the relationship, whether or not there is a causal link between these assets, considering that the two countries had presented trade relations over the years. It is presented as an exploratory research of applied nature with quantitative approach. The database was collected through direct contact with the Companhia de Entrepostos e Armazéns Gerais de São Paulo (CEAGESP) and on the official website of American import, National Marine Fisheries Service - National Oceanic and Atmospheric Administration (NMFS- NOAA). The results showed that the great variability in the active price is directly related with the gain and loss of the market agents. The price series presents a strong seasonal and biannual effect. The average structure of price of shrimp in the last 12 years was R$ 11.58 and external factors besides the production and marketing (U.S. antidumping, floods and pathologies) strongly affected the prices. Among the tested models for predicting prices of shrimp, four were selected, which through the prediction methodologies of one step forward of horizon 12, proved to be statistically more robust. It was found that there is weak evidence of long-term equilibrium between the Brazilian and American shrimp, where equivalently, was not found a causal link between them. We concluded that the dynamic pricing of commodity shrimp is strongly influenced by external productive factors and that these phenomena cause seasonal effects in the prices. There is no relationship of long-term stability between the Brazilian and American shrimp prices, but it is known that Brazil imports USA production inputs, which somehow shows some dependence productive. To the market agents, the risk of interferences of the external prices cointegrated to Brazilian is practically inexistent. Through statistical modeling is possible to minimize the risk and uncertainty embedded in the fish market, thus, the sales and marketing strategies for the Brazilian shrimp can be consolidated and widespread
Resumo:
This paper comprises an investigation on the influence of the variable family backgrounds (father school level, mother school level and family income) over the pupil s performance in admissions examination (entrance test or PROITEC) at Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte (IFRN). From that point of view, the main goal of this research is to analyze the influence of the family background as a determiner of the pupil´s performance in the access to Technical and Professional education at IFRN. Secondary data were used from two databases (entrance test and PROITEC) adding up to 19.226 observations to the vacancies offered in the year of 2013. Aiming at achieving the proposed goal, a conceptual model composed of three hypothesis was developed. The results were presented in four stages: stage I presentation of the descriptive statistical results of the two databases; stage II separation of the campi in clusters; stage III analysis of multiple regressions; stage IV analysis of the logistics regressions. Two statistical tests were used to validate the hypothesis: T-test and Wald test. Hypothesis 1 and 2 were confirmed and H3 was refused. The results presented favorable causal connections to the family income and the father school level variables (with bigger effect for fathers with a higher education degree). The mother school level variable did not provide statistical significance for this research. Based on this result, after this work, this institution is to develop a strategic plan to assist in the success rate of students preparing diagnoses in order to diminish the effects of the variables that impacted negatively
Resumo:
Objetivo: analisar o estado da arte dos aspectos diagnósticos, periciais e jurisprudenciais das LER/DORT (Lesões por Esforços Repetitivos / Distúrbios Osteomusculares Relacionados ao Trabalho) no Brasil. Materiais e Método: trata-se de pesquisa descritiva, de natureza qualitativa, com formato documental, utilizando-se a técnica de análise de conteúdo. A avaliação evolutiva da legislação previdenciária relacionada as LER/DORT foi realizada através da pesquisa no banco de dados disponibilizado pelo Governo Federal e mediante a consulta ao DATAPREV/Sislex. A avaliação dos aspectos diagnósticos foi instrumentalizada através, principalmente, de artigos científicos publicados entre 2003 e 2008, nas línguas portuguesa, inglesa, espanhola e francesa, relacionados com os métodos de diagnósticos complementares das LER-DORT (ressonância magnética, tomografia computadorizada, ultrassonografia e eletroneuromiografia). As jurisprudências foram obtidas através da busca dos julgados sobre o tema, entre 2003 e 2008, pertencentes ao Supremo Tribunal Federal, Superior Tribunal de Justiça, Tribunais Regionais Federais, Tribunal Superior do Trabalho e Tribunais Regionais do Trabalho. Resultados: foram identificados 48 artigos abordando os aspectos diagnósticos das LER-DORT, observando-se que os exames por ressonância magnética, ultrassonografia e eletromiografia demonstraram ser mais efetivos, dentro das suas especificidades, para a complementação do exame clínico de patologias relacionadas às LER-DORT. A análise das 123 jurisprudências selecionadas demonstrou, de forma geral, que as LER-DORT equiparam-se ao acidente de trabalho, devendo apresentar nexo de causalidade (atestado através de laudo médico-pericial) e, ainda, ensejam a ação por danos morais, a qual, devido à EC nº 45 passou a ser competência da Justiça do Trabalho. O Estado da arte dos aspectos periciais encontra-se representado pela vigência da Instrução Normativa n. 98/2003, a qual traz como aspecto fundamental a determinação de novos parâmetros a serem considerados na definição de um quadro de LER-DORT, dispondo, ainda, sobre a conduta ética que deve ser adotada pelo médico perito, bem como chama a atenção para a necessidade dessas doenças do trabalho serem comunicadas às autoridadades competentes, através da emissão da Comunicação de Acidente de Trabalho (CAT). Conclusão: as LER-DORT representam, hoje, um problema de importante impacto, não apenas previdenciário, mas também econômico em diversos países, nos quais o Brasil encontra-se inserido. Estudos sobre o estado da arte relacionados às LER-DORT são fundamentais para auxiliar na construção de um modelo crítico e consciente que colabore com a garantia de sustentabilidade do sistema previdenciário no Brasil
Resumo:
The Federal Constitution of 1988, when taking care of the economical order, denotes special concern in the abuses of the economical power and the disloyal competition. The mark to mediate of all this is, in fact, the defense and the consumer's protection, once this is final addressee of whatever if it puts at the consumption market. The coming of the Law 8.078/90, Code of Protection and Defense of the Consumer, inaugurates a time of effective concern with the homogeneous individual interests originating from of the consumption relationships. In this point, the focus of main to face of the present work lives, in other words, the protection of the right to the individual property, especially manifests in the exercise of the trade freedom that keeps direct relationship with the respective social function the one that is destined. The code of the consumer's defense doesn't just take care of this, but also of the other star of the relationships of the consumption. When affirming in the interruption VI of the art. 4th that the national politics of those relationships, finds ballast in the prohibition and repression efficient of all of the abuses committed in the consumption relationships, keeping inherent relationship-causality in the economical order, sculpted for the article 170 in the Constitution of 1988. In the generic plan, the mark of the present work is to question concerning the limits of the trade freedom and previsible collisions with protection norms and the consumer's defense, as well as factual convergences of those small systems, especially in what he/she refers to the innate interests to the suppliers. In the specific plan, we aspirated to identify the protection device-commands to the actors of the trade relationship, capable to guarantee the free competition in a global economy of market, seeking especially the Well-being, for soon afterwards, in an analytical perspective, to discover the possible applications that it holds the Federal Constitution, in headquarters of economical freedoms. It was observed that the consumer today doesn't need only of laws that their needs, fruit of the vulnerability that it is him/her meditate innate. He/she lacks, yes, of effective mechanisms that prevent lesions that can be them impinged by the suppliers at the time in that you/they are useful to repair the damages when happened, punishing the author of the damage
Resumo:
The methodology Balanced Scorecard (BSC) focuses on the major critical issues of modern organizations, whether with or without profit. The measurement of the effective performance of the latter is by evaluating the successful implementation of organizational strategy. The aim of this paper is to present the development of a system of performance measurement strategy for a nonprofit organization, whose object of study is the Associação de Apoio as Comunidades do Campo - AACC, in the context of the BSC methodology of Kaplan and Norton. The methodology of this case study is an exploratory, descriptive and qualitative, and diagnose the coherence of the Strategy Map in an organization, based strategic planning from 2010 to 2012. Initially conducted a literature review covering the main aspects of strategy maps and performance evaluation involving the translation of the BSC and strategy evaluation. The main results of the proposed approach refers to evaluation of overall scores for each dimension of the BSC methodology, financial, customer, internal processes, learning and growth. These results are able to help the organization evaluate and revise their strategy and, in general, to adopt management methods more accurately. Data collection is centered on interviews with semi-structured questionnaire. The findings highlight on balancing and alignment of strategic objectives, low causality map, strategic communication insufficient and fragmented. For interviewees organizational culture is the biggest impediment to structuring a management model based on indicators and strategic process should be initiated by non-financial indicators gradually. The performance indicators of the AACC/RN portray more meritocracy operational procedures of social projects in the context of the Strategic Map determined in a shortterm over the long term. However, there is evidence of improved performance management and strategic taken as a basis of planning as both the strategic map structured. Therefore, the nonprofits need to adopt a form of management that enables planning, setting objectives and targets that provide the continuity of its activities, and generating instruments that can measure the financial performance and non-financial, in order to develop strategic actions for growth and sustainability
Resumo:
This work deals with a mathematical fundament for digital signal processing under point view of interval mathematics. Intend treat the open problem of precision and repesention of data in digital systems, with a intertval version of signals representation. Signals processing is a rich and complex area, therefore, this work makes a cutting with focus in systems linear invariant in the time. A vast literature in the area exists, but, some concepts in interval mathematics need to be redefined or to be elaborated for the construction of a solid theory of interval signal processing. We will construct a basic fundaments for signal processing in the interval version, such as basic properties linearity, stability, causality, a version to intervalar of linear systems e its properties. They will be presented interval versions of the convolution and the Z-transform. Will be made analysis of convergences of systems using interval Z-transform , a essentially interval distance, interval complex numbers , application in a interval filter.
Resumo:
In this work we use Interval Mathematics to establish interval counterparts for the main tools used in digital signal processing. More specifically, the approach developed here is oriented to signals, systems, sampling, quantization, coding and Fourier transforms. A detailed study for some interval arithmetics which handle with complex numbers is provided; they are: complex interval arithmetic (or rectangular), circular complex arithmetic, and interval arithmetic for polar sectors. This lead us to investigate some properties that are relevant for the development of a theory of interval digital signal processing. It is shown that the sets IR and R(C) endowed with any correct arithmetic is not an algebraic field, meaning that those sets do not behave like real and complex numbers. An alternative to the notion of interval complex width is also provided and the Kulisch- Miranker order is used in order to write complex numbers in the interval form enabling operations on endpoints. The use of interval signals and systems is possible thanks to the representation of complex values into floating point systems. That is, if a number x 2 R is not representable in a floating point system F then it is mapped to an interval [x;x], such that x is the largest number in F which is smaller than x and x is the smallest one in F which is greater than x. This interval representation is the starting point for definitions like interval signals and systems which take real or complex values. It provides the extension for notions like: causality, stability, time invariance, homogeneity, additivity and linearity to interval systems. The process of quantization is extended to its interval counterpart. Thereafter the interval versions for: quantization levels, quantization error and encoded signal are provided. It is shown that the interval levels of quantization represent complex quantization levels and the classical quantization error ranges over the interval quantization error. An estimation for the interval quantization error and an interval version for Z-transform (and hence Fourier transform) is provided. Finally, the results of an Matlab implementation is given