950 resultados para decomposition analysis
Resumo:
Rules of Origin (RoO) are an integral part of all trade rules. In order to be eligible for Common Effective Preferential Tariffs (CEPT) under AFTA and similar arrangements under the ASEAN-China FTA, a product must satisfy the conditions relative to local content. The paper tries to calculate local content as well as cumulative local content in East Asian economies, with use of the Asian International Input-Output Tables; it also investigates factors of change in local content by applying decomposition analysis. The paper finds that the cumulation rule increased local content of the electronics industry more significantly than local content of the automotive industry, and the contribution of the cumulation rule increased in the period 1990-2000, due to rising dependency on neighboring ASEAN countries and China.
Resumo:
This paper proposes an alternative input-output based spatial-structural decomposition analysis to elucidate the role of domestic-regional heterogeneity and interregional spillover effects in determining China's regional CO2 emission growth. Our empirical results based on the 2007 and 2010 Chinese interregional input-output tables show that the changes in most regions' final demand scale, final expenditure structure and export scale give positive spatial spillover effects on other regions' CO2 emission growth, the changes in most regions' consumption and export preference help the reduction of other regions' CO2 emissions, the changes in production technology, and investment preference may give positive or negative impacts on other region's CO2 emission growth through domestic supply chains. For some regions, the aggregate spillover effect from other regions may be larger than the intra-regional effect in determining regional emission growth. All these facts can significantly help better and deeper understanding on the driving forces of China's regional CO2 emission growth, thus can enrich the policy implication concerning a narrow definition of "carbon leakage" through domestic-interregional trade, and relevant political consensus about the responsibility sharing between developed and developing regions inside China.
Resumo:
Global linear instability theory is concerned with the temporal or spatial development of small-amplitude perturbations superposed upon laminar steady or time-periodic three-dimensional flows, which are inhomogeneous in two(and periodic in one)or all three spatial directions.After a brief exposition of the theory,some recent advances are reported. First, results are presented on the implementation of a Jacobian-free Newton–Krylov time-stepping method into a standard finite-volume aerodynamic code to obtain global linear instability results in flows of industrial interest. Second, connections are sought between established and more-modern approaches for structure identification in flows, such as proper orthogonal decomposition and Koopman modes analysis (dynamic mode decomposition), and the possibility to connect solutions of the eigenvalue problem obtained by matrix formation or time-stepping with those delivered by dynamic mode decomposition, residual algorithm, and proper orthogonal decomposition analysis is highlighted in the laminar regime; turbulent and three-dimensional flows are identified as open areas for future research. Finally, a new stable very-high-order finite-difference method is implemented for the spatial discretization of the operators describing the spatial biglobal eigenvalue problem, parabolized stability equation three-dimensional analysis, and the triglobal eigenvalue problem; it is shown that, combined with sparse matrix treatment, all these problems may now be solved on standard desktop computers
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Resumo:
The mechanism for the decomposition of hydrotalcite remains unsolved. Controlled rate thermal analysis enables this decomposition pathway to be explored. The thermal decomposition of hydrotalcites with hexacyanoferrite(II) and hexacyanoferrate(III) in the interlayer has been studied using controlled rate thermal analysis technology. X-ray diffraction shows the hydrotalcites studied have a d(003) spacing of 11.1 and 10.9 Å which compares with a d-spacing of 7.9 and 7.98 Å for the hydrotalcite with carbonate or sulphate in the interlayer. Calculations based upon CRTA measurements show that 7 moles of water is lost, proving the formula of hexacyanoferrite(II) intercalated hydrotalcite is Mg6Al2(OH)16[Fe(CN)6]0.5 .7 H2O and for the hexacyanoferrate(III) intercalated hydrotalcite is Mg6Al2(OH)16[Fe(CN)6]0.66 * 9 H2O. Dehydroxylation combined with CN unit loss occurs in three steps between a) 310 and 367°C b) 367 and 390°C and c) between 390 and 428°C for both the hexacyanoferrite(II) and hexacyanoferrate(III) intercalated hydrotalcite.
Resumo:
Boron–nitrogen containing compounds with high hydrogen contents as represented by ammonia borane (NH3BH3) have recently attracted intense interest for potential hydrogen storage applications. One such compound is [(NH3)2BH2]B3H8 with a capacity of 18.2 wt% H. Two safe and efficient synthetic routes to [(NH3)2BH2]B3H8 have been developed for the first time since it was discovered 50 years ago. The new synthetic routes avoid a dangerous starting chemical, tetraborane (B4H10), and afford a high yield. Single crystal X-ray diffraction analysis reveals N–Hδ+Hδ−–B dihydrogen interactions in the [(NH3)2BH2]B3H8·18-crown-6 adduct. Extended strong dihydrogen bonds were observed in pure [(NH3)2BH2]B3H8 through crystal structure solution based upon powder X-ray analysis. Pyrolysis of [(NH3)2BH2]B3H8 leads to the formation of hydrogen gas together with appreciable amounts of volatile boranes below 160 °C.
Resumo:
The thermal decomposition process of kaolinite–potassium acetate intercalation complex has been studied using simultaneous thermogravimetry coupled with Fourier-transform infrared spectroscopy and mass spectrometry (TG-FTIR-MS). The results showed that the thermal decomposition of the complex took place in four temperature ranges, namely 50–100, 260–320, 320–550, and 650–780 °C. The maximal mass losses rate for the thermal decomposition of the kaolinite–potassium acetate intercalation complex was observed at 81, 296, 378, 411, 486, and 733 °C, which was attributed to (a) loss of the adsorbed water, (b) thermal decomposition of surface-adsorbed potassium acetate (KAc), (c) the loss of the water coordinated to potassium acetate in the intercalated kaolinite, (d) the thermal decomposition of intercalated KAc in the interlayer of kaolinite and the removal of inner surface hydroxyls, (e) the loss of the inner hydroxyls, and (f) the thermal decomposition of carbonate derived from the decomposition of KAc. The thermal decomposition of intercalated potassium acetate started in the range 320–550 °C accompanied by the release of water, acetone, carbon dioxide, and acetic acid. The identification of pyrolysis fragment ions provided insight into the thermal decomposition mechanism. The results showed that the main decomposition fragment ions of the kaolinite–KAc intercalation complex were water, acetone, carbon dioxide, and acetic acid. TG-FTIR-MS was demonstrated to be a powerful tool for the investigation of kaolinite intercalation complexes. It delivers a detailed insight into the thermal decomposition processes of the kaolinite intercalation complexes characterized by mass loss and the evolved gases.
Resumo:
In an estuary, mixing and dispersion are the result of the combination of large scale advection and small scale turbulence which are both complex to estimate. A field study was conducted in a small sub-tropical estuary in which high frequency (50 Hz) turbulent data were recorded continuously for about 48 hours. A triple decomposition technique was introduced to isolate the contributions of tides, resonance and turbulence in the flow field. A striking feature of the data set was the slow fluctuations which exhibited large amplitudes up to 50% the tidal amplitude under neap tide conditions. The triple decomposition technique allowed a characterisation of broader temporal scales of high frequency fluctuation data sampled during a number of full tidal cycles.
Resumo:
Formation of benzaldehyde and benzoic acid have been observed during the slow decomposition of polystyrene/ammonium perchlorale propellant. This has been attributed to the formation of polystyrene peroxide intermediate which on decomposition gives the above producis. The chemical scheme for the formation of polystyrene peroxide has been presented.
Resumo:
In this paper a new parallel algorithm for nonlinear transient dynamic analysis of large structures has been presented. An unconditionally stable Newmark-beta method (constant average acceleration technique) has been employed for time integration. The proposed parallel algorithm has been devised within the broad framework of domain decomposition techniques. However, unlike most of the existing parallel algorithms (devised for structural dynamic applications) which are basically derived using nonoverlapped domains, the proposed algorithm uses overlapped domains. The parallel overlapped domain decomposition algorithm proposed in this paper has been formulated by splitting the mass, damping and stiffness matrices arises out of finite element discretisation of a given structure. A predictor-corrector scheme has been formulated for iteratively improving the solution in each step. A computer program based on the proposed algorithm has been developed and implemented with message passing interface as software development environment. PARAM-10000 MIMD parallel computer has been used to evaluate the performances. Numerical experiments have been conducted to validate as well as to evaluate the performance of the proposed parallel algorithm. Comparisons have been made with the conventional nonoverlapped domain decomposition algorithms. Numerical studies indicate that the proposed algorithm is superior in performance to the conventional domain decomposition algorithms. (C) 2003 Elsevier Ltd. All rights reserved.
Resumo:
This paper demonstrates how a finite element model which exploits domain decomposition is applied to the analysis of three-phase induction motors. It is shown that a significant gain in cpu time results when compared with standard finite element analysis. Aspects of the application of the method which are particular to induction motors are considered: the means of improving the convergence of the nonlinear finite element equations; the choice of symmetrical sub-domains; the modelling of relative movement; and the inclusion of periodic boundary conditions. © 1999 IEEE.