907 resultados para Time-invariant Wavelet Analysis
Resumo:
Se analiza la recepción de Diego de Saavedra Fajardo en la Alemania ilustrada del siglo XVIII, donde se imprimieron y tradujeron algunas obras de este autor. A través del análisis del prólogo que precede la edición alemana de Locuras de Europa, conoceremos el universo editorial que impulsó su aparición en Leipzig y la conyuntura histórico-política que lo propició
Resumo:
Diplomityössä kehitetään ABB Oy Drives:lle menetelmää, jolla voidaan ennustaa ohutlevyosien ja niistä koostuvien kokoonpanojen hintaa ilman tarkkaa valmistuksellista geometriatietoa. Työ on osa Tekesin rahoittamaa Piirre 2.0 -projektia. Työn teoriaosa määrittelee lyhyesti ohutlevytuotteet ja niiden valmistusmenetelmät. Laajemmassa teoriatarkastelussa ovat erilaiset ohutlevytuotteiden valmistuskustannusten ennustamismenetelmät regressioanalyysin käyttöön painottuen. Käytännön osiossa määritetään Finn-Power LP6 -levytyökeskuksen suorituskyky ja muodostetaan työaikalaskuri kerättyyn tietoon perustuen. Lisäksi muodostetaan regressioanalyysit kahden eri alihankkijan valmistamien ohutlevytuotteiden pohjalta. Regressiotekniikoiden avulla etsitään kustannuksiin voimakkaasti vaikuttavat parametrit ja muodostetaan laskukaava valmistuskustannusten ennustamiseen. Lopuksi vertaillaan teorian ja käytännön osien yhteensopivuutta ja etsitään syitä havaittuihin eroihin. Tutkimustulosten hyödyntämismahdollisuuksien ohella esitetään myös eräitä jatkokehitysehdotuksia.
Resumo:
The objective of the study was to evaluate the topical effects of 0.2% Cyclosporine A (CsA) on corneal neovascularization of rats following surgical implantation of equine amniotic membrane into a corneal stroma micropocket. The implantation of xenologous amniotic membrane was performed bilaterally in 90 rats. In the same day of the surgery each right eye started receiving topical CsA twice a day. The left eye received no medication and served as a control. The evaluation of corneal neovascularization was performed by computerized image analysis and histopathological evaluation at 1, 3, 7, 15, 30 and 60 days postoperatively. For the image analysis 10 animals were used per time period, and for the histopathological examination, five animals were used per time period. Image analysis found that corneal neovascularization began on the 3rd postoperative day, reached its peak on the 7th day, and then progressively and rapidly decreased. Statistic analysis indicated that neovascularization of the CsA treated eye on the 7th day was significantly higher than that observed in untreated eyes. On the 30th day, however, this pattern was reversed with the neovascularization observed in the CsA treated eyes declining to the low levels observed on the 3rd day. The degree of neovascularization in the untreated eyes on the 30th day declined to the baseline levels found on day 3 at the 60th day. Histopathological analysis indicated that deposition of collagen in the implanted tissue was completed by the 15th day. Therefore, we concluded that (1) equine amniotic membrane in rat corneal stroma produced an intense neovascularization until the 15th day postoperatively and then regressed, (2) deposition of collagen of the implanted tissue was completed on the 15th day postoperatively, and (3) use of CsA was associated with increase in the corneal neovascularization initially, followed by a quick and intense regression.
Resumo:
Design of flight control laws, verification of performance predictions, and the implementation of flight simulations are tasks that require a mathematical model of the aircraft dynamics. The dynamical models are characterized by coefficients (aerodynamic derivatives) whose values must be determined from flight tests. This work outlines the use of the Extended Kalman Filter (EKF) in obtaining the aerodynamic derivatives of an aircraft. The EKF shows several advantages over the more traditional least-square method (LS). Among these the most important are: there are no restrictions on linearity or in the form which the parameters appears in the mathematical model describing the system, and it is not required that these parameters be time invariant. The EKF uses the statistical properties of the process and the observation noise, to produce estimates based on the mean square error of the estimates themselves. Differently, the LS minimizes a cost function based on the plant output behavior. Results for the estimation of some longitudinal aerodynamic derivatives from simulated data are presented.
Resumo:
Knowledge of the radiochemical purity of radiopharmaceuticals is mandatory and can be evaluated by several methods and techniques. Planar chromatography is the technique normally employed in nuclear medicine since it is simple, rapid and usually of low cost. There is no standard system for the chromatographic technique, but price, separation efficiency and short time for execution must be considered. We have studied an alternative system using common chromatographic stationary phase and alcohol or alcohol:chloroform mixtures as the mobile phase, using the lipophilic radiopharmaceutical [99mTc(MIBI)6]+ as a model. Whatman 1 modified phase paper and absolute ethanol, Whatman 1 paper and methanol:chloroform (25:75), Whatman 3MM paper and ethanol:chloroform (25:75), and the more expensive ITLC-SG and 1-propanol:chloroform (10:90) were suitable systems for the direct determination of radiochemical purity of [99mTc(MIBI)6]+ since impurities such as99mTc-reduced-hydrolyzed (RH),99mTcO4- and [99mTc(cysteine)2]-complex were completely separated from the radiopharmaceutical, which moved toward the front of chromatographic systems while impurities were retained at the origin. The time required for analysis was 4 to 15 min, which is appropriate for nuclear medicine routines.
Resumo:
This paper uses a rotating panel of households to analyze wage differentials between public and private sectors in Brazil. Focusing on the transition of individuals between jobs available in the public and private sectors and controlling for individual time invariant characteristics, we find evidence of small wage differentials in favor of the public sector.
Resumo:
This study explored one university's response to the internationalization of higher education. Case study methodology was employed through a review of current and archival documents and interviews with key actors in the international spheres of the university. The historical, current, and future contexts were considered to situate the case study on a time line. Data analysis revealed that there were several points of division among the university community related to the response to internationalization, but also a major point of coherence in the centrality of inter-cultural understanding in efforts to internationalize. Other key findings included strengths, areas for improvement, and future directions of the university's response to internationalization. All of these findings were contextualized in findings related to the history of the university. In addition to these major findings, three themes in relation to the vision for internationalization at the institution were revealed: ( a) intercultural understanding, (b) the comprehensive status of the university, and (c) the financial benefits of internationalization. Recommendations are made for practice at the university in order to clarify this vision to develop a clear foundation from which to further build a response to internationalization that is solidly based on inter-cultural understanding, and recommendations for future research into the process of internationalization at the institutional level in Canada are suggested.
Resumo:
Introduction: La démence peut être causée par la maladie d’Alzheimer (MA), la maladie cérébrovasculaire (MCEREV), ou une combinaison des deux. Lorsque la maladie cérébrovasculaire est associée à la démence, les chances de survie sont considérées réduites. Il reste à démontrer si le traitement avec des inhibiteurs de la cholinestérase (ChEIs), qui améliore les symptômes cognitifs et la fonction globale chez les patients atteints de la MA, agit aussi sur les formes vasculaires de démence. Objectifs: La présente étude a été conçue pour déterminer si la coexistence d’une MCEREV était associée avec les chances de survie ou la durée de la période jusqu’au placement en hebergement chez les patients atteints de la MA et traités avec des ChEIs. Des études montrant de moins bons résultats chez les patients souffrant de MCEREV que chez ceux n’en souffrant pas pourrait militer contre l’utilisation des ChEIs chez les patients atteints à la fois de la MA et la MCEREV. L'objectif d'une seconde analyse était d'évaluer pour la première fois chez les patients atteints de la MA l'impact potentiel du biais de « temps-immortel » (et de suivi) sur ces résultats (mort ou placement en hebergement). Méthodes: Une étude de cohorte rétrospective a été conduite en utilisant les bases de données de la Régie de l’Assurance Maladie du Québec (RAMQ) pour examiner la durée de la période jusqu’au placement en hebergement ou jusqu’au v décès des patients atteints de la MA, âgés de 66 ans et plus, avec ou sans MCEREV, et traités avec des ChEIs entre le 1er Juillet 2000 et le 30 Juin 2003. Puisque les ChEIs sont uniquement indiquées pour la MA au Canada, chaque prescription de ChEIs a été considérée comme un diagnostic de la MA. La MCEREV concomitante a été identifié sur la base d'un diagnostic à vie d’un accident vasculaire cérébral (AVC) ou d’une endartériectomie, ou d’un diagnostic d'un accident ischémique transitoire au cours des six mois précédant la date d’entrée. Des analyses séparées ont été conduites pour les patients utilisant les ChEIs de façon persistante et pour ceux ayant interrompu la thérapie. Sept modèles de régression à risque proportionnel de Cox qui ont varié par rapport à la définition de la date d’entrée (début du suivi) et à la durée du suivi ont été utilisés pour évaluer l'impact du biais de temps-immortel. Résultats: 4,428 patients ont répondu aux critères d’inclusion pour la MA avec MCEREV; le groupe de patients souffrant seulement de la MA comptait 13,512 individus. Pour le critère d’évaluation composite considérant la durée de la période jusqu’au placement en hebergement ou jusqu’au décès, les taux de survie à 1,000 jours étaient plus faibles parmi les patients atteints de la MA avec MCEREV que parmi ceux atteints seulement de la MA (p<0.01), mais les différences absolues étaient très faibles (84% vs. 86% pour l’utilisation continue de ChEIs ; 77% vs. 78% pour la thérapie avec ChEIs interrompue). Pour les critères d’évaluation secondaires, la période jusqu’au décès était plus courte chez les patients avec la MCEREV que sans la MCEREV, mais la période jusqu’au vi placement en hebergement n’était pas différente entre les deux groupes. Dans l'analyse primaire (non-biaisée), aucune association a été trouvée entre le type de ChEI et la mort ou le placement en maison d'hébergement. Cependant, après l'introduction du biais de temps-immortel, on a observé un fort effet différentiel. Limitations: Les résultats peuvent avoir été affectés par le biais de sélection (classification impropre), par les différences entre les groupes en termes de consommation de tabac et d’indice de masse corporelle (ces informations n’étaient pas disponibles dans les bases de données de la RAMQ) et de durée de la thérapie avec les ChEIs. Conclusions: Les associations entre la coexistence d’une MCEREV et la durée de la période jusqu’au placement en hebergement ou au décès apparaissent peu pertinentes cliniquement parmi les patients atteints de la MA traités avec des ChEIs. L’absence de différence entre les patients atteints de la MA souffrant ou non de la MCEREV suggère que la coexistence d’une MCEREV ne devrait pas être une raison de refuser aux patients atteints de la MA l’accès au traitement avec des ChEIs. Le calcul des « personne-temps » non exposés dans l'analyse élimine les estimations biaisées de l'efficacité des médicaments.
Resumo:
Les lésions tumorales cortico-surrénaliennes sont majoritairement des adénomes bénins et très rarement des carcinomes. Les altérations génétiques impliquées dans le développement des tumeurs cortico-surrénaliennes sporadiques, plus particulièrement au stade malin, demeurent à ce jour très peu connues. Lors de travaux récents menant à l’identification d’altérations génétiques de β-CATÉNINE nous avons constaté que plusieurs tumeurs présentaient une accumulation nucléo/cytoplasmique de la protéine β-CATÉNINE sans toutefois contenir de mutations pour ce gène. Nous avons donc émis l’hypothèse que, comme pour d’autres types de cancers, d’autres composants de la voie de signalisation Wnt/β-CATÉNINE, tel qu’AXIN2, pourrait être impliqués dans le développement des tumeurs du cortex surrénalien. De plus, plusieurs aberrations dans l’expression d’AXIN2 et de β-CATÉNINE sont associées à des tumeurs présentant de l’instabilité microsatellite dans d’autres types de cancer, notamment le cancer gastrique et colorectal. Nous avons donc étudié une cohorte de 30 adénomes, 6 carcinomes, 5 AIMAH, 3 hyperplasies ACTH-dépendante et 5 PPNAD ainsi que les lignées cellulaires de carcinomes cortico-surrénaliens humains H295R et SW13. Une étude préliminaire du statut MSI a également été réalisée sur 10 tumeurs contenant une mutation pour AXIN2 et/ou β-CATÉNINE. Nous avons trouvé des mutations d’AXIN2 dans 7% des adénomes (2/30) et 17% des carcinomes (1/6) cortico-surrénaliens. L’analyse fonctionnelle des mutations par immunohistochimie, analyse western blot et analyse de RT-PCR en temps réel a révélé une diminution de l’expression d’AXIN2 associée à cette mutation. L’analyse préliminaire MSI a démontré 1 échantillon AIMAH MSI-H, c’est-à-dire instable pour le locus BAT-25 et BAT-26 et 3 autres adénomes sécrétant de l’aldostérone instables seulement pour le locus BAT-26. Ainsi, ces travaux permirent d’identifier une nouvelle altération génétique associée au développement des tumeurs du cortex surrénalien en plus de rapporter pour la première fois la présence de MSI-H dans ce type de tumeurs.
Resumo:
Ce mémoire présente une analyse homogène et rigoureuse de l’échantillon d’étoiles naines blanches situées à moins de 20 pc du Soleil. L’objectif principal de cette étude est d’obtenir un modèle statistiquement viable de l’échantillon le plus représentatif de la population des naines blanches. À partir de l’échantillon défini par Holberg et al. (2008), il a fallu dans un premier temps réunir le plus d’information possible sur toutes les candidates locales sous la forme de spectres visibles et de données photométriques. En utilisant les modèles d’atmosphère de naines blanches les plus récents de Tremblay & Bergeron (2009), ainsi que différentes techniques d’analyse, il a été permis d’obtenir, de façon homogène, les paramètres atmosphériques (Teff et log g) des naines blanches de cet échantillon. La technique spectroscopique, c.-à-d. la mesure de Teff et log g par l’ajustement des raies spectrales, fut appliquée à toutes les étoiles de notre échantillon pour lesquelles un spectre visible présentant des raies assez fortes était disponible. Pour les étoiles avec des données photométriques, la distribution d’énergie combinée à la parallaxe trigonométrique, lorsque mesurée, permettent de déterminer les paramètres atmosphériques ainsi que la composition chimique de l’étoile. Un catalogue révisé des naines blanches dans le voisinage solaire est présenté qui inclut tous les paramètres atmosphériques nouvellement determinés. L’analyse globale qui en découle est ensuite exposée, incluant une étude de la distribution de la composition chimique des naines blanches locales, de la distribution de masse et de la fonction luminosité.
Resumo:
L’objectif de cette étude est de saisir une image des éléments explicitement reconnaissables de la recherche en communication visibles dans les revues savantes Canadian Journal of Communication et dans Communication de 1974 à 2005. Il s’agit d’une analyse bibliométrique des articles publiés par les chercheurs d’institutions canadiennes et de leurs références bibliographiques. La bibliométrie est « l’application de méthodes statistiques aux livres et aux autres moyens de communication » (Pritchard, 1969: 348-349). C’est la première fois qu’une analyse de ce type est tentée dans ce corpus particulier. Nous nous sommes appuyés sur des postulats théoriques provenant de la sociologie des sciences et des études en communication scientifique. L’idée maîtresse est la suivante : l’activité scientifique est un « continuum de création de nouvelles connaissances » (Vassallo, 1999), dont l’organisation est basée sur l’échange d’information (Price, 1963; Crane, 1972), qui se traduit en reconnaissance sociale, en autorité scientifique, et constitue un investissement pour l’acquisition de crédibilité (Merton, 1938; Hagstrom, 1965; Bourdieu, 1975; Latour et Woolgar, 1986). À partir de l’analyse des articles, nous identifions s’ils sont le résultat de recherches empiriques ou fondamentales, ou le produit d’une réflexion critique. Il s’agit aussi de détecter les approches méthodologiques et les techniques d’investigation utilisées, ainsi que les sujets qui y sont abordés par les chercheurs. Nous détectons également les principaux lieux de recherche (universités et types de départements). Nous analysons aussi les thématiques des articles. Enfin, nous analysons des références bibliographiques des articles afin de cerner les sources d’idées qui y sont décelables. Notre corpus principal comporte 1154 articles et 12 840 titres de documents en référence. L’analyse bibliométrique des articles révèle ainsi une recherche canadienne en communication d’emblée qualitative, intéressée pour les spécificités historiques, le contexte social et la compréhension des interrelations sous-jacentes aux phénomènes de communication, en particulier, au Canada et au Québec. Au cœur de ces études se distingue principalement l’application de l’analyse de contenu qualitative dans les médias en général. Cependant, à partir de 1980, l’exploration du cinéma, de l’audiovisuel, des nouvelles technologies de l’information et de la communication, ainsi que la multiplication des sujets de recherche, annoncent un déplacement dans l’ordre des intérêts. Communication et le CJC, se distinguent cependant par l’origine linguistique des chercheurs qui y publient ainsi que dans les thématiques. L’analyse des références bibliographiques, et de leurs auteurs, met en relief l’intérêt partagé des chercheurs d’institutions universitaires canadiennes pour les agences de réglementation et les politiques gouvernementales canadiennes s’appuyant souvent sur l’analyse de documents législatifs et de rapports de diverses commissions d’enquête du gouvernement canadien. L’analyse révèle aussi les principales inspirations théoriques et méthodologiques des chercheurs. Parmi les plus citées, on voit Innis, McLuhan, Habermas, Tuchman, Bourdieu, Foucault, Raboy, et Rogers. Mais ces références évoluent dans le temps. On voit aussi une distinction relativement claire entre les sources citées par la recherche francophone et la recherche anglophone.
Resumo:
Le Corrector sive Medicus est un pénitentiel rédigé par Burchard, évêque de Worms (1000-1025). Il s’agit d’un manuel destiné à guider les confesseurs lors de l’administration du sacrement de pénitence. Intégré dans le Decretum, l’œuvre majeure de Burchard, il compte parmis les pénitentiels les plus illustres. Il contient notamment un questionnaire très élaboré sur les péchés commis par les fidèles. Les 194 questions du Corrector sive Medicus constituent l’objet d’étude de ce mémoire. Entre le VIIe et le XIIe siècle, les pénitentiels forment une longue tradition littéraire où les textes se répètent constamment. Le questionnaire du Corrector sive Medicus se distingue du fait qu’il est rédigé en grande partie par Burchard lui-même. Les détails précis sur les survivances païennes et la religion populaire que l’évêque introduit dans son pénitentiel permettent, comme aucune autre source de la période, une analyse ethno-historique de la culture germanique. La première partie du mémoire est consacrée à la présentation du Corrector sive Medicus : j’y décris d’abord le contexte historique et biographique de l’œuvre, puis discute d’une herméneutique littéraire, pour enfin proposer une synthèse diachronique des traditions germaniques. La deuxième partie offre, pour la première fois en français, la traduction intégrale du questionnaire de Burchard, accompagnée de commentaires sur différents sujets ou problèmes soulevés par le texte, notamment ceux qui concernent la culture germanique. Finalement sont placés en annexe quelques documents qui témoignent, tout comme le Corrector sive Medicus, d’un syncrétisme religieux profondément enraciné dans les mœurs des Germains.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
The objective of the present study is to understand the spatial and temporal variability of sea surface temperature(SST), precipitable water, zonal and meridional components of wind stress over the tropical Indian Ocean to understand the different scales of variability of these features of Indian Ocean. Empirical Orthogonal Function (EOF) and wavelet analysis techniques are utilized to understand the standing oscillations and multi scale oscillations respectively. The study has been carried out over Indian Ocean and South Indian Ocean. For the present study, NCEP/NCAR(National Center for Environmental Prediction National Center for Atmospheric Research) reanalyzed daily fields of sea surface temperature, zonal and meridional surface wind components and precipitable water amount during 1960-1998 are used. The principle of EOF analysis and the methodology used for the analysis of spatial and temporal variance modes.
Resumo:
The present work is an attempt to understand the characteristics of the upper troposphere and lower stratosphere over the Asian summer monsoon region, more specifically over the Indian subcontinent. Mainly three important parameters are taken such as zonal wind, temperature and ozone over the UT/LS of the Asian summer monsoon region. It made a detailed study of its interannual variability and characteristics of theses parameters during the Indian summer monsoon period. Monthly values of zonal wind and temperature from the NCEP/NCAR reanalysis for the period 1960-2002 are used for the present study. Also the daily overpass total ozone data for the 12 Indian stations (from low latitude to high latitudes) from the TOMS Nimbus 7 satellite for the period 1979 to 1992 were also used to understand the total ozone variation over the Indian region. The study reveals that if QBO phases in the stratosphere is easterly or weak westerly then the respective monsoon is found to be DRY or below Normal . On the other hand, if the phase is westerly or weak easterly the respective Indian summer monsoon is noted as a WET year. This connection of stratospheric QBO phases and Indian summer monsoon gives more insight in to the long-term predictions of Indian summer monsoon rainfall. Wavelet analysis and EOF methods are the two advanced statistical techniques used in the present study to explore more information of the zonal wind that from the smaller scale to higher scale variability over the Asian summer monsoon region. The interannual variability of temperature for different stratospheric and tropospheric levels over the Asian summer monsoon region have been studied. An attempt has been made to understand the total ozone characteristics and its interannual variablilty over 12 Indian stations spread from south latitudes to north latitudes. Finally it found that the upper troposphere and lower stratosphere contribute significantly to monsoon variability and climate changes. It is also observed that there exists a link between the stratospheric QBO and Indian summer monsoon