887 resultados para Harp with instrumental ensemble
Resumo:
Les thérapies du cancer, comme la radiothérapie et la chimiothérapie, sont couramment utilisées mais ont de nombreux effets secondaires. Ces thérapies invasives pour le patient nécessitent d'être améliorées et de nombreuses avancées ont été faites afin d'adapter et de personnaliser le traitement du cancer. L'immunothérapie a pour but de renforcer le système immunitaire du patient et de le rediriger de manière spécifique contre la tumeur. Dans notre projet, nous activons les lymphocytes Invariant Natural Killer T (iNKT) afin de mettre en place une immunothérapie innovatrice contre le cancer. Les cellules iNKT sont une unique sous-population de lymphocytes T qui ont la particularité de réunir les propriétés de l'immunité innée ainsi qu'adaptative. En effet, les cellules iNKT expriment à leur surface des molécules présentes aussi sur les cellules tueuses NK, caractéristique de l'immunité innée, ainsi qu'un récepteur de cellules T (TCR) qui représente l'immunité adaptative. Les cellules iNKT reconnaissent avec leur TCR des antigènes présentés par la molécule CD1d. Les antigènes sont des protéines, des polysaccharides ou des lipides reconnus par les cellules du système immunitaire ou les anticorps pour engendrer une réponse immunitaire. Dans le cas des cellules iNKT, l'alpha-galactosylceramide (αGC) est un antigène lipidique fréquemment utilisé dans les études cliniques comme puissant activateur. Après l'activation des cellules iNKT avec l'αGC, celles-ci produisent abondamment et rapidement des cytokines. Ces cytokines sont des molécules agissant comme des signaux activateurs d'autres cellules du système immunitaire telles que les cellules NK et les lymphocytes T. Cependant, les cellules iNKT deviennent anergiques après un seul traitement avec l'αGC c'est à dire qu'elles ne peuvent plus être réactivées, ce qui limite leur utilisation dans l'immunothérapie du cancer. Dans notre groupe, Stirnemann et al ont publié une molécule recombinante innovante, composée de la molécule CD1d soluble et chargée avec le ligand αGC (αGC/sCD1d). Cette protéine est capable d'activer les cellules iNKT tout en évitant l'anergie. Dans le système immunitaire, les anticorps sont indispensables pour combattre une infection bactérienne ou virale. En effet, les anticorps ont la capacité de reconnaître et lier spécifiquement un antigène et permettent l'élimination de la cellule qui exprime cet antigène. Dans le domaine de l'immunothérapie, les anticorps sont utilisés afin de cibler des antigènes présentés seulement par la tumeur. Ce procédé permet de réduire efficacement les effets secondaires lors du traitement du cancer. Nous avons donc fusionné la protéine recombinante αGC/CD1d à un fragment d'anticorps qui reconnaît un antigène spécifique des cellules tumorales. Dans une étude préclinique, nous avons démontré que la protéine αGC/sCD1d avec un fragment d'anticorps dirigé contre la tumeur engendre une meilleure activation des cellules iNKT et entraîne un effet anti-tumeur prolongé. Cet effet anti-tumeur est augmenté comparé à une protéine αGC/CD1d qui ne cible pas la tumeur. Nous avons aussi montré que l'activation des cellules iNKT avec la protéine αGC/sCD1d-anti-tumeur améliore l'effet anti- tumoral d'un vaccin pour le cancer. Lors d'expériences in vitro, la protéine αGC/sCD1d-anti- tumeur permet aussi d'activer les cellules humaines iNKT et ainsi tuer spécifiquement les cellules tumorales humaines. La protéine αGC/sCD1d-anti-tumeur représente une alternative thérapeutique prometteuse dans l'immunothérapie du cancer. - Les cellules Invariant Natural Killer T (iNKT), dont les effets anti-tumoraux ont été démontrés, sont de puissants activateurs des cellules Natural Killer (NK), des cellules dendritiques (DC) et des lymphocytes T. Cependant, une seule injection du ligand de haute affinité alpha-galactosylceramide (αGC) n'induit une forte activation des cellules iNKT que durant une courte période. Celle-ci est alors suivie d'une longue phase d'anergie, limitant ainsi leur utilisation pour la thérapie. Comme alternative prometteuse, nous avons montré que des injections répétées d'αGC chargé sur une protéine recombinante de CD1d soluble (αGC/sCD1d) chez la souris entraînent une activation prolongée des cellules iNKT, associée à une production continue de cytokine. De plus, le maintien de la réactivité des cellules iNKT permet de prolonger l'activité anti-tumorale lorsque la protéine αGC/sCD1d est fusionnée à un fragment d'anticorps (scFv) dirigé contre la tumeur. L'inhibition de la croissance tumorale n'est optimale que lorsque les souris sont traitées avec la protéine αGC/sCD1d-scFv ciblant la tumeur, la protéine αGC/sCD1d-scFv non-appropriée étant moins efficace. Dans le système humain, les protéines recombinantes αGC/sCD1d-anti-HER2 et anti-CEA sont capables d'activer et de faire proliférer des cellules iNKT à partir de PBMCs issues de donneurs sains. De plus, la protéine αGC/sCD1d-scFv a la capacité d'activer directement des clones iNKT humains en l'absence de cellules présentatrices d'antigènes (CPA), contrairement au ligand αGC libre. Mais surtout, la lyse des cellules tumorales par les iNKT humaines n'est obtenue que lorsqu'elles sont incubées avec la protéine αGC/sCD1d-scFv anti- tumeur. En outre, la redirection de la cytotoxicité des cellules iNKT vers la tumeur est supérieure à celle obtenue avec une stimulation par des CPA chargées avec l'αGC. Afin d'augmenter les effets anti-tumoraux, nous avons exploité la capacité des cellules iNKT à activer l'immunité adaptive. Pour ce faire, nous avons combiné l'immunothérapie NKT/CD1d avec un vaccin anti-tumoral composé d'un peptide OVA. Des effets synergiques ont été obtenus lorsque les traitements avec la protéine αGC/sCD1d-anti-HER2 étaient associés avec le CpG ODN comme adjuvant pour la vaccination avec le peptide OVA. Ces effets ont été observés à travers l'activation de nombreux lymphocytes T CD8+ spécifique de la tumeur, ainsi que par la forte expansion des cellules NK. Les réponses, innée et adaptive, élevées après le traitement avec la protéine αGC/sCD1d-anti-HER2 combinée au vaccin OVA/CpG ODN étaient associées à un fort ralentissement de la croissance des tumeurs B16- OVA-HER2. Cet effet anti-tumoral corrèle avec l'enrichissement des lymphocytes T CD8+ spécifiques observé à la tumeur. Afin d'étendre l'application des protéines αGC/sCD1d et d'améliorer leur efficacité, nous avons développé des fusions CD1d alternatives. Premièrement, une protéine αGC/sCD1d dimérique, qui permet d'augmenter l'avidité de la molécule CD1d pour les cellules iNKT. Dans un deuxième temps, nous avons fusionné la protéine αGC/sCD1d avec un scFv dirigé contre le récepteur 3 du facteur de croissance pour l'endothélium vasculaire (VEGFR-3), afin de cibler l'environnement de la tumeur. Dans l'ensemble, ces résultats démontrent que la thérapie médiée par la protéine recombinante αGC/sCD1d-scFv est une approche prometteuse pour rediriger l'immunité innée et adaptive vers le site tumoral. - Invariant Natural Killer T cells (iNKT) are potent activators of Natural Killer (NK), dendritic cells (DC) and T lymphocytes, and their anti-tumor activities have been well demonstrated. However, a single injection of the high affinity CD1d ligand alpha-galactosylceramide (αGC) leads to a strong but short-lived iNKT cell activation followed by a phase of long-term anergy, limiting the therapeutic use of this ligand. As a promising alternative, we have demonstrated that when αGC is loaded on recombinant soluble CD1d molecules (αGC/sCD1d), repeated injections in mice led to the sustained iNKT cell activation associated with continued cytokine secretion. Importantly, the retained reactivity of iNKT cell led to prolonged antitumor activity when the αGC/sCD1d was fused to an anti-tumor scFv fragments. Optimal inhibition of tumor growth was obtained only when mice were treated with the tumor-targeted αGC/CD1d-scFv fusion, whereas the irrelevant αGC/CD1d-scFv fusion was less efficient. When tested in a human system, the recombinant αGC/sCD1d-anti-HER2 and -anti-CEA fusion proteins were able to expand iNKT cells from PBMCs of healthy donors. Furthermore, the αGC/sCD1d-scFv fusion had the capacity to directly activate human iNKT cells clones without the presence of antigen-presenting cells (APCs), in contrast to the free αGC ligand. Most importantly, tumor cell killing by human iNKT cells was obtained only when co- incubated with the tumor targeted sCD1d-antitumor scFv, and their direct tumor cytotoxicity was superior to the bystander killing obtained with αGC-loaded APCs stimulation. To further enhance the anti-tumor effects, we exploited the ability of iNKT cells to transactivate the adaptive immunity, by combining the NKT/CD1d immunotherapy with a peptide cancer vaccine. Interestingly, synergistic effects were obtained when the αGC/sCD1d- anti-HER2 fusion treatment was combined with CpG ODN as adjuvant for the OVA peptide vaccine, as seen by higher numbers of activated antigen-specific CD8 T cells and NK cells, as compared to each regimen alone. The increased innate and adaptive immune responses upon combined tumor targeted sCD1d-scFv treatment and OVA/CpG vaccine were associated with a strong delay in B16-OVA-HER2 melanoma tumor growth, which correlated with an enrichment of antigen-specific CD8 cells at the tumor site. In order to extend the application of the CD1d fusion, we designed alternative CD1d fusion proteins. First, a dimeric αGC/sCD1d-Fc fusion, which permits to augment the avidity of the CD1d for iNKT cells and second, an αGC/sCD1d fused to an anti vascular endothelial growth factor receptor-3 (VEGFR-3) scFv, in order to target tumor stroma environment. Altogether, these results demonstrate that the iNKT-mediated immunotherapy via recombinant αGC/sCD1d-scFv fusion is a promising approach to redirect the innate and adaptive antitumor immune response to the tumor site.
Resumo:
BACKGROUND: Mild cognitive impairment (MCI) has been defined as a transitional state between normal aging and dementia. In many cases, MCI represents an early stage of developing cognitive impairment. Patients diagnosed with MCI do not meet the criteria for dementia as their general intellect and everyday activities are preserved, although minor changes in instrumental activities of daily living (ADL) may occur. However, they may exhibit significant behavioral and psychological signs and symptoms (BPS), also frequently observed in patients with Alzheimer's disease (AD). Hence, we wondered to what extent specific BPS are associated with cognitive decline in participants with MCI or AD. METHODS: Our sample consisted of 164 participants, including 46 patients with amnestic (single or multi-domain) MCI and 54 patients with AD, as well as 64 control participants without cognitive disorders. Global cognitive performance, BPS, and ADL were assessed using validated clinical methods at baseline and at two-year follow-up. RESULTS: The BPS variability over the follow-up period was more pronounced in the MCI group than in patients with AD: some BPS improve, others occur newly or worsen, while others still remain unchanged. Moreover, specific changes in BPS were associated with a rapid deterioration of the global cognitive level in MCI patients. In particular, an increase of euphoria, eating disorders, and aberrant motor behavior, as well as worsened sleep quality, predicted a decline in cognitive functioning. CONCLUSIONS: Our findings confirm a higher variability of BPS over time in the MCI group than in AD patients. Moreover, our results provide evidence of associations between specific BPS and cognitive decline in the MCI group that might suggest a risk of conversion of individuals with amnestic MCI to AD.
Resumo:
Experiential Learning Instruments (ELls) are employed to modify the leamer's apprehension and / or comprehension in experiential learning situations, thereby improving the efficiency and effectiveness of those modalities in the learning process. They involve the learner in reciprocally interactive and determining transactions with his/her environment. Experiential Learning Instruments are used to keep experiential learning a process rather than an object. Their use is aimed at the continual refinement of the learner's knowledge and skill. Learning happens as the leamer's awareness, directed by the use of Ells, comes to experience, monitor and then use experiential feedback from living situations in a way that facilitates knmvledge/skill acquisition, self-correction and refinement. The thesis examined the literature relevant to the establishing of a theoretical experiential learning framework within which ELls can be understood. This framework included the concept that some learnings have intrinsic value-knowledge of necessary information-while others have instrumental value-knowledge of how to learn. The Kolb Learning Cycle and Kolb's six characteristics of experiential learning were used in analyzing three ELls from different fields of learning-saxophone tone production, body building and interpersonal communications. The ELls were examined to determine their learning objectives and how they work using experiential learning situations. It was noted that ELls do not transmit information but assist the learner in attending to and comprehending aspects of personal experience. Their function is to telescope the experiential learning process.
Resumo:
Methods for both partial and full optimization of wavefunction parameters are explored, and these are applied to the LiH molecule. A partial optimization can be easily performed with little difficulty. But to perform a full optimization we must avoid a wrong minimum, and deal with linear-dependency, time step-dependency and ensemble-dependency problems. Five basis sets are examined. The optimized wavefunction with a 3-function set gives a variational energy of -7.998 + 0.005 a.u., which is comparable to that (-7.990 + 0.003) 1 of Reynold's unoptimized \fin ( a double-~ set of eight functions). The optimized wavefunction with a double~ plus 3dz2 set gives ari energy of -8.052 + 0.003 a.u., which is comparable with the fixed-node energy (-8.059 + 0.004)1 of the \fin. The optimized double-~ function itself gives an energy of -8.049 + 0.002 a.u. Each number above was obtained on a Bourrghs 7900 mainframe computer with 14 -15 hrs CPU time.
Resumo:
The purpose of this research study was to determine if the instructional model, Teaching Games for Understanding (TGfU), would allow for the successful teaching of sport to disengaged female students in Physical Education (PE) classes. An instrumental case study research design was used to determine grade nine female students’ experiences with TGfU, the factors of TGfU that facilitated their engagement, and the ways in which these students resisted engaging in TGfU. Data was collected through a pre and post TGfU unit focus group, participant observation, in-depth interviews, and researcher reflections. Results showed that TGfU caused an increase in the participants’ engagement in PE physically, mentally, and socially/emotionally. Future researchers could structure their entire study holistically and should examine TGfU’s impact on student engagement over the course of an entire semester. Subsequent studies should moreover examine the presence of disengagement within physically skilled students in PE.
Resumo:
We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.
Resumo:
Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.
Resumo:
It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.
Resumo:
"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en droit (LL.D.)"
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Cette thèse comporte trois essais en macroéconomie en économie ouverte et commerce international. Je considère tour à tour les questions suivantes: sous quelles conditions est-il optimal pour un pays de former une union économique? (essai 1); l'augmentation de la dispersion transversale des avoirs extérieurs nets des pays est-elle compatible avec une dispersion relativement stable des taux d'investissement? (essai 2); le risque de perte de marché à l'exportation du fait de l'existence des zones de commerce préférentiel joue t-il un rôle dans la décision des pays exclus de négocier des accords commerciaux à leur tour? (essai 3). Le premier essai examine les conditions d'optimalité d'une union économique. Il s'intéresse à une motivation particulière: le partage du risque lié aux fluctuations du revenu. Dans la situation initiale, les pays ont très peu d'opportunités pour partager le risque à cause des frictions: les marchés financiers internationaux sont incomplets et il n'y pas de mécanisme pour faire respecter les contrats de crédit entre pays. Dans ce contexte, une union économique apparait comme un arrangement qui pallie à ces frictions entre les pays membres seulement. Cependant, l'union dans son ensemble continue de faire face à ces frictions lorsqu'elle échange avec le reste du monde. L'arbitrage clé dans le modèle est le suivant. D'un coté, l'intégration économique permet un meilleur partage du risque entre pays membres et la possibilité pour le partenaire pauvre d'utiliser la ligne de crédit du partenaire riche en cas de besoin. De l'autre coté, l'union peut faire face à une limite de crédit plus restrictive parce que résilier la dette extérieure est moins coûteux pour les membres l'union. De plus, le fait que le partenaire pauvre peut utiliser la limite de crédit du partenaire riche génère une externalité négative pour ce dernier qui se retrouve plus fréquemment contraint au niveau des marchés internationaux des capitaux. En conformité avec les faits observés sur l'intégration économique, le modèle prédit que les unions économiques sont relativement peu fréquentes, sont plus susceptibles d'être créées parmi des pays homogènes, et généralement riches. Le deuxième essai porte sur la dispersion des avoirs extérieurs nets et la relation avec la dispersion des taux d'investissement. Au cours des récentes décennies, la dispersion croissante des déséquilibres extérieurs et les niveaux record atteints par certaines grandes économies ont reçu une attention considérable. On pourrait attribuer ce phénomène à une réduction des barrières aux mouvements internationaux des capitaux. Mais dans ce cas, il est légitime de s'attendre à une augmentation de la dispersion au niveau des taux d'investissement; ceci, parce que le financement des besoins en investissements constitue une raison fondamentale pour laquelle les pays échangent les capitaux. Les données indiquent cependant que la dispersion des taux d'investissement est restée relativement stable au cours des récentes décennies. Pour réconcilier ces faits, je construis un modèle d'équilibre général dynamique et stochastique où les pays sont hétérogènes en raison des chocs idiosyncratiques à leurs niveaux de productivité totale des facteurs. Au niveau des marchés internationaux des capitaux, le menu des actifs disponibles est restreint à une obligation sans risque et il n'y a pas de mécanisme pour faire respecter les contrats de crédit entre pays. A tout moment, un pays peut choisir de résilier sa dette extérieure sous peine d'exclusion financière et d'un coût direct. Ce coût direct reflète les canaux autres que l'exclusion financière à travers lesquels les pays en défaut sont pénalisés. Lorsque le modèle est calibré pour reproduire l'évolution de la dispersion transversale des avoirs extérieurs nets, il produit une dispersion relativement stable des taux d'investissement. La raison principale est que les incitations que les pays ont à investir sont liées à la productivité. Avec l'intégration financière, même si les opportunités d'emprunt se sont multipliées, les incitations à investir n'ont pas beaucoup changé. Ce qui permet de générer une dispersion accrue de la position des avoirs extérieurs nets des pays avec une dispersion relativement stable des taux d'investissement. Le troisième essai analyse un aspect de l'interdépendance dans la formation des accords commerciaux préférentiels: j'examine empiriquement si le risque de diversion des exportations en faveur des pays membres des zones de commerce préférentiel est un facteur déterminant dans la décision des pays exclus de ces accords de négocier un accord à leur tour. Je construis un indicateur qui mesure le potentiel de diversion des exportations auquel font face les pays et estime un modèle probit de formation des zones de commerce préférentiel créées entre 1961 et 2005. Les résultats confirment que les pays confrontés à un plus grand potentiel de détournement des échanges sont plus susceptibles de former une zone de commerce préférentiel à leur tour.
Resumo:
Le but général de la thèse consiste à mieux connaître l’influence du milieu d’évaluation (domicile vs clinique) sur la réalisation de tâches liées à la préparation de repas auprès de personnes âgées fragiles. La thèse s'articule autour de trois objectifs spécifiques, dont les résultats sont présentés dans le cadre de cinq articles scientifiques. Le premier objectif vise à faire état des connaissances relatives au concept de fragilité en ergothérapie et à l'influence du milieu d'évaluation auprès des personnes âgées fragiles. Dans un premier temps, une analyse critique d'écrits portant sur la fragilité a été effectuée. Les résultats (article 1) démontrent la pertinence du concept de fragilité en ergothérapie, en suggérant qu'une meilleure compréhension de ce concept puisse aider les ergothérapeutes à offrir aux personnes fragiles des soins et services mieux adaptés à leurs besoins. Dans un deuxième temps, une recension des études ayant comparé la réalisation d'activités de la vie domestique (AVD) entre les milieux d'évaluation a été réalisée. Les résultats (article 2) révèlent que les personnes âgées sans déficit cognitif important tendent à offrir une meilleure performance à domicile, plutôt qu'en milieu clinique, lors de la réalisation d'AVD. Quelques facteurs, tels que la familiarité avec l’environnement, contribueraient à expliquer cette différence entre les milieux d'évaluation. Cette recension critique suggère que des résultats similaires puissent être obtenus auprès de personnes âgées fragiles. Le second objectif cherche à comparer la réalisation de tâches liées à la préparation de repas entre les milieux d’évaluation auprès de personnes âgées fragiles. Pour atteindre cet objectif, trente-sept personnes âgées répondant aux critères de fragilité (Fried et al.,2001) ont été évaluées en milieux clinique et domiciliaire suivant un devis contrebalancé au moyen du Assessment of Motor and Process Skills (AMPS) et du Performance Assessment of Self-Care Skills (PASS). Les résultats (articles 3, 4 et 5) concourent, dans l'ensemble, à démontrer une meilleure performance des personnes fragiles lorsqu’elles sont évaluées à domicile. Le dernier objectif a pour but d'identifier les facteurs sociodémographiques,physiques, cognitifs, psychologiques et environnementaux susceptibles d'expliquer la différence entre les milieux d'évaluation. Les résultats de la thèse (articles 3, 4 et 5) tendent à démontrer que le déclin de certaines fonctions exécutives constitue un facteur prépondérant pour expliquer une meilleure performance à domicile. Nos analyses révèlent que d'autres facteurs cognitifs, sociodémographiques, psychologiques, physiques et environnementaux contribuent également, mais de façon moins importante, à la différence observée entre les milieux d'évaluation. Les résultats de cette thèse peuvent aider les ergothérapeutes à mieux distinguer les personnes âgées fragiles susceptibles de présenter une performance différente selon le milieu dans lequel elles sont évaluées et conséquemment, pour qui une visite à domicile devrait être préconisée. Les connaissances générées par la thèse pourraient ultimement contribuer à offrir aux personnes âgées fragiles des services mieux adaptés à leurs besoins, tout en favorisant une gestion efficiente des ressources en matière de santé.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.