16 resultados para factor analytic model
em Université de Montréal, Canada
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
INTRODUCTION : Les soins de première ligne au Québec vivent depuis quelques années une réorganisation importante. Les GMF, les cliniques réseaux, les CSSS, les réseaux locaux de service, ne sont que quelques exemples des nouveaux modes d’organisation qui voient le jour actuellement. La collaboration interprofessionnelle se trouve au cœur de ces changements. MÉTHODOLOGIE : Il s’agit d’une étude de cas unique, effectuée dans un GMF de deuxième vague. Les données ont été recueillies par des entrevues semi-dirigées auprès du médecin responsable du GMF, des médecins et des infirmières du GMF, et du cadre responsable des infirmières au CSSS. Les entrevues se sont déroulées jusqu’à saturation empirique. Des documents concernant les outils cliniques et les outils de communication ont aussi été consultés. RÉSULTATS : À travers un processus itératif touchant les éléments interactionnels et organisationnels, par l’évolution vers une culture différente, des ajustements mutuels ont pu être réalisés et les pratiques cliniques se sont réellement modifiées au sein du GMF étudié. Les participants ont souligné une amélioration de leurs résultats cliniques. Ils constatent que les patients ont une meilleure accessibilité, mais l’effet sur la charge de travail et sur la capacité de suivre plus de patients est évaluée de façon variable. CONCLUSION : Le modèle conceptuel proposé permet d’observer empiriquement les dimensions qui font ressortir la valeur ajoutée du développement de la collaboration interprofessionnelle au sein des GMF, ainsi que son impact sur les pratiques professionnelles.
Resumo:
L’agrégation érythrocytaire est le principal facteur responsable des propriétés non newtoniennes sanguines pour des conditions d’écoulement à faible cisaillement. Lorsque les globules rouges s’agrègent, ils forment des rouleaux et des structures tridimensionnelles enchevêtrées qui font passer la viscosité sanguine de quelques mPa.s à une centaine de mPa.s. Cette organisation microstructurale érythrocytaire est maintenue par des liens inter-globulaires de faible énergie, lesquels sont brisés par une augmentation du cisaillement. Ces propriétés macroscopiques sont bien connues. Toutefois, les liens étiologiques entre ces propriétés rhéologiques générales et leurs effets pathophysiologiques demeurent difficiles à évaluer in vivo puisque les propriétés sanguines sont dynamiques et fortement tributaires des conditions d’écoulement. Ainsi, à partir de propriétés rhéologiques mesurées in vitro dans des conditions contrôlées, il devient difficile d’extrapoler leurs valeurs dans un environnement physiologique. Or, les thrombophlébites se développent systématiquement en des loci particuliers du système cardiovasculaire. D’autre part, plusieurs études cliniques ont établi que des conditions hémorhéologiques perturbées constituent des facteurs de risque de thrombose veineuse mais leurs contributions étiologiques demeurent hypothétiques ou corrélatives. En conséquence, un outil de caractérisation hémorhéologique applicable in vivo et in situ devrait permettre de mieux cerner et comprendre ces implications. Les ultrasons, qui se propagent dans les tissus biologiques, sont sensibles à l’agrégation érythrocytaire. De nature non invasive, l’imagerie ultrasonore permet de caractériser in vivo et in situ la microstructure sanguine dans des conditions d’écoulements physiologiques. Les signaux ultrasonores rétrodiffusés portent une information sur la microstructure sanguine reflétant directement les perturbations hémorhéologiques locales. Une cartographie in vivo de l’agrégation érythrocytaire, unique aux ultrasons, devrait permettre d’investiguer les implications étiologiques de l’hémorhéologie dans la maladie thrombotique vasculaire. Cette thèse complète une série de travaux effectués au Laboratoire de Biorhéologie et d’Ultrasonographie Médicale (LBUM) du centre de recherche du Centre hospitalier de l’Université de Montréal portant sur la rétrodiffusion ultrasonore érythrocytaire et menant à une application in vivo de la méthode. Elle se situe à la suite de travaux de modélisation qui ont mis en évidence la pertinence d’un modèle particulaire tenant compte de la densité des globules rouges, de la section de rétrodiffusion unitaire d’un globule et du facteur de structure. Ce modèle permet d’établir le lien entre la microstructure sanguine et le spectre fréquentiel du coefficient de rétrodiffusion ultrasonore. Une approximation au second ordre en fréquence du facteur de structure est proposée dans ces travaux pour décrire la microstructure sanguine. Cette approche est tout d’abord présentée et validée dans un champ d’écoulement cisaillé homogène. Une extension de la méthode en 2D permet ensuite la cartographie des propriétés structurelles sanguines en écoulement tubulaire par des images paramétriques qui mettent en évidence le caractère temporel de l’agrégation et la sensibilité ultrasonore à ces phénomènes. Une extrapolation menant à une relation entre la taille des agrégats érythrocytaires et la viscosité sanguine permet l’établissement de cartes de viscosité locales. Enfin, il est démontré, à l’aide d’un modèle animal, qu’une augmentation subite de l’agrégation érythrocytaire provoque la formation d’un thrombus veineux. Le niveau d’agrégation, la présence du thrombus et les variations du débit ont été caractérisés, dans cette étude, par imagerie ultrasonore. Nos résultats suggèrent que des paramètres hémorhéologiques, préférablement mesurés in vivo et in situ, devraient faire partie du profil de risque thrombotique.
Resumo:
Bien que le travail soit bénéfique et souhaité par une majorité de personnes aux prises avec un trouble mental grave (TMG), les études réalisées auprès de cette clientèle montrent des taux d’emploi d’environ 10 à 20%. Parmi les services visant le retour au travail, les programmes de soutien à l’emploi (PSE) se sont montrés les plus efficaces avec des taux de placement en emploi standard oscillant entre 50 et 60%, sans toutefois garantir le maintien en emploi. Plusieurs études ont tenté de cerner les déterminants de l’obtention et du maintien en emploi chez cette population sans toutefois s’intéresser à la personnalité, et ce, bien qu’elle soit reconnue depuis toujours comme un déterminant important du fonctionnement des individus. De plus, peu de questionnaires d’évaluation de la personnalité selon le modèle de la personnalité en cinq facteurs (FFM) ont été utilisés auprès d’une clientèle avec un TMG et ceux-ci ont montré des propriétés psychométriques ne respectant pas des normes reconnues et acceptées. Cette thèse porte sur les liens entre la personnalité et l’intégration au travail chez les personnes avec un TMG. La première partie vise la validation d’un outil de mesure de la personnalité selon le FFM afin de répondre aux objectifs de la deuxième partie de la thèse. À cet effet, deux échantillons ont été recrutés, soit 259 étudiants universitaires et 141 personnes avec un TMG. Des analyses factorielles confirmatoires ont mené au développement d’un nouveau questionnaire à 15 items (NEO-15) dont les indices d’ajustement, de cohérence interne et de validité convergente respectent les normes établies, ce qui en fait un questionnaire bien adapté à la mesure de la personnalité normale dans des contextes où le temps d’évaluation est limité. La deuxième partie présente les résultats d’une étude réalisée auprès de 82 personnes aux prises avec un TMG inscrites dans un PSE et visant à identifier les facteurs d’obtention et de maintien en emploi chez cette clientèle, particulièrement en ce qui concerne la contribution des éléments normaux et pathologiques de la personnalité. Les résultats de régressions logistiques et de régressions de Cox (analyses de survie) ont démontré que l’historique d’emploi, les symptômes négatifs et le niveau de pathologie de la personnalité étaient prédictifs de l’obtention d’un emploi standard et du délai avant l’obtention d’un tel emploi. Une autre série de régressions de Cox a pour sa part démontré que l’esprit consciencieux était le seul prédicteur significatif du maintien en emploi. Malgré certaines limites, particulièrement des tailles d’échantillons restreintes, ces résultats démontrent la pertinence et l’importance de tenir compte des éléments normaux et pathologiques de la personnalité dans le cadre d’études portant sur l’intégration au travail de personnes avec un TMG. De plus, cette thèse a permis de démontrer l’adéquation d’un nouvel instrument de mesure de la personnalité auprès de cette clientèle. Des avenues futures concernant la réintégration professionnelle et le traitement des personnes avec un TMG sont discutées à la lumière de ces résultats.
Resumo:
Understanding the dynamics of interest rates and the term structure has important implications for issues as diverse as real economic activity, monetary policy, pricing of interest rate derivative securities and public debt financing. Our paper follows a longstanding tradition of using factor models of interest rates but proposes a semi-parametric procedure to model interest rates.
Resumo:
We study the workings of the factor analysis of high-dimensional data using artificial series generated from a large, multi-sector dynamic stochastic general equilibrium (DSGE) model. The objective is to use the DSGE model as a laboratory that allow us to shed some light on the practical benefits and limitations of using factor analysis techniques on economic data. We explain in what sense the artificial data can be thought of having a factor structure, study the theoretical and finite sample properties of the principal components estimates of the factor space, investigate the substantive reason(s) for the good performance of di¤usion index forecasts, and assess the quality of the factor analysis of highly dissagregated data. In all our exercises, we explain the precise relationship between the factors and the basic macroeconomic shocks postulated by the model.
Resumo:
Introduction: La circulation extracorporelle (CEC) peut entraîner une dysfonction endothéliale pulmonaire et l’hypertension pulmonaire. Le SN50 agit au niveau de la signalisation cellulaire pour prévenir ces réactions à la CEC et pourrait renverser la dysfonction endothéliale pulmonaire post-CEC sans effets néfastes sur l’hémodynamie. Méthodes: Quatre groups de porcs ont reçu un parmi quatre traîtements avant de subir 90 minutes de CEC et 60 minutes de reperfusion: (1) milrinone nébulisé; (2) sildenafil nébulisé; (3) placebo nébulisé; et (4) SN-50 intraveineux. Un monitoring hémodynamique invasif a été utilisé. La réactivité vasculaire des artères pulmonaires de deuxième ordre a été évaluée face à l’acétylcholine et la bradykinine. Résultats: Le sildénafil produit une augmentation significative de la pression de l’artère pulmonaire (PAP) moyenne à 60 minutes de reperfusion par rapport au début de la chirurgie. Les relaxations dépendantes de l’endothélium face à la bradykinine étaient meilleurs dans les groupes milrinone et SN-50 et surtout dans le groupe sildénafil par rapport au groupe placébo. Le SN-50 produisait de moins bonnes relaxations dépendantes de l’endothélium face à l’acétylcholine que les autres traitements incluant placébo. Conclusion: Le sildénafil prévient mieux la dysfonction endothéliale pulmonaire que les autres traitements. Les bénéfices du SN-50 sont possiblement sous-estimés vu que la dose n’a pas pu être ajustée à la durée de CEC. Le sildenafil inhalé mérite une étude plus importante chez l’humain et le SN-50 dans un model de CEC animal.
Resumo:
This paper assesses the empirical performance of an intertemporal option pricing model with latent variables which generalizes the Hull-White stochastic volatility formula. Using this generalized formula in an ad-hoc fashion to extract two implicit parameters and forecast next day S&P 500 option prices, we obtain similar pricing errors than with implied volatility alone as in the Hull-White case. When we specialize this model to an equilibrium recursive utility model, we show through simulations that option prices are more informative than stock prices about the structural parameters of the model. We also show that a simple method of moments with a panel of option prices provides good estimates of the parameters of the model. This lays the ground for an empirical assessment of this equilibrium model with S&P 500 option prices in terms of pricing errors.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est définie comme une courbure de la colonne vertébrale supérieure à 10 degrés, qui est de cause inconnue et qui affecte de façon prépondérante les adolescents. Des études précédentes sur des modèles murins ont démontré une inactivation partielle du gène Pitx1. Cette inactivation partielle provoque une déformation spinale sévère lors du développement des souris Pitx1+/-, ce qui est grandement similaire au phénotype de la SIA. En se basant sur ces observations, nous postulons que la perte de fonction de Pitx1 pourrait avoir un rôle dans la SIA et pourrait être régulée par des mécanismes moléculaires spécifiques. En effet, des études faites sur l’expression de Pitx1 révèlent une perte de son expression dans les ostéoblastes dérivés de patients SIA au niveau de l’ARNm. Nous émettons l’hypothèse que la perte de Pitx1 dans la SIA pourrait être déclenchée par des facteurs hypoxiques puisqu’il est connu que Pitx1 est réprimé par l’hypoxie et que HIF-2 alpha est surexprimés dans les ostéoblastes des patients SIA même dans des conditions normoxiques. De plus, nous avons découvert une mutation dans le domaine ODD des HIF-1 alpha chez certains patients SIA (3,1%). Une fonction connue de ce domaine est de stabiliser et d’augmenter l’activité transcriptionnelle de HIF-1 alpha dans des conditions normoxiques. Nous avons confirmé, par la technique EMSA, l’existence d’un élément de réponse fonctionnel à l’hypoxie au niveau du promoteur de Pitx1. Cependant, des co-transfections avec des vecteurs d’expression pour HIF-1 alpha et HIF-2 alpha, en présence de leur sous-unité beta ARNT, ont conduit à une activation du promoteur de Pitx1 dans la lignée cellulaire MG-63 ainsi que dans les ostéoblastes des sujets contrôles. Il est intéressant de constater qu’aucune activité du promoteur de Pitx1 dans les ostéoblastes SIA n’a été observée, même après la co-expression de HIF-2 alpha et ARNT, confirmant le fait que l’expression de Pitx1 est abrogée dans la SIA. Dans l’ensemble, nos résultats démontrent un rôle important de Pitx1 dans la SIA et une possible régulation par des facteurs hypoxiques.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Les lymphocytes B et T sont issus de cellules progénitrices lymphoïdes de la moelle osseuse qui se différencient grâce à l’action de facteurs de transcription, cytokines et voies de signalisation, dont l’interleukine-7 (IL-7)/IL-7 récepteur (IL-7R). Le facteur de transcription c-Myc est exprimé par les cellules lymphoïdes et contrôle leur croissance et leur différenciation. Cette régulation transcriptionnelle peut être coordonnée par le complexe c-Myc/Myc-Interacting Zinc finger protein-1 (Miz-1). Le but de ce projet était de comprendre les mécanismes qui impliquent Miz-1 et le complexe c-Myc/Miz-1 dans le développement des lymphocytes B et T. Pour réaliser ce projet, des souris déficientes pour le domaine de transactivation de Miz-1 (Miz-1POZ) et des souris à allèles mutantes pour c-MycV394D, mutation qui empêche l’interaction avec Miz-1, ont été générées. La caractérisation des souris Miz 1POZ a démontré que l’inactivation de Miz-1 perturbe le développement des lymphocytes B et T aux stades précoces de leur différenciation qui dépend de l’IL-7. L’analyse de la cascade de signalisation IL-7/IL-7R a montré que ces cellules surexpriment la protéine inhibitrice SOCS1 qui empêche la phosphorylation de STAT5 et perturbe la régulation à la hausse de la protéine de survie Bcl-2. De plus, Miz-1 se lie directement au promoteur de SOCS1 et contrôle son activité. En plus de contrôler l’axe IL-7/IL-7R/STAT5/Bcl-2 spécifiquement aux stades précoces du développement afin d’assurer la survie des progéniteurs B et T, Miz-1 régule l’axe EBF/Pax-5/Rag-1/2 dans les cellules B afin de coordonner les signaux nécessaires pour la différenciation des cellules immatures. La caractérisation des souris c-MycV394D a montré, quant à elle, que les fonctions de Miz-1 dans les cellules B et T semblent indépendantes de c-Myc. Les cellules T des souris Miz-1POZ ont un défaut de différenciation additionnel au niveau de la -sélection, étape où les signaux initiés par le TCR remplacent ceux induits par IL-7 pour assurer la prolifération et la différenciation des thymocytes en stades plus matures. À cette étape du développement, une forme fonctionnelle de Miz-1 semble être requise pour contrôler le niveau d’activation de la voie p53, induite lors du processus de réarrangement V(D)J du TCR. L’expression de gènes pro-apoptotiques PUMA, NOXA, Bax et du régulateur de cycle cellulaire p21CIP1 est régulée à la hausse dans les cellules des souris Miz-1POZ. Ceci provoque un débalancement pro-apoptotique qui empêche la progression du cycle cellulaire des cellules TCR-positives. La survie des cellules peut être rétablie à ce stade de différenciation en assurant une coordination adéquate entre les signaux initiés par l’introduction d’un TCR transgénique et d’un transgène codant pour la protéine Bcl-2. En conclusion, ces études ont montré que Miz-1 intervient à deux niveaux du développement lymphoïde: l’un précoce en contrôlant la signalisation induite par l’IL-7 dans les cellules B et T, en plus de l’axe EBF/Pax-5/Rag-1/2 dans les cellules B; et l’autre tardif, en coordonnant les signaux de survie issus par le TCR et p53 dans les cellules T. Étant donné que les thymocytes et lymphocytes B immatures sont sujets à plusieurs rondes de prolifération, ces études serviront à mieux comprendre l’implication des régulateurs du cycle cellulaire comme c-Myc et Miz-1 dans la génération des signaux nécessaires à la différenciation non aberrante et à la survie des ces cellules. Enfin, les modèles expérimentaux, souris déficientes ou à allèles mutantes, utilisés pour ce travail permettront de mieux définir les bases moléculaires de la transformation maligne des lymphocytes B et T et de révéler les mécanismes conduisant au lymphome.
Resumo:
Naïvement perçu, le processus d’évolution est une succession d’événements de duplication et de mutations graduelles dans le génome qui mènent à des changements dans les fonctions et les interactions du protéome. La famille des hydrolases de guanosine triphosphate (GTPases) similaire à Ras constitue un bon modèle de travail afin de comprendre ce phénomène fondamental, car cette famille de protéines contient un nombre limité d’éléments qui diffèrent en fonctionnalité et en interactions. Globalement, nous désirons comprendre comment les mutations singulières au niveau des GTPases affectent la morphologie des cellules ainsi que leur degré d’impact sur les populations asynchrones. Mon travail de maîtrise vise à classifier de manière significative différents phénotypes de la levure Saccaromyces cerevisiae via l’analyse de plusieurs critères morphologiques de souches exprimant des GTPases mutées et natives. Notre approche à base de microscopie et d’analyses bioinformatique des images DIC (microscopie d’interférence différentielle de contraste) permet de distinguer les phénotypes propres aux cellules natives et aux mutants. L’emploi de cette méthode a permis une détection automatisée et une caractérisation des phénotypes mutants associés à la sur-expression de GTPases constitutivement actives. Les mutants de GTPases constitutivement actifs Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V ont été analysés avec succès. En effet, l’implémentation de différents algorithmes de partitionnement, permet d’analyser des données qui combinent les mesures morphologiques de population native et mutantes. Nos résultats démontrent que l’algorithme Fuzzy C-Means performe un partitionnement efficace des cellules natives ou mutantes, où les différents types de cellules sont classifiés en fonction de plusieurs facteurs de formes cellulaires obtenus à partir des images DIC. Cette analyse démontre que les mutations Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V induisent respectivement des phénotypes amorphe, allongé, rond et large qui sont représentés par des vecteurs de facteurs de forme distincts. Ces distinctions sont observées avec différentes proportions (morphologie mutante / morphologie native) dans les populations de mutants. Le développement de nouvelles méthodes automatisées d’analyse morphologique des cellules natives et mutantes s’avère extrêmement utile pour l’étude de la famille des GTPases ainsi que des résidus spécifiques qui dictent leurs fonctions et réseau d’interaction. Nous pouvons maintenant envisager de produire des mutants de GTPases qui inversent leur fonction en ciblant des résidus divergents. La substitution fonctionnelle est ensuite détectée au niveau morphologique grâce à notre nouvelle stratégie quantitative. Ce type d’analyse peut également être transposé à d’autres familles de protéines et contribuer de manière significative au domaine de la biologie évolutive.
Resumo:
Les tumeurs des cellules de la granulosa (GCTs) sont des tumeurs avec un potentiel malin ayant tendance à récidiver, provoquant ainsi la mort dans 80% des cas de stade avancé consécutif à une rechute. Bien que les GCTs représentent 5% des tumeurs ovariennes, peu d’études ont évalué les protocoles de traitement adjuvant pour la maladie avancée ou récurrente. Notre but était d’évaluer l’efficacité de la voie de signalisation du facteur de croissance de l’endothélium vasculaire A (VEGFA) comme cible pour le traitement de la GCT utilisant le modèle murin transgénique Ptentm1Hwu/tm1Hwu; Ctnnb1tm1Mmt/+; Amhr2tm3(cre)Bhr/+ (PCA) qui reproduit le stade avancé de la maladie humaine. Un anticorps anti-VEGFA a été administré une fois par semaine par voie intrapéritonéale (IP) à partir de 3 semaines d’âge. La thérapie anti-VEGFA a permis une réduction de la taille des tumeurs à 6 semaines d’âge (p<0.05) et une prolongation de la survie des animaux traités, lorsque comparé aux animaux contrôles. L’analyse des GCTs a montré une réduction significative de la prolifération cellulaire (p<0.05) et de la densité microvasculaire (p<0.01) mais aucune différence significative n’a été détectée dans l’apoptose cellulaire. p44/p42 MAPK, un effecteur de la signalisation pour le récepteur 2 de VEGFA (VEGFR2) associé à la prolifération cellulaire, était moins activé dans les tumeurs traitées (p<0.05). Par contre, l’activation d’AKT, un effecteur impliqué dans la survie cellulaire, était similaire d’un groupe à l’autre. Ces résultats suggèrent que l’anticorps anti-VEGFA réduit la prolifération cellulaire et la densité microvasculaire chez les souris PCA par inhibition de la voie de signalisation VEGFR2-MAPK, inhibant ainsi la croissance tumorale. En conclusion, l’efficacité de la thérapie anti- VEGFA mérite d’être évaluée en essais contrôlés randomisés pour le traitement des GCTs chez l’homme.
Resumo:
Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.
Resumo:
Introduction: L'arthrose est caractérisée par une destruction progressive du cartilage, une inflammation synoviale, et un remodelage de l’os sous-chondral avec une production excessive des médiateurs inflammatoires et cataboliques. Nous avons démontré que le niveau du 4-hydroxynonénal (4-HNE), un produit de la peroxydation lipidique, est augmenté dans le cartilage humain arthrosique sans qu’on sache le mécanisme exacte impliqué dans l’augmentation de cette molécule. Des données de la littérature indiquent que l’accumulation du HNE est contrôlée par l’action de la glutathione S-transférase A4-4 (GSTA4-4), une enzyme impliquée dans la détoxification du HNE. Au niveau transcriptionel, l’expression de cette enzyme est régulée par la transactivation du facteur de transcription Nrf2. Objectif: L’objectif de cette étude vise à démontrer que l’augmentation du HNE dans le cartilage arthrosique est attribuée, en partie, à l’altération de l’expression de la GSTA4-4 et de Nrf2. Méthode: Le niveau d’expression de la GSTA4-4 et de Nrf2 a été mesurée par Western blot et par PCR en temps réel dans le cartilage humain arthrosique et dans le cartilage provenant des souris atteintes d’arthrose. Pour démontrer le rôle du Nrf2 dans l’arthrose, les chondrocytes humains arthrosiques ont été traités par l’interleukine 1beta (IL-1β) ou par le H2O2 en présence ou en absence des activateurs du Nrf2 tels que le Protandim®, AI, et du 6-Gingérol. Par ailleurs, les chondrocytes ont été transfectés par un vecteur d’expression de Nrf2 puis traités par l’IL-β. En utilisant le modèle d’arthrose chez la souris, les animaux ont été traités par voie orale de 10 mg/kg/jour de Protandim® pendant 8 semaines. Résultats: Nous avons observé une diminution significative de l’expression de la GSTA4-4 et de Nrf2 dans le cartilage humain et murin arthrosique. L'activation de Nrf2 bloque la stimulation de la métalloprotéinase-13 (MMP-13), la prostaglandine E2 (PGE2) et de l'oxyde nitrique (NO) par l’IL-1β. En outre, nous avons montré que l'activation Nrf2 protège les cellules contre la mort cellulaire induite par H2O2. Fait intéressant, l'administration orale de Protandim® réduit la production du HNE par l'intermédiaire de l’activation de la GSTA4. Nous avons démontré que le niveau d’expression de la GSTA4-4 et de Nrf2 diminue dans le cartilage provenant des patients et des souris atteints d’arthrose. De plus, la surexpression de ce facteur nucléaire Nrf2 empêche la production du HNE et la MMP-13 et l’inactivation de la GSTA4-4. Dans notre modèle expérimental d’arthrose induite par déstabilisation du ménisque médial chez la souris, nous avons trouvé que l'administration orale de Protandim® à 10 mg / kg / jour réduit les lésions du cartilage. Conclusion: Cette étude est de la première pour démontrer le rôle physiopathologique du Nrf2 in vitro et in vivo. Nos résultats démontrent que l’activation du Nrf2 est essentielle afin de maintenir l’expression de la GSTA4-4 et de réduire le niveau du HNE. Le fait que les activateurs du Nrf2 abolissent la production de la HNE et aussi un certain nombre de facteurs connus pour être impliqués dans la pathogenèse de l’arthrose les rend des agents cliniquement utiles pour la prévention de la maladie.