963 resultados para Modèle dynamique de la rechute
Resumo:
Les cellules souches embryonnaires (ES) sont porteuses de grands espoirs en recherche biomédicale dans le but d’apporter un traitement définitif à l’ostéoarthrose. Parce que certaines articulations des chevaux sont similaires à celles des humains, cet animal représente un modèle important dans l’évaluation de stratégies de régénération du cartilage. Cependant, pour expérimenter un traitement par les cellules ES chez le cheval, des cellules ES équines (eES) n’ont toujours pas pu être dérivées. Dans ce contexte, l’objectif principal de cette étude est de dériver des lignées de cellules eES. Le premier objectif de notre étude consiste à optimiser la technique de dérivation des cellules eES. Nous démontrons que la lignée de cellules nourricières et le stade de développement des embryons influencent l’efficacité de la technique de dérivation tandis que l’inhibition de voies de signalisation menant à la différenciation des cellules ES ne l’influence pas sous nos conditions. Le deuxième objectif de notre étude est de caractériser de façon plus approfondie les lignées de cellules eES obtenues. Nous démontrons que les cellules eES dérivées expriment autant des marqueurs associés aux cellules pluripotentes qu’aux cellules différenciées et que l’inhibition de voies de signalisation menant à la différenciation n’influence pas l’expression de ces marqueurs. Pour conclure, nous confirmons avoir dérivé des lignées de cellules semblables au cellules eES (eES-like) ne correspondant pas complètement aux critères des cellules ES.
Resumo:
L’ubiquitin-fold modifier (UFM1) fait partie de la classe 1 de la famille de protéine ubiquitin-like (Ubl). UFM1 et Ub ont très peu d’homologie de séquence, mais partagent des similarités remarquables au niveau de leur structure tertiaire. Tout comme l’Ub et la majorité des autres Ubls, UFM1 se lie de façon covalente à ses substrats par l’intermédiaire d’une cascade enzymatique. Il est de plus en plus fréquemment rapporté que les protéines Ubls sont impliquées dans des maladies humaines. Le gène Ufm1 est surexprimé chez des souris de type MCP développant une ischémie myocardique et dans les îlots de Langerhans de patients atteints du diabète de type 2. UFM1 et ses enzymes spécifiques, UBA5, UFL1 et UFC1, sont conservés chez les métazoaires et les plantes suggérant un rôle important pour les organismes multicellulaires. Le Caenorhabditis elegans est le modèle animal le plus simple utilisé en biologie. Sa morphologie, ses phénotypes visibles et ses lignées cellulaires ont été décrits de façon détaillée. De plus, son cycle de vie court permet de rapidement observer les effets de certains gènes sur la longévité. Ce modèle nous permet de facilement manipuler l’expression du gène Ufm1 et de mieux connaître ses fonctions. En diminuant l’expression du gène ufm-1 chez le C.elegans, par la technique de l’ARN interférence par alimentation, nous n’avons observé aucun problème morphologique grave. Les vers ressemblaient aux vers sauvages et possédaient un nombre de progéniture normal. Cependant, les vers sauvage exposés à l’ARNi d’ufm-1 vivent significativement moins longtemps que les contrôles et ce, de façon indépendante de la voie de signalisation de l’insuline/IGF. Chez le C. elegans la longévité et la résistance au stress cellulaire sont intimement liées. Nous n’avons remarqué aucun effet d’ufm-1 sur le stress thermal, osmotique ou oxydatif, mais il est requis pour la protection contre le stress protéotoxique. Il est également nécessaire au maintien de l’intégrité neuronale au cours du vieillissement des animaux. L’ensemble de nos données nous renseigne sur les fonctions putatives du gène Ufm1.
Resumo:
L’hépatite autoimmune (HAI) est une maladie grave affectant le foie et présentant un haut taux de mortalité lorsque non traitée. Les traitements disponibles sont efficaces, mais de graves effets secondaires leur sont associés. Ces effets secondaires sont généralement le résultat d'une forte immunosuppression et d’autres sont spécifiques à chaque médicament. Aucune immunothérapie spécifique n’est présentement disponible pour le traitement de l’HAI. Récemment, un modèle murin d’HAI a été développé dans notre laboratoire par xénoimmunisation des souris C57BL/6 avec les antigènes humains de l'HAI de type 2. Ce modèle présente la plupart des caractéristiques biochimiques et cliniques retrouvées chez les patients atteints d'HAI de type 2. Dans cette étude, nous avons évaluée l’efficacité de deux types de traitement pour l’HAI de type 2 à l’aide de notre modèle murin. Dans un premier temps, l’anticorps anti-CD3ε a été étudié en prophylaxie et en traitement. Nous avons montré qu’une posologie de 5µg d’anti-CD3 i.v. par jour pendant 5 jours consécutifs induit une rémission chez les souris avec HAI de type 2 établie (traitement). Cette rémission est caractérisée par une normalisation des niveaux d’alanine aminotransférase et une diminution significative de l’inflammation hépatique. Cette rémission semble être associée à une déplétion partielle et transitoire des lymphocytes T CD3+ dans la périphérie et une augmentation des lymphocytes T régulateurs CD4+, CD25+ et Foxp3+ dans le foie. La même posologie lorsqu’elle est appliquée en prophylaxie n’a pas réussi à prévenir l’apparition de l’HAI de type 2. La deuxième voie de traitement consiste en l’administration par voie intranasale d’un forte dose de formiminotransférase cyclodésaminase murin (mFTCD), un autoantigène reconnu dans l’HAI de type 2. Une administration en prophylaxie par voie intranasale de 100µg de mFTCD par jour durant 3 jours consécutifs arrive à prévenir l’HAI de type 2 en diminuant l’inflammation hépatique au bout de deux semaines post-traitement.
Resumo:
Ce mémoire présente une étude de la morphologie de ce qui est généralement appelé le pluriel nominal du persan (parler de Téhéran) dans le cadre d’une théorie de la morphologie basée sur le mot : Whole Word Morphology, développée par Ford et Singh (1991). Ce modèle lexicaliste adopte une position plus forte que les modèles proposés par Aronoff (1976) et Anderson (1992) en n’admettant aucune opération morphologique sur des unités plus petites que le mot. Selon cette théorie, une description morphologique consiste en l’énumération des Stratégies de Formation de Mots (SFM), licencées chacunes par au moins deux paires de mots ayant la même covariation formelle et sémantique. Tous les SFM suit le même schéma. Nous avons répertorié 49 SFM regroupant les pluriels et les collectifs. Nous constatons qu’il est difficile de saisir le pluriel nominal du persan en tant que catégorie syntaxique et que les différentes « marques du pluriel » présentées dans la littérature ne constituent pas un ensemble homogène : elles partagent toutes un sens de pluralité qui cependant varie d’une interprétation référentielle à une interprétation collective non-référentielle. Cette étude vise la déscription de la compétence morphologique, ce qui ne dépend d’aucune considération extralinguistique. Nous argumentons notamment contre la dichotomie arabe/persan généralement admise dans la littérature. Nous avons également fourni des explications quant à la production des pluriels doubles et avons discuté de la variation supposée du fait d’un choix multiple de « marques du pluriel ».
Resumo:
Codirecteur de recherche: Dr Sylvain Meloche
Resumo:
Face aux pressions continues que subissent les systèmes de santé, de nombreuses réformes sont perpétuellement en cours pour améliorer le processus de soins et par conséquent, offrir des soins de qualité et accroître le niveau de santé des populations. Les réformes que connaissent actuellement les systèmes de santé visent à optimiser l’impact des services sur la santé de la population en introduisant le concept de la responsabilité populationnelle. Par ailleurs, il existe de plus en plus un consensus sur la nécessité d’établir une relation directe et durable entre les prestataires et la population des territoires desservies pour être en mesure de tenir compte des contextes personnels et sociaux des patients et de leurs familles et pour assurer la continuité des soins dans le temps et d’un service à l’autre. Cette thèse porte sur la Programmation régionale de services ambulatoires (PRSA) de Laval. Elle analyse cette programmation comme une solution innovatrice dans la mise en œuvre de la responsabilisation populationnelle des soins. La stratégie de recherche combine à la fois une revue intégrative de la littérature qui vise à analyser le bien-fondé de la PRSA; une étude quasi-expérimentale pour examiner ses effets; et enfin, une recherche synthétique de cas pour comprendre l’évolution de la PRSA et analyser l’institutionnalisation du changement dans les organisations de la santé. Dans le premier article, nous nous sommes employés à analyser le bien fondé c’est-à-dire la plausibilité des mécanismes causaux présumés. La PRSA est un modèle d’intégration régionale basée sur une approche populationnelle. La stratégie de réseaux intégrés de soins et de case management combinée avec une approche populationnelle telle que mise de l’avant par le PRSA sont trois éléments essentiels en faveur d’une responsabilité populationnelle des soins. À l’aide d’une revue intégrative de la littérature, nous avons démontré qu’il s’agit d’une programmation capable de consolider une intégration régionale en mettant de l’avant une approche populationnelle permettant de bien cibler les besoins des populations du territoire à desservir. Le deuxième article examine les effets populationnels de la PRSA en termes de réduction de la durée moyenne de séjour et de l’augmentation de la rétention régionale. Une approche quasi expérimentale a été utilisée. En ce qui concerne la durée moyenne de séjour, on n’observe aucune diminution pour l’asthme ni pour la démence. Par contre, il est plausible que l’implantation de la PRSA ait permis une diminution de la durée moyenne de séjour pour les maladies coronariennes, les MPOC, l’embolie pulmonaire et le cancer du sein. Pour la rétention régionale, aucun effet n’a été observé pour les MPOC, l’embolie pulmonaire et la démence. Une augmentation de la rétention régionale a été observée pour les maladies coronariennes, l’asthme et le cancer du sein. Cette augmentation pourrait être attribuée à la PRSA. Dans le troisième article, nous avons examiné les facteurs susceptibles d’expliquer l’évolution de la PRSA. En partant du point de vue des responsables de la programmation de la PRSA et les gestionnaires actuels de la programmation de services de la région de Laval, nous avons tenté de mieux cerner les facteurs qui ont provoqué la suspension du déploiement de la PRSA. Les résultats indiquent que les changements fréquents dans les structures dirigeantes du réseau de la santé ainsi que l’interférence de plusieurs autres réformes ont été un obstacle dans le maintien de la PRSA. Dans le contexte actuel des réformes en santé où l’approche de réseaux intégrés de soins et de responsabilité populationnelle sont mises de l’avant, les résultats de cette thèse apportent un éclairage certain sur l’opérationnalisation de ces orientations.
Resumo:
Contexte : Les premières implantations PACS (Picture Archiving and Communication System) remontent aux années 80. Le rehaussement récent du PACS au sein d’un centre hospitalier universitaire a permis d’étudier l’introduction d’innovations dans une technologie mature. Objectif : Dans un premier temps, effectuer une revue de la littérature sur les études évaluant la perceptions des utilisateurs de l’implantation des PACS. Deuxièmement, évaluer dans une étude de cas si le niveau d’alignement entre les tâches et la technologie prédit l’utilisation et la perception des bénéfices. Méthodes : Il y a eu une revue systématique de la littérature afin d’identifier les études sur la perception des utilisateurs du PACS. Une adaptation du modèle TTF (Task-Technology-Fit) développé par Goodhue (1995) a servi de base théorique pour l’étude de cas effectuée par questionnaire auto-administré. Résultats : Les modèles recensés dans la revue systématique sont mieux adaptés à des nouvelles implantions PACS qu’à des systèmes matures en évolution. Il y a une corrélation significative entre le niveau de l’alignement, tel que perçu par les utilisateurs, et la perception des bénéfices nets, ainsi que l’utilisation de la technologie. L’étude a démontré un écart entre la perception des utilisateurs et celle des développeurs interviewés. Conclusions : Cette étude supporte la validité du concept alignement tâche-technologie dans l’analyse d’un rehaussement PACS. Il est important de maintenir une interaction soutenue entre développeurs et utilisateurs, qui va audelà de la phase initiale de développement.
Resumo:
Cette thèse a pour but de documenter la réorganisation des services effectuée au programme Enfants et adolescents (PEA) du Centre de réadaptation Estrie, Sherbrooke. Une démarche de recherche-action participative (RAP) est utilisée afin de collaborer au développement, à l’implantation et à l’évaluation d’un nouveau modèle de services visant à accroître l’accessibilité et la qualité des services de réadaptation offerts aux enfants ayant une déficience physique. Spécifiquement, les objectifs sont : 1) de documenter les retombées de la réorganisation des services; 2) de réaliser une analyse critique du processus de changement. Des méthodes quantitatives et qualitatives sont utilisées afin d’atteindre ces objectifs. Tout d’abord, la Mesure des processus de soins (MPOC) documente la perception de la qualité avant (2007), pendant (2008) et après (2009) l’implantation du nouveau modèle de services. Au total, cet outil est employé auprès de 222 familles et 129 intervenants. À quatre reprises, les intervenants et les gestionnaires répondent également à un questionnaire sur leurs perceptions des forces, des faiblesses, des opportunités et des menaces au PEA. En 2008 et en 2009, des focus groups et des entrevues téléphoniques sont réalisées auprès des familles (n=5), des intervenants (n=19) et des gestionnaires (n=13) afin de documenter leurs perceptions sur le processus de changement et sur les retombées de la réorganisation des services. Quant à l’observation participante, elle permet de recueillir de l’information sur le processus de réorganisation des services tout au long de ces trois années. Enfin, les informations recueillies sont analysées à l’aide de différentes approches, dont des tests statistiques et des analyses de contenu utilisant une grille de codification inspirée de la théorie des systèmes d’actions organisées. Les résultats indiquent que davantage d’enfants reçoivent des services en 2009 en comparaison à 2007. De plus, la qualité des services s’est maintenue selon les perceptions évaluées par la MPOC (article 1). L’utilisation d’interventions de groupe contribue fort probablement à augmenter le nombre d’enfants qui reçoivent des services, mais plusieurs défis doivent être adressés afin que cette modalité d’intervention soit réellement efficiente (article 2). Les résultats font ressortir que le processus de réorganisation des services est complexe. L’évaluation des forces, des faiblesses, des opportunités et des menaces d’un programme, de même que l’implication des acteurs dans le processus de développement d’un nouveau modèle de services, favorisent l’amélioration continue de la qualité (article 3). Or, les facilitateurs et les obstacles à l’implantation du nouveau modèle de services évoluent durant la réorganisation des services. Considérant cela, il est important de poser les actions nécessaires afin de soutenir le changement tout au long du processus (article 4). En résumé, cette thèse contribue à l’avancement des connaissances en réadaptation en comblant une lacune dans les écrits scientifiques. En effet, peu de projets visant le développement et l’implantation de nouveaux modèles de services sont évalués et documentés. Pourtant, des modèles tels que celui développé par le PEA semblent prometteurs afin d’améliorer l’accessibilité, et éventuellement, la qualité des services de réadaptation chez l’enfant.
Resumo:
La consommation des jeunes placés dans les centres jeunesse du Québec est bien documentée, mais leurs motivations à consommer, à changer ou à parler de leur consommation avec un intervenant demeurent inconnues. Par ailleurs, très peu de chercheurs se sont intéressés aux particularités du processus de changement à l’adolescence et encore moins à ce processus dans un contexte d’autorité. Pour ces raisons, la présente recherche donne la parole aux jeunes afin de mieux comprendre leur usage de substances psychoactives, leur désir éventuel de réduire ou d’arrêter leur consommation, leur ouverture à réfléchir ou à discuter de leur consommation et leur ouverture envers les interventions disponibles. Basés sur une collecte de données qualitatives composée de 27 entrevues avec les jeunes hébergés au Centre jeunesse de Montréal et de huit mois d’observations participantes dans les unités de vie, les résultats indiquent que la majorité des adolescents interviewés disent consommer diverses substances psychoactives pour lesquelles ils identifient différentes sources de motivation, autant à consommer qu’à changer leur consommation. De plus, ces sources de motivation identifiées sont plus ou moins associées au contexte d’autorité dans lequel les jeunes sont placés. Ainsi, si certains jeunes estiment que la possibilité de changement est facilitée par l’environnement contrôlé du Centre jeunesse, pour d’autres, les contraintes de ce milieu de vie ne semblent pas avoir d’impact sur leur motivation. Par ailleurs, les jeunes démontrent différents degrés d’ouverture envers les interventions disponibles et envers les éducateurs qui les côtoient. En général, les approches compréhensives et moins autoritaires semblent encourager un certain investissement de la relation entre jeunes et éducateurs et peuvent potentiellement faciliter l’établissement d’une relation d’aide et le changement de comportement. En utilisant le cadre théorique proposé, une combinaison du Modèle transthéortique du changement et de la Théorie de l’auto-détermination, il apparaît limité de considérer les jeunes en difficulté comme étant motivés ou non motivés à changer leur consommation. Les analyses démontrent que les perceptions de la nécessité ou des possibilités d’amorcer un processus de changement varient beaucoup d’un jeune à l’autre. Ainsi, l’approche choisie pour intervenir auprès des jeunes en difficulté devrait prendre en considération les nuances et la dynamique des motivations afin de mieux adapter les services offerts et de mieux comprendre les raisons associées au succès et à l’échec de certaines interventions et intervenants vis-à-vis de certains adolescents. En outre, afin de favoriser une perception positive du « placement » et pour que les jeunes le voient comme une « opportunité de changement », il apparaît important d’examiner la fréquence et l’intensité des interventions contraignantes appliquées dans les centres de réadaptation. Finalement, il importe de mentionner que les conclusions de cette étude exploratoire ne permettent d’établir des relations causales entre l’approche choisie par l’intervenant, la motivation à changer et l’ouverture des jeunes. Cependant, les données obtenues permettent d’analyser en profondeur les représentations que les jeunes ont des relations entre ces trois éléments.
Resumo:
Bien que les chercheurs fassent état de l ’importance croissante de l ’individualisme en droit québécois de la famille, il n ’est pas clair que ces conclusions soient fondées sur une définition constante du phénomène. Il est primordial de comprendre la dynamique mouvante de cette tendance, ses caractéristiques ainsi que son lien avec le droit. Au moyen d ’une approche socio-juridique, le présent mémoire décrit ce phénomène et définit trois indicateurs pour explorer si et comment le droit social et privé québécois de la famille s ’individualise autour de la mère au foyer. Au final, le mémoire démontre que le droit de la famille vise, reconnaît et supporte concrètement très peu la mère au foyer. L ’observation de ce cas a plutôt mis en lumière une tendance à la diminution de mesures ou services qui la supportent, tendance qui est notamment liée à la fiscalisation, la contractualisation et l ’octroi d ’une large discrétion judiciaire.
Resumo:
Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.
Rôle des centrosomes dans la régulation du point de contrôle en G2/M en réponse aux dommages à l'ADN
Resumo:
Les centrosomes sont les centres organisateurs des microtubules et jouent un rôle crucial dans l’organisation du fuseau bipolaire pendant la mitose. Plus récemment, le rôle des centrosomes dans la régulation de l’entrée en mitose a été mis en évidence. Les centrosomes semblent également contribuer à l’activation du point de contrôle en G2/M en réponse aux lésions de l’ADN en servant de point de rencontre pour les régulateurs du cycle cellulaire et les gènes de réponse aux dommages à l’ADN. L’amplification du nombre de centrosomes est une caractéristique des cellules tumorales mais de façon intéressante, elle constitue aussi une réponse des cellules aux dommages à l’ADN. Les mécanismes qui régulent l’homéostasie et la dynamique des centrosomes sont encore mal compris. Pour mieux comprendre le rôle des centrosomes dans la régulation du point de contrôle en G2/M en réponse aux dommages à l’ADN, le recrutement et/ou l’activation au niveau des centrosomes des kinases impliquées dans les voies de signalisation de ce point de contrôle ont été étudiés par immunofluorescence indirecte sur cellules HeLaS3 ou par Western blot sur des fractions enrichies en centrosomes. Nos résultats montrent que les kinases ATM, ATR, CHK1 et CHK2 sont actives dans les centrosomes de cellules en phase G2. En réponse à l’activation du point de contrôle en G2/M, les formes actives de ces kinases diminuent au niveau des centrosomes. Pour identifier de nouveaux acteurs centrosomaux potentiellement impliqués dans la régulation de ce point de contrôle, une analyse comparative des protéomes de centrosomes purifiés a également été réalisée par spectrométrie de masse. Pour étudier plus particulièrement la fonction de CHK2 au niveau des centrosomes, nous avons développer des outils moléculaires qui serviront à déterminer le rôle de la sous population de CHK2 localisée aux centrosomes 1) dans la régulation de l’entrée en mitose au cours d’un cycle normal 2) dans l’activation et la stabilité du point de contrôle en G2/M en réponse aux lésions l’ADN et 3) dans l’homéostasie et la dynamiques des centrosomes en réponse aux dommages à l’ADN. Cette étude permettra de mieux comprendre la fonction des centrosomes dans la réponse cellulaire au stress génotoxiques anti-cancereux et de révéler de nouvelles fonctions potentielles pour la kinase CHK2.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.