1000 resultados para Régions de confiance
Resumo:
Les ribozymes sont des ARN catalytiques fréquemment exploités pour le développement d’outils biochimiques et d’agents thérapeutiques. Ils sont particulièrement intéressants pour effectuer l’inactivation de gènes, en permettant la dégradation d’ARNm ou d’ARN viraux associés à des maladies. Les ribozymes les plus utilisés en ce moment pour le développement d’agents thérapeutiques sont les ribozymes hammerhead et hairpin, qui permettent la reconnaissance spécifique d’ARN simple brin par la formation de structures secondaires stables. In vivo, la majorité des ARN adoptent des structures secondaires et tertiaires complexes et les régions simples brins sont parfois difficiles d’accès. Il serait intéressant de pouvoir cibler des ARN repliés et un motif d’ARN intéressant à cibler est la tige-boucle d’ARN qui peut être importante dans le repliement global des ARN et pour accomplir des fonctions biologiques. Le ribozyme VS de Neurospora fait la reconnaissance de son substrat replié en tigeboucle de façon spécifique par une interaction kissing-loop, mais il n’a jamais été exploité pour faire la reconnaissance d’un ARN cible très différent de son substrat naturel. Le but des travaux présentés dans cette thèse est de déterminer si le ribozyme VS possède l’adaptabilité nécessaire pour l’ingénierie de ribozymes qui clivent des ARN cibles différents du substrat naturel. Dans le cadre de cette thèse, le ribozyme VS a été modifié pour l’adapter à différents substrats et des études de cinétiques ont été réalisées pour évaluer l’impact de ces modifications sur l’activité de clivage du ribozyme. Dans un premier temps, le ribozyme a été modifié pour faire la reconnaissance et le clivage de substrats possédant différentes longueurs de tiges Ib. Le ribozyme a été adapté avec succès à ces substrats de différentes longueurs de tige Ib, avec une activité qui est similaire à celle du ribozyme avec un substrat sans modification. Dans un deuxième temps, c’est l’interaction kissing-loop I/V du ribozyme qui a été substituée de façon rationnelle, dans le but de savoir si un ribozyme VS mutant peut reconnaitre et cliver un substrat ayant une boucle différente de celle de son substrat naturel. L’interaction kissing-loop I/V a été substituée pour les interactions kissing-loop TAR/TAR* de l’ARN du VIH-1 et L22/L88 de l’ARN 23S de Deinococcus radiodurans. La réaction de iii clivage des ribozymes comportant ces nouvelles interactions kissing-loop est toujours observée, mais avec une activité diminuée. Finalement, la sélection in vitro (SELEX) de ribozymes a été effectuée pour permettre un clivage plus efficace d’un substrat mutant avec une nouvelle boucle. Le SELEX a permis la sélection d’un ribozyme qui clive un substrat avec une boucle terminale mutée pour celle de l’ARN TAR du VIH-1 et cela avec une activité de clivage très efficace. L’ensemble de ces études démontre que le ribozyme VS peut être modifié de diverses façons pour la reconnaissance spécifique de différents substrats, tout en conservant une bonne activité de clivage. Ces résultats montrent le grand potentiel d’ingénierie du ribozyme VS et sont prometteurs pour la poursuite d’études d’ingénierie du ribozyme VS, en vue du clivage d’ARN cibles repliés en tige-boucle complètement différents du substrat naturel du ribozyme VS.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Les organismes de promotion gourmands sont bien implantés au Québec. En effet, à l’aide des regroupements de producteurs locaux, la majorité des régions touristiques possèdent leur marque de commerce régionale gourmande favorisant le développement économique des régions du Québec. Sachant que ces organismes de promotions gourmands sont de propriété collective et qu’ils disposent tous d’un cahier de charges pouvant être plus ou moins exigeant d’une région à l’autre, une recension des écrits a permis d’établir les principales attentes qu’entretiennent les divers segments de marché (i.e., clientèle locale, clientèle touristique, clientèle originaire de la région promotionnelle de l’organisme et clientèle non originaire de la région promotionnelle de l’organisme) envers ceux-ci. L’objectif est de vérifier si ces divers types de clientèles entretiennent des attentes différentes vis-à-vis les entreprises membres d’un organisme de promotion gourmand, en plus d’analyser si ces diverses clientèles évaluent la performance des entreprises membres de Gaspésie Gourmande de la même manière. Un questionnaire a été mis à la disposition des répondants sur le site internent de Gaspésie Gourmande. Les résultats indiquent qu’il y a quelques différences entre ces divers types de clientèles quant aux variables étudiées. De plus, une analyse des écarts « performances perçues – attentes » selon la méthodologie du paradigme de confirmation / disconfirmation des attentes a permis de savoir si Gaspésie Gourmande répond aux attentes des divers segments de marché.
Resumo:
Suite à l’exposition à des facteurs de risque incluant la malnutrition, la dyslipidémie, la sédentarité et les désordres métaboliques, les maladies cardiovasculaires (MCV) sont caractérisées par un état pro-oxydant et pro-inflammatoire, et une dérégulation de l’expression de divers facteurs responsables de l’homéostasie de l’environnement rédox et inflammatoire. L’implication d’enzymes antioxydantes telles que les superoxyde dismutases (SOD) et les glutathion peroxydases (Gpx), ainsi que la contribution de médiateurs pro-inflammatoires tels que l’angiopoietin-like 2 (Angptl2) ont été rapportées dans le cadre des MCV. Toutefois, les mécanismes moléculaires sensibles aux facteurs de risque et menant au développement des MCV sont peu connus. L’épigénétique est un mécanisme de régulation de l’expression génique sensible aux stimuli extracellulaires et pourrait donc contribuer au développement des MCV. La méthylation de l’ADN est un des mécanismes épigénétiques pouvant varier tant de manière gène-spécifique qu’à l’échelle génomique, et la conséquence de tels changements sur l’expression des gènes ciblés dépend du site de méthylation. Puisqu’il a été démontré que des variations au niveau de la méthylation de l’ADN peuvent être associées à divers contextes pathologiques incluant les MCV, le but de nos travaux était d’étudier le lien entre la méthylation de gènes antioxydants et pro-inflammatoires avec leurs répercussions fonctionnelles biologiques en présence de facteurs de risques associés aux MCV, tels que le vieillissement, la dyslipidémie et la sédentarité. Dans la première étude, nous avons observé que dans l’artère fémorale de souris vieillissantes, la méthylation au niveau du promoteur du gène Sod2, codant pour l’enzyme antioxydante superoxyde dismutase de type 2 (SOD2 ou MnSOD), diminue avec l’âge. Ceci serait associé à l’induction de l’expression de MnSOD, renforçant ainsi la défense antioxydante endogène. Le vieillissement étant associé à une accumulation de la production de radicaux libres, nous avons étudié la vasodilatation dépendante de l’endothélium qui est sensible au stress oxydant. Nous avons observé que la capacité vasodilatatrice globale a été maintenue chez les souris âgées, aux dépens d’une diminution des facteurs hyperpolarisants dérivés de l’endothélium (EDHF) et d’une contribution accentuée de la voie du monoxyde d’azote (NO). Nous avons ensuite utilisé deux approches visant à réduire les niveaux de stress oxydant in vivo, soit la supplémentation avec un antioxydant, la catéchine, et l’exposition chronique à de l’exercice physique volontaire. Ces interventions ont permis de prévenir à la fois les changements au niveau de la fonction endothéliale et de l’hypométhylation de Sod2. Cette première étude démontre donc la sensibilité de la méthylation de l’ADN à l’environnement rédox. Dans la deuxième étude, nous avons démontré une régulation de l’expression de l’enzyme antioxydante glutathion peroxydase 1 (Gpx1) en lien avec la méthylation de son gène codant, Gpx1, dans un contexte de dyslipidémie sévère. Nos résultats démontrent que dans le muscle squelettique de souris transgéniques sévèrement dyslipidémiques (LDLr-/-; hApoB+/+), Gpx1 est hyperméthylé, ce qui diminue l’expression de Gpx1 et affaiblit la défense antioxydante endogène. Chez ces souris, l’exercice physique chronique a permis d’augmenter l’expression de Gpx1 en lien avec une hypométhylation transitoire de son gène. Cette étude démontre que le stress oxydant associé à la dyslipidémie sévère altère les mécanismes de défense antioxydante, en partie via un mécanisme épigénétique. De plus, on observe également que l’exercice physique permet de renverser ces effets et peut induire des changements épigénétiques, mais de manière transitoire. La troisième étude avait pour but d’étudier la régulation de l’Angptl2, une protéine circulante pro-inflammatoire, dans le contexte des MCV. Nous avons observé que chez des patients coronariens, la concentration circulante d’Angptl2 est significativement plus élevée que chez des sujets sains et ce, en lien avec une hypométhylation de son gène, ANGPTL2, mesurée dans les leucocytes circulants. Nous sommes les premiers à démontrer qu’en réponse à l’environnement pro-inflammatoire associé à une MCV, l’expression de l’Angptl2 est stimulée par un mécanisme épigénétique. Nos études ont permis d’identifier des nouvelles régions régulatrices différentiellement méthylées situées dans les gènes impliqués dans la défense antioxydante, soit Sod2 en lien avec le vieillissement et Gpx1 en lien avec la dyslipidémie et l’exercice. Nous avons également démontré un mécanisme de régulation de l’Angptl2 dépendant de la méthylation d’ANGPTL2 et ce, pour la première fois dans un contexte de MCV. Ces observations illustrent la nature dynamique de la régulation épigénétique par la méthylation de l’ADN en réponse aux stimuli environnementaux. Nos études contribuent ainsi à la compréhension et l’identification de mécanismes moléculaires impliqués dans le développement du phénotype pathologique suite à l’exposition aux facteurs de risque, ce qui ouvre la voie à de nouvelles approches thérapeutiques.
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.
Resumo:
La maladie de Parkinson (MP) est une maladie neurodégénérative qui se caractérise principalement par la présence de symptômes moteurs. Cependant, d’autres symptômes, dits non moteurs, sont fréquents dans la MP et assombrissent le pronostic; ceux ci incluent notamment les désordres du sommeil et les troubles cognitifs. De fait, sur une période de plus de 10 ans, jusqu’à 90 % des patients avec la MP développeraient une démence. L’identification de marqueurs de la démence dans la MP est donc primordiale pour permettre le diagnostic précoce et favoriser le développement d’approches thérapeutiques préventives. Plusieurs études ont mis en évidence la contribution du sommeil dans les processus de plasticité cérébrale, d’apprentissage et de consolidation mnésique, notamment l’importance des ondes lentes (OL) et des fuseaux de sommeil (FS). Très peu de travaux se sont intéressés aux liens entre les modifications de la microarchitecture du sommeil et le déclin cognitif dans la MP. L’objectif de cette thèse est de déterminer, sur le plan longitudinal, si certains marqueurs électroencéphalographiques (EEG) en sommeil peuvent prédire la progression vers la démence chez des patients atteints de la MP. La première étude a évalué les caractéristiques des OL et des FS durant le sommeil lent chez les patients avec la MP selon qu’ils ont développé ou non une démence (MP démence vs MP sans démence) lors du suivi longitudinal, ainsi que chez des sujets contrôles en santé. Comparativement aux patients MP sans démence et aux sujets contrôles, les patients MP démence présentaient au temps de base une diminution de la densité, de l’amplitude et de la fréquence des FS. La diminution de l’amplitude des FS dans les régions postérieures était associée à de moins bonnes performances aux tâches visuospatiales chez les patients MP démence. Bien que l’amplitude des OL soit diminuée chez les deux groupes de patients avec la MP, celle ci n’était pas associée au statut cognitif lors du suivi. La deuxième étude a évalué les marqueurs spectraux du développement de la démence dans la MP à l’aide de l’analyse quantifiée de l’EEG en sommeil lent, en sommeil paradoxal et à l’éveil. Les patients MP démence présentaient une diminution de la puissance spectrale sigma durant le sommeil lent dans les régions pariétales comparativement aux patients MP sans démence et aux contrôles. Durant le sommeil paradoxal, l’augmentation de la puissance spectrale en delta et en thêta, de même qu’un plus grand ratio de ralentissement de l’EEG, caractérisé par un rapport plus élevé des basses fréquences sur les hautes fréquences, était associée au développement de la démence chez les patients avec la MP. D’ailleurs, dans la cohorte de patients, un plus grand ralentissement de l’EEG en sommeil paradoxal dans les régions temporo occipitales était associé à des performances cognitives moindres aux épreuves visuospatiales. Enfin, durant l’éveil, les patients MP démence présentaient au temps de base une augmentation de la puissance spectrale delta, un plus grand ratio de ralentissement de l’EEG ainsi qu’une diminution de la fréquence dominante occipitale alpha comparativement aux patients MP sans démence et aux contrôles. Cette thèse suggère que des anomalies EEG spécifiques durant le sommeil et l’éveil peuvent identifier les patients avec la MP qui vont développer une démence quelques années plus tard. L’activité des FS, ainsi que le ralentissement de l’EEG en sommeil paradoxal et à l’éveil, pourraient donc servir de marqueurs potentiels du développement de la démence dans la MP.
Resumo:
Dans les dernières années, les études sur les maladies neurodégénératives telles que la maladie d’Alzheimer (MA) et la maladie de Parkinson sans démence (MP) et avec démence (MPD) ont été nombreuses, mais la différenciation de ces patients sur la base de leur profil cognitif doit être encore améliorée. Effectivement, l’évaluation clinique peut s’avérer difficile en raison du peu de spécificité dans la présentation de leurs déficits neuropsychologiques. Ceci s’explique par la variabilité et le chevauchement des processus cliniques et pathologiques affectant essentiellement les mêmes régions/fonctions, soit celles liées aux lobes temporaux médians (LTM)/Mémoire (fonction LTM/Mémoire) et aux lobes frontaux (LF)/Fonctions exécutives (fonction LF/Exécutive). Toutefois, il existerait une distinction critique au niveau de l’intégrité relative de ces fonctions dans ces maladies neurodégénératives, ce qui permettrait d’identifier des déficits cognitifs spécifiques à la MA, la MP et la MPD. La présente thèse s’inscrit dans cette volonté de caractériser les profils cognitifs propres à la MA, la MP et la MPD, plus précisément par l’étude novatrice de la mémoire de source et des faux souvenirs. Les quatre chapitres qui composent cette thèse servent donc à documenter la nature de ces mécanismes mnésiques, leurs patrons de performance spécifiques dans la MA, la MP et la MPD, et leur sensibilité aux atteintes des fonctions LTM/Mémoire et LF/Exécutive. Ainsi, le Chapitre I démontre la pertinence d’étudier la mémoire de source et les faux souvenirs dans la MA, la MP et la MPD, en décrivant leurs interactions avec les fonctions LTM/Mémoire et LF/Exécutive, toutes les deux atteintes dans ces maladies. Le Chapitre II, présenté sous forme d’article, révèle des déficits en mémoire de source chez des patients MP, mais seulement dans l’une des tâches employées. Également, malgré des atteintes des fonctions LF/Exécutive et LTM/Mémoire, il est démontré que seule la fonction LTM/Mémoire est liée à l’altération de la mémoire de source chez les patients MP. Le Chapitre III, également sous forme d’article, illustre un taux anormal de faux souvenirs chez des patients MA, tandis que chez des patients MP et MPD, il est démontré qu’ils ont un taux de faux souvenirs comparable à celui des participants contrôles. Il est également rapporté que malgré l’atteinte de la fonction LF/Exécutive chez les patients MA, MP et MPD, elle est seulement liée à l’augmentation des faux souvenirs chez les patients MA. Finalement, dans le dernier Chapitre (IV), les résultats obtenus sont discutés dans leur ensemble à la lumière des prédictions et connaissances actuelles, tout en identifiant les limites afin d’orienter les perspectives de recherche.
Resumo:
La problématique liée au manque d’accès à la justice se pose dans toutes les régions du monde. Afin de résoudre celle-ci, l’Assemblée nationale du Québec a adopté, le 20 février 2014, le projet de loi 28, Loi instituant le nouveau Code de procédure civile, 1e sess, 40e lég. À cet égard, la disposition préliminaire indique que le nouveau Code de procédure civile (ci-après : « NCPC »), qui régit dorénavant la procédure applicable aux modes de prévention et de règlement des différends (ci-après : « modes de PRD »), vise à « assurer l’accessibilité, la qualité et la célérité de la justice civile […] ». Au-delà de ces mots, qui ont une grande valeur interprétative, ce mémoire analyse dans quelle mesure l’intégration des principes de la procédure applicables aux modes de PRD dans le NCPC est réellement susceptible d’améliorer l’accessibilité de la justice civile au Québec.
Resumo:
Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.
Resumo:
La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).