966 resultados para processus d’évaluation
Resumo:
Les glucides constituent la classe de molécules organiques la plus abondante et ceux-ci jouent des rôles cruciaux dans divers processus biologiques. De part leur importance médicinale, la préparation des désoxy-sucres, des C-glycosides et des C-disaccharides est devenue un sujet de pointe en synthèse organique. De façon générale, cette thèse décrit une nouvelle synthèse de novo des 4-désoxy hexopyrannoses en plus de la préparation de C-glycosides biologiquement actifs. De plus, une attention particulière a été portée à la préparation de novo de 4-désoxy-C-disaccharides. Dans un premier temps, le catalyseur de Cr(III) de Jacobsen et un complexe binaphtol/titane ont été utilisés pour réaliser des hétéro-Diels-Alder énantiosélectives. Les dihydropyrannes ainsi générés ont été transformés en 4-désoxy hexopyrannoses présents dans la nature. De cette façon, un dérivé de l’acide ézoaminuroïque, un précurseur de la désosamine et de la néosidomycine, a été préparé suivant cette approche de novo. De plus, à titre comparatif, la néosidomycine a également été fabriquée selon une approche chiron, à partir du méthyl alpha-D-mannopyrannoside. Finalement, une évaluation biologique préliminaire de la néosidomycine a été effectuée sur une la concanavaline-A (Chapitre 2). Dans un deuxième temps, une allylation stéréosélective sur un aldéhyde lié via des liens C-C à une unité mannoside a permis de générer un alcool homoallylique. Cette dernière fonctionnalité a été transformée en 4-désoxy hexopyrannose de configuration D ou L. De cette façon, la préparation de pseudo 4-désoxy-C-disaccharides, de 4-désoxy-C-disaccharides et de pseudo 4-désoxy aza-C-disaccharides a facilement été réalisée. Les rapports diastéréoisomériques de la réaction d’allylation ont été déterminés en plus de la configuration absolue des nouveaux centres stéréogéniques formés. La transformation des alcools homoallyliques en pyrannes poly hydroxylés ou en lactames poly hydroxylés a été réalisée, en plus de la déprotection de certains membres de cette famille pour une évaluation biologique préliminaire sur la concanavaline-A (Chapitre 3). Finalement, la synthèse de C-glycosides biologiquement actifs a été réalisée selon deux volets: i) préparation de 3-C-mannopyrannosyl coumarines et ii) synthèse de C-galactosides, inhibiteurs de la lectine PA-IL. Pour ce faire, le couplage de Heck a été utilisé à partir d’un ester alpha,bêta-insaturé, attaché à une unité glycosidique via des liens C-C, pour générer un dérivé glycosyl cinnamate de méthyle. Cependant, lorsque le 2-iodophénol est utilisé comme partenaire de Heck, la coumarine correspondante a été isolée. Les dérivés C-galactopyrannosyl cinnamates de méthyle représentent de bons inhibiteurs monovalents de la PA-IL avec un Kd aussi bas que 37 micro M (Chapitre 4).
Resumo:
Introduction: Chez les mammifères, la naissance de nouveaux neurones se poursuit à l’âge adulte dans deux régions du cerveau: 1) l’hippocampe et 2) la zone sous-ventriculaire du prosencéphale. La neurogenèse adulte n’est pas un processus stable et peut être affectée par divers facteurs tels que l’âge et la maladie. De plus, les modifications de la neurogenèse peuvent être à l’origine des maladies de sorte que la régulation ainsi que le rétablissement de la neurogenèse adulte doivent être considérés comme d’importants objectifs thérapeutiques. Chez la souris saine ou malade, la neurogenèse hippocampale peut être fortement régulée par l’enrichissement environnemental ainsi que par l’activité physique. Cependant, lors même que l’activité physique et l’enrichissement environnemental pourraient contribuer au traitement de certaines maladies, très peu d’études porte sur les mécanismes moléculaires et physiologiques responsables des changements qui sont en lien avec ces stimuli. Objectifs et hypothèses: Les principaux objectifs de cette étude sont de caractériser les effets de stimuli externes sur la neurogenèse et, par le fait même, d’élucider les mécanismes sous-jacents aux changements observés. En utilisant le modèle d’activité physique volontaire sur roue, cette étude teste les deux hypothèses suivantes: tout d’abord 1) qu’une période prolongée d’activité physique peut influencer la neurogenèse adulte dans le prosencéphale et l’hippocampe, et 2) que l’activité volontaire sur roue peut favoriser la neurogenèse à travers des stimuli dépendants ou indépendants de la course. Méthodes: Afin de valider la première hypothèse, nous avons utilisé un paradigme incluant une activité physique volontaire prolongée sur une durée de six semaines, ainsi que des analyses immunohistochimiques permettant de caractériser l’activité de précurseurs neuronaux dans la zone sous-ventriculaire et l’hippocampe. Ensuite, pour valider la seconde hypothèse, nous avons utlisé une version modifiée du paradigme ci-dessous, en plaçant les animaux (souris) soit dans des cages traditionnelles, soit dans des cages munies d’une roue bloquée soit dans des cages munies d’une roue fonctionnelle. Résultats: En accord avec la première hypothèse, l’activité physique prolongée volontaire a augmenté la prolifération des précurseurs neuronaux ainsi que la neurogenèse dans le gyrus dentelé de l’hippocampe comparativement aux animaux témoins, confirmant les résultats d’études antérieures. Par ailleurs, dans ce paradigme, nous avons aussi observé de la prolifération acrue au sein de la zone sous-ventriculaire du prosencéphale. De plus, en accord avec la seconde hypothèse, les souris placées dans une cage à roue bloquée ont montré une augmentation de la prolifération des précurseurs neuronaux dans l’hippocampe comparable à celle observée chez les souris ayant accès à une roue fonctionnelle (coureurs). Cependant, seuls les animaux coureurs ont présenté une augmentation de la neurogenèse hippocampale. Conclusions: Ces résultats nous ont permis de tirer deux conclusions nouvelles concernant les effets de l’activité physique (course) sur la neurogenèse. Premièrement, en plus de la prolifération et de la neurogenèse dans le gyrus dentelé de l’hippocampe, la prolifération dans la zone sous-ventriculaire du prosencéphale peut être augmentée par l’activité physique sur roue. Deuxièmement, l’environnement dans lequel l’activité physique a lieu contient différents stimuli qui peuvent influencer certains aspects de la neurogenèse hippocampale en l’absence d’activité physique sur roue (course).
Resumo:
Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.
Resumo:
La concertation est un phénomène récent, de plus en plus répandu. Elle s’applique à de nombreux domaines notamment en urbanisme et plus récemment à la protection du patrimoine. Elle semble être un outil approprié pour les autorités municipales afin de faire face aux conflits autour des projets d’aménagement particulièrement ceux liés à la protection du patrimoine. Notre questionnement porte sur l’apport de la concertation dans le domaine de la préservation du patrimoine et sur la pertinence des moyens mis en place pour atteindre un tel objectif. Les tables de concertation, en tant que processus de concertation, sont-elles appropriées pour la gestion des sites patrimoniaux ? À la lumière d’une discussion théorique sur le concept de la concertation en aménagement, nous faisons l’analyse comparative de deux Tables de concertation, celle du Vieux-Montréal et celle du Mont-Royal. Notre analyse porte sur l’évaluation du processus de concertation et sur la construction d’une vision globale pour le devenir des secteurs patrimoniaux concernés. L’objectif est de caractériser le processus de concertation utilisé à Montréal et d’en apprécier l’apport dans le domaine de la protection du patrimoine. L’analyse de nos deux cas d’étude révèle l’existence d’un processus de concertation propre à Montréal, avec ses caractéristiques spécifiques, mais qui reste à parfaire pour son optimisation. Notre recherche se conclut sur la nécessité d’améliorer le processus de concertation, tel qu’étudié, à travers un certain nombre de pistes à explorer.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Ce projet propose une nouvelle approche de la résilience en vue d’assurer le bien-être chez les enseignants. Les raisons qui nous amènent à un tel intérêt sont notamment le stress intense ressenti dans le corps professoral où la tâche est lourde et particulièrement difficile. Sera donc abordé au chapitre premier, le fait que l’environnement de travail, par ses caractéristiques, génère du stress et des effets néfastes. Par la suite, la résilience étant sollicitée pour retenir les travailleurs en poste, nous décrirons son historique, ce qui nous amènera à soulever une problématique d’importance, notamment le fait qu’elle ne soit pas nécessairement accompagnée d’un bien-être salutaire. En contrepartie, un des indicateurs du bien-être est la motivation autodéterminée. Nous détaillerons ces notions et verrons comment elles sont atteintes par les conditions mêmes de travail. Cette mise en contexte nous permettra, en chapitre deuxième, de concevoir la résilience sous un autre jour grâce à la mise en lien avec les motivations autodéterminées. S’y dessineront deux types importants, dans lesquels motivation et bien-être devraient différer sensiblement. Cela pourrait expliquer la raison d’un bien-être mitigé. Nous terminerons ce chapitre par nos hypothèses. Nous aborderons ensuite la vérification de la proposition de types de résilience sous-tendues par la motivation. Au chapitre troisième, la méthodologie décrira l’échantillon de 465 enseignants québécois du primaire et du secondaire, les différents questionnaires de résilience, motivation et bien-être aux fins de l’étude transversale. Le chapitre suivant traitera des résultats des ANOVA , MANOVA et ANOVA factorielles entreprises. Notamment, les différences statistiques de bien-être et de motivation seront détaillées, ainsi que la non interaction entre motivation et résilience. Les effets principaux de résilience à tous les niveaux de motivation seront décrits. Les résultats obtenus nous permettrons une discussion au chapitre cinquième avant de conclure qu’effectivement, des différences sont observables, que la résilience pourrait s’opérer en deux formes durant lesquelles les motivations et le bien-être sont différents. Il sera possible d’envisager la résilience non pas comme une caractéristique personnelle stable ou un résultat statique, mais comme un processus pouvant prendre différentes formes qu’il serait alors possible de promouvoir. En découle également une mise en garde contre le fait de penser qu’il n’est plus nécessaire d’agir auprès des personnes étiquetées de résilientes. Le soutien semble encore nécessaire pour soutenir un processus efficace.
Resumo:
La régulation de la transcription est un processus complexe qui a évolué pendant des millions d’années permettant ainsi aux cellules de s’adapter aux changements environnementaux. Notre laboratoire étudie le rôle de la rapamycine, un agent immunosuppresseur et anticancéreux, qui mime la carence nutritionelle. Afin de comprendre les mécanismes impliqués dans la réponse a la rapamycine, nous recherchons des mutants de la levure Saccaromyces cerevisiae qui ont un phenotype altérée envers cette drogue. Nous avons identifié le gène RRD1, qui encode une peptidyl prolyl isomérase et dont la mutation rend les levures très résistantes à la rapamycine et il semble que se soit associé à une réponse transcriptionelle alterée. Mon projet de recherche de doctorat est d’identifier le rôle de Rrd1 dans la réponse à la rapamycine. Tout d’abord nous avons trouvé que Rrd1 interagit avec l’ARN polymérase II (RNAPII), plus spécifiquement avec son domaine C-terminal. En réponse à la rapamycine, Rrd1 induit un changement dans la conformation du domaine C-terminal in vivo permettant la régulation de l’association de RNAPII avec certains gènes. Des analyses in vitro ont également montré que cette action est directe et probablement liée à l’activité isomérase de Rrd1 suggérant un rôle pour Rrd1 dans la régulation de la transcription. Nous avons utilisé la technologie de ChIP sur micropuce pour localiser Rrd1 sur la majorité des gènes transcrits par RNAPII et montre que Rrd1 agit en tant que facteur d’élongation de RNAPII. Pour finir, des résultats suggèrent que Rrd1 n’est pas seulement impliqué dans la réponse à la rapamycine mais aussi à differents stress environnementaux, nous permettant ainsi d’établir que Rrd1 est un facteur d’élongation de la transcription requis pour la régulation de la transcription via RNAPII en réponse au stress.
Resumo:
Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.
Resumo:
La première partie de ce mémoire, intitulée « Paradis crépusculaire », est un roman dont la narratrice, une jeune femme, est hantée par les pensées suicidaires. S’exprimant à la première personne, elle décrit elle-même son évolution psychologique provoquée par la rencontre d’un homme et les débuts d’une relation amoureuse. L’amour ravive les tentations suicidaires du personnage principal et l’entraîne dans un univers de peur qui côtoie la folie. L’histoire s’ancre dans la réalité quotidienne des deux personnages. La deuxième partie, « Impostures : Examen d’une démarche créatrice », est un essai qui traite de ma propre démarche d’écriture. Mes réflexions, tout d’abord personnelles, s’ouvrent vers le monde de la création littéraire, plus particulièrement romanesque, et sont reliées aux conceptions de différents critiques. L’essai s’élabore à partir du sentiment de l’imposteur qui m’a hantée durant tout le processus de création.
Resumo:
La réforme des secteurs de sécurité est au cœur du processus de reconstruction postconflictuelle et du rétablissement de l’État de droit. Souvent implantées par des acteurs internationaux, ces réformes sont nécessaires au développement socio-économique des sociétés sortant de conflit. L’objectif premier de ce travail est d’établir si la coordination des forces militaires et policières internationales a une influence sur la réussite de la réforme des secteurs de sécurité dans le cadre des missions de paix de l’ONU. L'hypothèse de départ est la suivante : la coordination entre les policiers et les militaires sur le terrain, facilitée par la coopération entre les composantes policières et militaires du Département des opérations de maintien de la paix de l'ONU (DOMP), favorise le succès de la RSS. C’est la culture bureaucratique de l’ONU qui influencera la qualité et le degré de coopération entre les composantes policières et militaires du DOMP. Cela sera vérifié à travers l’étude en deux temps de l’aide internationale apportée à la réforme des secteurs de sécurité en Haïti de 1993 à 1997, puis de 2004 à aujourd’hui. La qualité de la coordination entre policiers et militaires dépend de facteurs internes à la mission plutôt que des initiatives mises de l’avant par les quartiers généraux de l’ONU. De plus, la coordination militaropolicière sur le terrain facilite certains aspects de la réforme des secteurs de sécurité, comme la professionnalisation des forces policières locales et le rétablissement de la sécurité.
Resumo:
Le but de cette étude était d’évaluer les qualifications de performance du système FlexiWare® chez le rat male Sprague Dawley et le singe Cynomolgus éveillés, ainsi que chez le chien Beagle éveillé et anesthésié, suite à l’administration de produits ayant une activité pharmacologique connue. Les produits utilisés incluaient l’albutérol administré par inhalation, la méthacholine, et le rémifentanil administrés par voie intraveineuse. Une solution saline administré par voie intraveneuse, a été utilisée comme substance témoin. Différentes variables ont servi à évaluer la réponse des animaux (rats, chien, singe). Ces dernières comprenaient la fréquence respiratoire (RR), le volume courant (TV), la ventilation minute (MV). Des paramètres additionnels ont été évalués chez le rat, soit les temps d’inspiration (IT) et d’expiration (ET), le temps du pic de débit expiratoire, les pics de débits inspiratoire et expiratoire, le ratio inspiratoire:expiratoire (I:E), le ratio inspiratoire sur respiration totale (I:TB), et l’écoulement expiratoire moyen (EF50). Les résultats obtenus ont démontré que le système FlexiWare® était suffisamment sensible et spécifique pour dépister, chez les espèces animales utilisées, les effets bronchodilateur, bronchoconstricteur et dépresseur central des substances testées. Il pourrait faire partie des méthodes (ICH 2000) utilisées en pharmacologie de sécurité lors de l’évaluation de substances pharmacologiques sur le système respiratoire des animaux de laboratoire. Les espèces animales utilisées ont semblé s’adapter aisément aux procédures de contention. Les paramètres évalués, RR, TV et MV ont permis de caractériser la réponse des animaux suite à l’administration de produits pharmacologiques à effets connus, judicieusement complétés par les variables de débit. L’ajout de paramètres du temps n’était pas primordiale pour détecter les effets des drogues, mais offre des outils complémentaires d’interpréter les changements physiologiques. Cependant, chez le rat conscient, la période d’évaluation ne devrait pas s’étendre au-delà d’une période de deux heures post traitement. Ces études constituent une évaluation des qualifications de performance de cet appareil et ont démontré de manière originale, la validation concurrentielle, en terme de précision (sensibilité et spécificité) et fiabilité pour différentes variables et sur différentes espèces.
Resumo:
Le rodéo à Wall Street a pris fin. En effet, le président américain a promulgué la réforme de la régulation financière le 21 juillet 2010. Le H.R. 4173 : Dodd-Frank Wall Street Reform and Consumer Protection Act of 2010 n’est toutefois que le début d’un long processus. La majeure partie de l’édifice législatif repose sur l’intervention d’agences gouvernementales chargées d’édicter des décrets d’exécution dans un délai plus ou moins long. L’adoption de la réforme américaine constitue néanmoins un signal fort à destination des acteurs de la finance pour leur signifier que les règles du jeu ont changé. L’objectif de ce papier d’actualisation s’attache à exposer les dispositions visant les sociétés commerciales et portant sur leur gouvernance et la rémunération de leurs dirigeants. Ces deux thématiques prennent, à l’heure actuelle, une résonance particulière avec la révélation d’émoluments aux montants exorbitants consentis dans des sociétés et des établissements financiers mis à mal par des erreurs stratégiques de leur management.
Resumo:
Ce mémoire concerne le droit d’asile dans l’Union Européenne. Il s’agit non seulement d’une analyse législative de la mise en œuvre d’une politique européenne commune d’asile issue de la création de l’espace de liberté, sécurité et justice établi par le Traité d’Amsterdam, mais aussi de l’évaluation du niveau d’harmonisation atteint par cette politique au sein de l’Union, et enfin d’une réflexion sur la relation entre le processus de mise en œuvre de la politique commune d’asile d’une part, et le respect des droits fondamentaux des chercheurs et des demandeurs de la protection internationale par les États Membres et la Communauté d’autre part.
Resumo:
Le programme d’enseignement des habiletés d’adaptation Les amis de Zippy vise la promotion de la santé mentale des élèves du premier cycle du primaire. La présente étude est une analyse secondaire réalisée à partir des données d’évaluation des effets du programme. L’objectif général vérifie si l’appartenance au groupe d’intervention est associée à une meilleure qualité du climat relationnel de classe à la fin de l’année scolaire, tel que perçu par les enseignants, tout en contrôlant pour la qualité du climat avant la réalisation du programme. La qualité du climat correspond aux relations entre les élèves et aux relations entre les élèves et l’enseignant. L’effet modérateur de la gestion de comportements et les pratiques pédagogiques est aussi analysé. L’échantillon est constitué de 35 enseignants auto-sélectionnés, répartis entre deux groupes non aléatoires. Les échelles suivantes du QES pour le primaire, version enseignant, sont utilisées : relations entre les élèves, relations entre les élèves et les enseignants, gestion des comportements et pratiques pédagogiques. Les résultats, obtenus grâce à des régressions linéaires multiples, montrent que généralement, l’appartenance au groupe n’explique pas significativement la qualité du climat de classe. Cependant, un effet d’interaction entre le climat de classe et la gestion de comportements est identifié. Lorsque les enseignants gèrent plus difficilement leur classe, le programme Les amis de Zippy est associé à un climat relationnel entre les élèves et l’enseignant moins favorable que dans le groupe témoin. Puisque ces résultats préliminaires peuvent être attribuables à des variables externes non contrôlées, ils devront être approfondis par des études subséquentes.
Resumo:
L’objectif principal du présent mémoire est d’observer le processus de traduction d’un texte de nature juridique mis en oeuvre par deux groupes d’étudiants, cinq étudiants inscrits au baccalauréat en traduction et quatre inscrits au baccalauréat en droit. Tout d’abord, nous analyserons les différences qui existent entre les deux groupes dans leur utilisation des ouvrages de référence. Nous observerons entre autres la diversité générale des ouvrages consultés et la connaissance antérieure des ouvrages papier, la répartition par type d’ouvrages (dictionnaire bilingue, monolingue ou autres), la répartition par support d’ouvrages (électronique ou papier), l’utilisation des correcteurs, l’intensité des recherches effectuées et, finalement, le premier ouvrage consulté selon le type et le support. Ces données seront recueillies grâce à la méthode de verbalisation à voix haute et à l’enregistrement de l’écran d’ordinateur, au moyen du logiciel WebEx. Ensuite, nous évaluerons la qualité des traductions en faisant une distinction entre deux types d’erreurs, soit les erreurs de traduction et les erreurs de langue. Nous tenterons par la suite d’établir des liens entre l’utilisation des ouvrages de référence et la qualité des traductions. Nous observerons que les deux groupes utilisent les ouvrages de référence différemment et que les traducteurs ont semblé mieux outillés que les juristes pour remettre une traduction de qualité.