965 resultados para approche écosystémique
Resumo:
Les milieux de travail canadiens présentent des visages diversifiés et en pleine mutation. En raison de facteurs tels que les nouvelles technologies, la mondialisation, l’économie du savoir ou encore l’évolution démographique, la transformation des entreprises canadiennes passe par une main-d’œuvre qualifiée, adaptable et de qualité. Notre recherche s’inscrit dans le cadre des études s’intéressant aux comportements des entreprises en matière d’investissement en capital humain au Canada. Nous avons retenu un cadre théorique qui est constitué principalement de la théorie du capital humain, de celle des ressources internes et de l’approche des coûts et des bénéfices. Pour les fins de notre recherche, nous retenons une approche quantitative longitudinale, en utilisant des données secondaires issues du questionnaire des employeurs de l’Enquête sur le milieu de travail et les employés pour les années 1999 à 2005 inclusivement. La nature longitudinale de l’EMTE permet de corriger pour les biais liés à l’hétérogénéité non observée des firmes et à l’endogénéité possible de la variable de formation. Notre étude se divise globalement en trois articles. Dans les deux premiers cas, les dépenses en formation sont considérées comme une variable explicative de la productivité et du taux de roulement des employés. Dans le troisième cas, les dépenses de formation constituent la variable dépendante à l’étude. Le premier article examine l’effet des investissements en formation sur la productivité des entreprises canadiennes. La littérature scientifique traitant de l’impact de la formation sur la performance des entreprises continue de s’accroître dû aux nouvelles techniques d’estimations, à la disponibilité des données, et à l’intérêt grandissant pour le capital humain. Les résultats partiels des études antérieures montrent la possibilité que les retours des investissements réalisés en formation puissent avoir des effets au-delà de l’année courante. Sur le plan théorique, cette hypothèse a du sens, mais au niveau empirique il semble que les liens formels entre la formation et la productivité des entreprises ne sont pas clairement identifiés. Nos résultats montrent que les investissements en formation réalisés avec trois années de retard engendrent des effets positifs et significatifs sur la productivité à court et à moyen termes. L’interaction entre les différents types d’investissements permet de vérifier l’hypothèse à l’effet que les investissements en capital physique et en capital humain soient complémentaires et se supportent mutuellement. Après avoir procédé à l’estimation de l’effet des dépenses en formation structurée sur la productivité des entreprises, nous nous demandons pour quelles raisons les employeurs demeurent réticents quant aux retours des investissements en formation ? Dans le cadre de cette seconde réflexion, nous nous intéressons à deux dimensions de l’estimation du roulement, à savoir le roulement de nature volontaire et une mesure de l’optimum. Les résultats obtenus quant à l’effet des dépenses en formation structurée par employé sur les taux de roulement volontaire et optimal montrent que la relation est positive dans les deux cas. Cet article vise également à vérifier si différents outils organisationnels associés aux relations industrielles peuvent avoir un effet sur la réduction du taux de roulement volontaire des employés. Nos résultats montrent aussi que la présence syndicale et la perception d’un bon climat de travail traduisent dans un sens, un environnement dans lequel l’employeur et les employés ont des intérêts communs pour la poursuite de mêmes objectifs. Dans le cadre du troisième article, nous examinons certains déterminants des investissements en formation structurée au sein des milieux de travail. Nos résultats montrent qu’une entreprise de grande taille, qui investit davantage en capital physique par employé par rapport à la moyenne, au sein de laquelle un grand pourcentage de travailleurs utilisent un ordinateur, où il y a une proportion élevée de nouvelles embauches et pour laquelle l’employeur introduit un système cohérent de pratiques dépense davantage en formation structurée qu’une entreprise qui ne possède pas ces caractéristiques, toutes choses égales par ailleurs. Ces résultats permettent de discuter également de la complémentarité des facteurs faisant partie d’un cercle vertueux de croissance des entreprises pouvant déterminer les investissements en formation.
Resumo:
Placer une charge au niveau du membre inférieur est une approche sans fondement scientifique, utilisée par les cliniciens, pour renforcer certains muscles clés de la marche. Cette étude a déterminé les modifications du patron de marche lors de l’ajout d’une charge à la cheville parétique ou non parétique chez des personnes ayant une hémiparésie suite à un accident vasculaire cérébral et a comparé les résultats à ceux d’un groupe témoin. Il est supposé qu’une charge placée à la jambe parétique/non dominante (charge ipsilatérale) augmenterait les efforts (moments et puissance) à la hanche parétique/non dominante lors de l’oscillation et qu’une charge placée controlatéralement augmenterait les efforts lors de la phase d’appui principalement pour les abducteurs de hanche stabilisant le bassin dans le plan frontal. La marche avec et sans charge de cinq individus hémiparétiques chroniques et 5 personnes en santé a été analysée en laboratoire par l’enregistrement des forces de réaction du sol et des mouvements des membres inférieurs. Ces informations ont permis de calculer les paramètres temps-distance, les angles à la hanche parétique/non dominante et au tronc, les moments nets, les puissances et le travail mécanique à la hanche parétique/non dominante. Des tests statistiques non-paramétriques ont servi à déterminer l’effet de la condition, avec charge (ipsi- et controlatérale) ou sans charge et à comparer les résultats entre les deux groupes. L’ajout d’une charge n’a pas modifié la vitesse de marche des sujets. Les phases d’appui et d’oscillation étaient rendus plus symétriques par la charge, même si peu de différences apparaissaient dans le plan sagittal avec ou sans la charge. Dans le plan frontal, le moment abducteur de hanche des sujets hémiparétiques a diminué avec la charge controlatérale, tandis qu'il a augmenté chez les sujets en santé. L’utilisation d’une stratégie posturale ou dynamique au tronc pourrait expliquer la différence de l’effet de la charge sur le moment abducteur à la hanche. Au vu de ces résultats, il est nécessaire de poursuivre l’évaluation de cette approche de renforcement musculaire spécifique à la tâche avant d’en recommander son utilisation.
Resumo:
Au cours d'une transaction portant sur une acceptation bancaire (ci-après «BA» tel que dénommée dans le jargon juridique) différents types de relations peuvent s'établir entre les parties impliquées, certaines plus directes que d'autres. Dans une transaction donnée, à part le client et la banque, on peut trouver une ou plusieurs banques participantes et un ou plusieurs investisseurs, qui deviennent détenteurs de BA. La situation peut devenir complexe et les relations légales risquent de devenir assez compliquées. Cependant, il est important d'identifier si la relation s'est établie à travers l'instrument de BA, si elle existe par le biais d'une relation contractuelle ordinaire ou encore, si elle existe par le fait de la loi. Une bonne analyse des circonstances entourant la transaction, des facteurs connexes à la transaction et des droits et obligations qui existent entre les parties, sera nécessaire pour déterminer laquelle de la loi provinciale ou fédérale s'appliquera, et dans quelle mesure. Une fois accordée, la BA est gouvernée par la Loi sur les lettres de change. Toutes solutions apportées à un problème qui implique des BA, doivent, en principe, respecter la nature inhérente de la BA en tant qu'effet de commerce, gouverné par la loi fédérale. En matière de BA, c'est, soit la Loi sur les lettres de change soit la Loi sur les lettres et billets de dépôt (Depository Bills and Note Act) qui s'appliqueront à l'acte. Comme il existe des lois fédérales applicables à la BA, l'objet de notre étude est de déterminer si, et dans quelle circonstance la loi de la province, tel que le Code civil du Québec, trouvera application et éclaircira dans certains cas la disposition contenue dans la Loi sur les lettres de change, notamment lorsque les dispositions de ladite loi sont silencieuses ou ambigües. La solution la plus simple serait d'appliquer la loi provinciale aux matières qui ne sont pas traitées dans la loi, étant donné que les lois provinciales apportent souvent un complément à la législation fédérale. Cependant, la Loi sur les lettres de change contient des dispositions spéciales, tel que l'article 9 qui stipule : « 9. Les règles de la common law d'Angleterre, y compris en droit commercial, s'appliquent aux lettres, billets et chèques dans la mesure de leur compatibilité avec les dispositions expresses de la présente loi. » Cette disposition a crée une certaine confusion relativement à l'application du droit civil du Québec en matière de Lettres de change. En effet, il existe un doute quant à savoir si l'application de l'article 9 est une incorporation par référence qui exclue totalement l'application du droit civil. Cette question continue de se poser inexorablement dans la doctrine et la jurisprudence. Elle a en effet donné lieu à une série de théories quand au degré d'application de la common law en matière de lettres de change. Une revue de la jurisprudence dominante nous permet de conclure que les tribunaux ont accepté l'application du droit provinciale dans certaines questions impliquant les lettres de change. La question essentielle traitée lors de notre analyse est la suivante: lorsqu'un litige prend naissance dans une transaction de BA, quelle est la règle qui devra s'appliquer? Quel sera le droit qui gouvernera les problèmes émergeant dans une BA, celui du Code Civil du Québec ou celui de la common law d'Angleterre? Étant donne le nombre de cas qui sont portés devant les cours de justice en rapport avec des transactions de BA, comprendre quelle sera la loi applicable est d'une importance fondamentale. Pour répondre à cette question, nous commencerons par un examen de l'historique, du développement et de l'évolution de la BA. Afin de mieux comprendre la BA, nous débuterons par un bref survol des origines de cet instrument juridique. Dans le deuxième chapitre, nous analyserons la nature et le caractère légal de la BA. Cela constituera le cadre aux travers duquel nous pourrons identifier les règles et les principes qui s'appliquent aux différents aspects de la transaction de BA. Le chapitre trois fera l'objet d'un examen détaillé des mécanismes de l'opération de BA tout en étudiant de près les exigences imposées par la législation applicable. Après avoir examine l'aspect légal de la BA, nous procéderons au chapitre quatre, à l'étude de l'applicabilité de la loi provinciale relativement à certains aspects de la transaction de BA. A cet effet, nous examinerons les différentes approches de compréhension de la Loi sur les lettres de change et plus particulièrement la problématique rencontrée à l'article 9. Nous étudierons aussi l'application et l'interprétation de cette loi par les tribunaux du Québec au cours du siècle dernier. Les juges et les juristes se sont penchés sur les sens qu'a voulu donner le législateur lorsqu'il a stipulé dans l'article 9 «Le règles de la common law d'Angleterre, y compris en droit commercial, s appliquent aux lettres, billets et chèques dans la mesure de leur compatibilité avec les dispositions expresses de la présente loi ». Cette section doit-elle être appliquée à la lettre, nous obligeant à appliquer la common law d'Angleterre a chaque problème qui peut se poser en relation avec les lettres et les billets? Le Parlement a-t-il l'intention que cette disposition s'applique également au Québec, dont le droit privé est basé sur le système du Code Civil? Notre étude portera sur les différentes approches d'interprétation qui offrent une diversité de solutions au problème posé par l'article 9. Finalement, compte tenu des nouveaux développements législatifs, au chapitre cinq, nous proposons une méthode en vue de déterminer la loi applicable aux différents aspects de la transaction de BA. Notre analyse nous a conduit à adopter la solution proposée par la majorité des juristes, à la différence que notre approche de l'article 9 est basée sur des raisons de politique. Nous avons donc adopté la stricte dichotomie (en tant qu'effet négociable d'une part, et d'une sorte de contrat et de propriété de l'autre) en prenant en compte les difficultés inhérentes à déterminer quand l'un finit et l'autre commence. En conclusion, selon notre opinion, il existe deux solutions. Premièrement, il y a la possibilité que l'article 9 puisse être écarté. Dans ce cas, toutes les matières qui ne sont pas expressément évoquées dans la loi tomberont dans la compétence de la loi provinciale, comme c'est le cas dans d'autres types de législations fédérales. Dans ces situations, le droit civil du Québec joue un rôle supplétif dans les applications d'une loi fédérale au Québec. Deuxièmement, modifier l'article 9 plutôt que d'en écarter son application offre une autre possibilité. Incorporer la large stricte dichotomie dans l'article 9 nous semble être une solution préférable. La disposition pourrait se lire comme suit: « Les règles de la common law d'Angleterre incluant le droit commercial dans la mesure ou elles ne sont pas incompatibles avec les dispositions expresses de la Loi, s’appliquent aux lettres, billets, et chèques au sens stricte. Pour plus de certitude, les lettres et les billets au sens strict, incluent la forme, la délivrance et I’émission des lettres, billets, et chèques.» Ce type de changement se révélera être un pas important dans le but de clarifier la loi et déterminer l'équilibre à trouver entre l'application des lois fédérales et provinciales en matière de BA.
Resumo:
La leucémie lymphoblastique aigüe (LLA) est une maladie génétique complexe. Malgré que cette maladie hématologique soit le cancer pédiatrique le plus fréquent, ses causes demeurent inconnues. Des études antérieures ont démontrées que le risque à la LLA chez l’enfant pourrait être influencé par des gènes agissant dans le métabolisme des xénobiotiques, dans le maintient de l’intégrité génomique et dans la réponse au stress oxydatif, ainsi que par des facteurs environnementaux. Au cours de mes études doctorales, j’ai tenté de disséquer davantage les bases génétiques de la LLA de l’enfant en postulant que la susceptibilité à cette maladie serait modulée, au moins en partie, par des variants génétiques agissant dans deux voies biologiques fondamentales : le point de contrôle G1/S du cycle cellulaire et la réparation des cassures double-brin de l’ADN. En utilisant une approche unique reposant sur l’analyse d’une cohorte cas-contrôles jumelée à une cohorte de trios enfants-parents, j’ai effectué une étude d’association de type gènes/voies biologiques candidats. Ainsi, j’ai évaluer le rôle de variants provenant de la séquence promotrice de 12 gènes du cycle cellulaire et de 7 gènes de la voie de réparation de l’ADN, dans la susceptibilité à la LLA. De tels polymorphismes dans la région promotrice (pSNPs) pourraient perturber la liaison de facteurs de transcription et mener à des différences dans les niveaux d’expression des gènes pouvant influencer le risque à la maladie. En combinant différentes méthodes analytiques, j’ai évalué le rôle de différents mécanismes génétiques dans le développement de la LLA chez l’enfant. J’ai tout d’abord étudié les associations avec gènes/variants indépendants, et des essaies fonctionnels ont été effectués afin d’évaluer l’impact des pSNPs sur la liaison de facteurs de transcription et l’activité promotrice allèle-spécifique. Ces analyses ont mené à quatre publications. Il est peu probable que ces gènes de susceptibilité agissent seuls; j’ai donc utilisé une approche intégrative afin d’explorer la possibilité que plusieurs variants d’une même voie biologique ou de voies connexes puissent moduler le risque de la maladie; ces travaux ont été soumis pour publication. En outre, le développement précoce de la LLA, voir même in utero, suggère que les parents, et plus particulièrement la mère, pourraient jouer un rôle important dans le développement de cette maladie chez l’enfant. Dans une étude par simulations, j’ai évalué la performance des méthodes d’analyse existantes de détecter des effets fœto-maternels sous un design hybride trios/cas-contrôles. J’ai également investigué l’impact des effets génétiques agissant via la mère sur la susceptibilité à la LLA. Cette étude, récemment publiée, fût la première à démontrer que le risque de la leucémie chez l’enfant peut être modulé par le génotype de sa mère. En conclusions, mes études doctorales ont permis d’identifier des nouveaux gènes de susceptibilité pour la LLA pédiatrique et de mettre en évidence le rôle du cycle cellulaire et de la voie de la réparation de l’ADN dans la leucémogenèse. À terme, ces travaux permettront de mieux comprendre les bases génétiques de la LLA, et conduiront au développement d’outils cliniques qui amélioreront la détection, le diagnostique et le traitement de la leucémie chez l’enfant.
Resumo:
Le noyau paraventriculaire (PVN) de l'hypothalamus régule une série de phénomènes physiologiques incluant l'équilibre énergétique et la pression artérielle. Nous avons identifié une cascade de facteurs de transcription qui contrôle le développement du PVN. SIM1 et OTP agissent en parallèle pour contrôler la différenciation d'au moins cinq types de neurones identifiables par la production d'OT, AVP, CRH, SS et TRH. Ces Facteurs de transcriptions contrôlent le développement des lignées CRH, AVP et OT en maintenant l'expression de Brn2 qui à son tour est nécessaire pour la différenciation terminale de ces neurones. L'analyse du transcriptome du PVN nous a permis d'identifier plusieurs gènes qui ont le potentiel de contrôler le développement du PVN. Nous voulons développer un paradigme de perte de fonction qui permettrait l'étude de ces gènes candidats sur une grande échelle. Le but de ce projet est de caractériser le PVN en développement de l'amphibien en vue de l'utilisation de ce modèle pour des études fonctionnelles. Nous avons cloné des fragments de cDNA de Sim1, OTP, Brn2, Sim2, CRH, Ot, AVP et TRH à partir de l'ARN total de Xenopus Laevis. Nous avons adapté notre technique d'hybridation in situ pour caractériser l'expression de ces gènes chez l'amphibien aux stades 33-39, 44, 51, 54, 60, et chez l'adulte. Résultats. Les Facteurs de transcription Sim1, OTP, et Brn2 commencent à être exprimés dans le PVN prospectif au stade 33. L'expression des marqueurs de différenciation terminale devient détectable entre les stades 37 et 39. De façon intéressante, le PVN occupe initialement un domaine de forme globulaire puis à partir du stade 44 s'allonge le long de l’axe dorso-ventral. Cet allongement se traduit par une organisation en colonnes des cellules du PVN que nous n'avons pas observée chez les rongeurs. Le développement du PVN est conservé chez l'amphibien dans la mesure où la relation entre l'expression des facteurs de transcription et des marqueurs de différenciation terminale est conservée. Il existe par ailleurs des différences entre la topographie des PVN des mammifères et de l'amphibien. L'organisation en colonnes de cellules pourrait correspondre à des mouvements de migration tangentielle. Nous sommes maintenant en mesure de tester la fonction des facteurs de transcription dans le PVN par l'approche d'invalidation par morpholinos.
Resumo:
Cette thèse constitue une étude systématique du lexique du déné sųłiné, une langue athabaskane du nord-ouest canadien. Elle présente les définitions et les patrons de combinatoire syntaxique et lexicale de plus de 200 unités lexicales, lexèmes et phrasèmes, qui représentent une partie importante du vocabulaire déné sųłiné dans sept domaines: les émotions, le caractère humain, la description physique des entités, le mouvement des êtres vivants, la position des entités, les conditions atmospheriques et les formations topologiques, en les comparant avec le vocubulaire équivalent de l'anglais. L’approche théorique choisie est la Théorie Sens-Texte (TST), une approche formelle qui met l’accent sur la description sémantique et lexicographique empiriques. La présente recherche relève d'importantes différences entre le lexique du déné sųłiné et celui de l'anglais à tous les niveaux: dans la correspondence entre la représentation conceptuelle, considérée (quasi-)extralinguistique, et la structure sémantique; dans les patrons de lexicalisation des unités lexicales, et dans les patrons de combinatoire syntaxique et lexicale, qui montrent parfois des traits propres au déné sųłiné intéressants.
Resumo:
Ce mémoire s’inscrit dans le domaine de l’architecture du paysage et du design urbain. La recherche se construit autour d’un questionnement sur le sens pouvant être attribué au parc La Fontaine par ses usagers en tant que cadre de vie urbain montréalais. Ce parc est un lieu emblématique de la ville par le caractère historique de son aménagement. Il est aussi un lieu populaire par sa situation géographique centrale au sein de l’arrondissement du Plateau-Mont-Royal. Par l’analyse de ce parc, nous cherchons à porter un regard sur la manière dont se construit l’expérience d’un parc urbain dans les particularités de son aménagement, de son contexte social et culturel. Notre étude semble pertinente dans la mesure où cet espace n’a jamais été abordé selon l’analyse de l’expérience paysagère. Notre réflexion se construit à partir d’un modèle socioculturel soutenu par une revue de littérature en architecture de paysage. Les travaux menés à la Chaire en paysage et environnement de l’Université de Montréal ont particulièrement été sollicités. Ce modèle considère le paysage comme une qualification sociale et culturelle d’un territoire. Il engage l’analyse vers des perspectives pluridimensionnelle, expérientielle et polysensorielle, tout en considérant le caractère formel (attributs physiques) du paysage. Nous avons également joint à ce cadre théorique les recherches menées en design et en anthropologie des sens. Ces axes de recherche éclairent les notions de l’expérience esthétique et sensorielle particulièrement en regard de la compréhension du vécu d’un espace ordinaire et quotidien. Selon ce cadre conceptuel, notre recherche fait appel à une approche compréhensive. Ainsi, nous abordons l’expérience du parc par un modèle d’analyse mettant l’emphase sur les usages, l’interprétation et la représentation de l’aménagement du parc La Fontaine. La méthodologie s’appuie sur une démarche de recherche qualitative. Elle se fonde sur une observation non participante des usagers du parc, sur des entretiens semi-dirigés et sur une étude physico-spatiale du lieu. Ce mémoire a pour finalité de conduire une première lecture du parc La Fontaine en abordant les dimensions composant le vécu de ses usagers. Nous espérons pouvoir contribuer à notre échelle à l’avancée des connaissances de cet espace du point de vue expérientiel et de la perspective paysagère sur la compréhension des parcs urbains.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
Les modèles de compréhension statistiques appliqués à des applications vocales nécessitent beaucoup de données pour être entraînés. Souvent, une même application doit pouvoir supporter plusieurs langues, c’est le cas avec les pays ayant plusieurs langues officielles. Il s’agit donc de gérer les mêmes requêtes des utilisateurs, lesquelles présentent une sémantique similaire, mais dans plusieurs langues différentes. Ce projet présente des techniques pour déployer automatiquement un modèle de compréhension statistique d’une langue source vers une langue cible. Ceci afin de réduire le nombre de données nécessaires ainsi que le temps relié au déploiement d’une application dans une nouvelle langue. Premièrement, une approche basée sur les techniques de traduction automatique est présentée. Ensuite une approche utilisant un espace sémantique commun pour comparer plusieurs langues a été développée. Ces deux méthodes sont comparées pour vérifier leurs limites et leurs faisabilités. L’apport de ce projet se situe dans l’amélioration d’un modèle de traduction grâce à l’ajout de données très proche de l’application ainsi que d’une nouvelle façon d’inférer un espace sémantique multilingue.
Resumo:
Le récepteur X des farnésoïdes (FXR) fait partie de la superfamille des récepteurs nucléaires et agit comme un facteur de transcription suite à la liaison d’un ligand spécifique. Le récepteur FXR, activé par les acides biliaires, joue un rôle essentiel dans le métabolisme des lipides et du glucose en plus de réguler l’homéostasie des acides biliaires. Notre laboratoire a récemment mis en évidence une nouvelle voie de régulation du récepteur PPARγ en réponse au récepteur de la ghréline. En effet, la ghréline induit l’activation transcriptionnelle de PPARγ via une cascade de signalisation impliquant les kinases Erk1/2 et Akt, supportant un rôle périphérique de la ghréline dans les pathologies associées au syndrome métabolique. Il est de plus en plus reconnu que la cascade métabolique impliquant PPARγ fait également intervenir un autre récepteur nucléaire, FXR. Dans ce travail, nous montrons que la ghréline induit l’activation transcriptionnelle de FXR de manière dose-dépendante et induit également la phosphorylation du récepteur sur ses résidus sérine. En utilisant des constructions tronquées ABC et CDEF de FXR, nous avons démontré que la ghréline régule l’activité de FXR via les domaines d’activation AF-1 et AF-2. L’effet de la ghréline et du ligand sélectif GW4064 sur l’induction de FXR est additif. De plus, nous avons démontré que FXR est la cible d’une autre modification post-traductionnelle, soit la sumoylation. En effet, FXR est un substrat cellulaire des protéines SUMO-1 et SUMO-3 et la sumoylation du récepteur est ligand-indépendante. SUMO-1 et SUMO-3 induisent l’activation transcriptionnelle de FXR de façon dose-dépendante. Nos résultats indiquent que la lysine 122 est le site prédominant de sumoylation par SUMO-1, quoiqu’un mécanisme de coopération semble exister entre les différents sites de sumoylation de FXR. Avec son rôle émergeant dans plusieurs voies du métabolisme lipidique, l’identification de modulateurs de FXR s’avère être une approche fort prometteuse pour faire face à plusieurs pathologies associées au syndrome métabolique et au diabète de type 2.
Resumo:
La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.
Resumo:
Titre : La médecine familiale vue par des jeunes omnipraticiens : rejet de la vocation et de la continuité des soins. Alors qu’une proportion préoccupante de québécois et canadiens n’a pas accès à un médecin de famille et que les efforts se multiplient pour résoudre cette situation problématique, les jeunes omnipraticiens optent de plus en plus pour des profils de pratique spécialisés, délaissant la continuité de soins. Nous avons interviewé 18 jeunes médecins de famille présentant un profil de pratique surspécialisé et analysé leur propos avec une méthodologie qualitative. Ce mémoire propose, à l’aide d’une approche de théorisation ancrée, une théorie empiriquement fondée permettant de mieux comprendre ce phénomène, ses origines et ses conséquences. Nos observations nous amènent à proposer la théorie suivante : les jeunes omnipraticiens urgentistes sont des professionnels autonomes dynamiques et changeants : ils sont non-fixés personnellement et non-fixés professionnellement. Leur système de valeur (qualité de vie et liberté, compétence, performance, valorisation et satisfaction) constitue l’argument principal de leurs choix professionnels et de leur conception de leurs rôles et responsabilités : ils sont donc mus primairement par des intérêts individualistes. À ce stade-ci de leur vie et de leur carrière, la responsabilité sociale et le sens du devoir envers la population ne figurent pas parmi leurs valeurs fondamentales. Cette théorie novatrice qui propose que leurs choix professionnels se basent d’abord et avant tout sur leurs valeurs permet de mieux comprendre pourquoi les efforts actuels de valorisation de la médecine familiale ne génèrent pas les résultats escomptés. Nous proposons une nouvelle compréhension du sens, de l’origine et des implications des choix professionnels des jeunes généralistes tant aux plans pédagogique, professionnel que de santé populationnelle.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Plusieurs analogues de nucléosides thérapeutiques (Ara-C, Clofarabine), utilisés pour le traitement de leucémies, présentent un arrangement 1’,2’-cis entre la nucléobase reliée au centre anomère et le substituant (électroattracteur) en C-2’. Récemment, notre laboratoire a développé une approche synthétique pour former sélectivement des analogues de nucléosides et de thionucléosides 1’,2’-trans et 1’,2’-cis à partir de précurseurs acycliques. Ce mémoire présente une nouvelle méthodologie pour accéder efficacement aux analogues de nucléosides 1’,2’-cis à partir de furanosides. Différents groupements en position anomérique ont été examinés, sous conditions cinétiques en utilisant le bromure de diméthylbore pour générer sélectivement des produits acycliques ou cycliques. Les intermédiaires cinétiques de différents furanosides de méthyle formés en présence de Me2BBr ont été piégés in situ par un thiol pour générer des thioacétals acycliques avec de bonnes voire d’excellentes diastéréosélectivités. Les produits générés sont en accord avec une rétention globale de l’information stéréochimique du centre acétal et deux déplacements SN2 consécutifs ont été suggérés pour rationaliser ces résultats. Toutefois, l’objectif de synthétiser des analogues de nucléosides à partir de furanosides de méthyle a échoué. Tel que démontré par le Dr Michel Prévost, l’activation par Me2BBr des lactols des quatres différents furanosides suivie d’une addition in situ d’une base silylée a permis de former diastéréosélectivement les analogues de nucléosides 1’,2’-cis correspondants avec d’excellents rendements. Nous avons démontré que d’autres substrats peuvent être employés et que l’induction stéréochimique est sous contrôle du substituant électroattracteur en C-2. D’autres acides de Lewis, tel que TMSBr, peuvent également être utilisés. Cette méthodologie a également été étendue à d’autres nucléophiles tels que des Grignards ou des éthers d’énols silylés, conduisant à de bonnes sélectivités.
Resumo:
En Amérique du Nord, la lutte contre la traite d'êtres humains s'avère d'une grande complexité. Les États doivent développer les stratégies nécessaires pour faire face aux multiples manifestations qui accompagnent le phénomène et exigent une approche holistique, interdisciplinaire et à long terme. Les stratégies nord-américaines de prévention de la traite comportent plusieurs lacunes qui vulnérabilisent certains groupes. Tandis que les mesures déjà en place s'attaquent peu aux causes premières du phénomène, plusieurs réformes essentielles afin de diminuer la vulnérabilité de ces personnes, notamment l'assouplissement des politiques migratoires restrictives, tardent à être implantées. Parallèlement, les stratégies de protection présentent des lacunes qui augmentent les risques de revictimisation des victimes de traite d'êtres humains. D'une part, les autorités n'identifient pas adéquatement toutes les victimes. D'autre part, certaines victimes, bien qu'identifiées, se retrouvent sans protection, soit parce que celle-ci est accordée de façon conditionnelle, soit parce que les mécanismes d'assistance demeurent incomplets.