31 resultados para Coordonnnées principales de matrice de voisinage (PCNM)
em Université de Montréal, Canada
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Communications présentées conjointement au 32e congrès de la Corporation des bibliothécaires professionnels du Québec (CBPQ).
Resumo:
Présentation des étapes d'implantation de Metalib (le répertoire de ressources électroniques Maestro) à l'Université de Montréal, lors de la Journée d’information du 8 septembre 2006 intitulée "La bibliothèque de recherche virtuelle québécoise (BRVQ) : une vision commune d’une réalisation en devenir", organisée par la CREPUQ.
Resumo:
Notre recherche a pour but de déterminer comment les genres textuels peuvent être exploités dans le design des environnements numériques de travail afin de faciliter l’accomplissement des pratiques textuelles de cadres et de secrétaires dans une municipalité et une administration fédérale canadiennes. À cet effet, le premier objectif consiste à évaluer l’aptitude des environnements numériques de travail à supporter les pratiques textuelles (lecture, écriture et manipulation des textes) de ces employés. Le deuxième objectif est de décrire les rôles des genres textuels au cours des pratiques textuelles. Avec l’exemple du courriel, le troisième objectif vise à examiner comment le genre peut être exploité dans une perspective d’assistance à la réalisation des pratiques textuelles dans les environnements numériques de travail. Cette recherche de nature qualitative comporte une méthodologie en deux étapes. La première étape consiste en un examen minutieux des pratiques textuelles, des difficultés rencontrées au cours de celles-ci, du rôle du genre dans les environnements numériques de travail, ainsi que des indices sollicités au cours de la gestion du courriel. Trois modes de collecte des données qualitatives sont utilisés auprès de 17 cadres et de 17 secrétaires issus de deux administrations publiques : l’entrevue semi-dirigée, le journal de bord et l’enquête cognitive. Les résultats sont examinés à l’aide de stratégies d’analyse de contenu qualitative. La deuxième phase comprend la mise au point d’une chaîne de traitement du courriel, visant à étayer notre réflexion sur le genre textuel et son exploitation dans la conception des environnements numériques de travail. Un corpus de 1703 messages est élaboré à partir d’un échantillon remis par deux cadres gouvernementaux. Les résultats permettent d’abord de dresser un portrait général des pratiques de lecture, d’écriture et de manipulation des textes communes et spécifiques aux cadres et aux secrétaires. L’importance du courriel, qui constitue environ 40% des systèmes notés dans les journaux de bord, est soulignée. Les difficultés rencontrées dans les environnements numériques de travail sont également décrites. Dans un deuxième temps, les rôles du genre au cours des pratiques textuelles sont examinés en fonction d’une matrice tenant à la fois compte de ses dimensions individuelles et collectives, ainsi que de ses trois principales facettes ; la forme, le contenu et la fonction. Ensuite, nous présentons un cadre d’analyse des indices affectant la gestion du courriel qui synthétise le processus d’interprétation des messages par le destinataire. Une typologie des patrons de catégorisation des cadres est également définie, puis employée dans une expérimentation statistique visant la description et la catégorisation automatique du courriel. Au terme de ce processus, on observe des comportements linguistiques marqués en fonction des catégories du courriel. Il s’avère également que la catégorisation automatique basée sur le lexique des messages est beaucoup plus performante que la catégorisation non lexicale. À l’issue de cette recherche, nous suggérons d’enrichir le paradigme traditionnel relevant de l’interaction humain-ordinateur par une sémiotique du genre dans les environnements numériques de travail. L’étude propose également une réflexion sur l’appartenance du courriel à un genre, en ayant recours aux concepts théoriques d’hypergenre, de genre et de sous-genre. Le succès de la catégorisation automatique du courriel en fonction de facettes tributaires du genre (le contenu, la forme et la fonction) offre des perspectives intéressantes sur l’application de ce concept au design des environnements numériques de travail en vue de faciliter l’accomplissement des pratiques textuelles par les employés.
Resumo:
La sclérose systémique est une maladie autoimmune dont l’une des complications majeures est la fibrose. La DNA topoisomérase I (topo) est l’un des principaux autoantigènes associés à cette maladie. Toutefois, aucun lien n’a encore pu être établi entre la présence des anti-topo et le développement de la fibrose. Les travaux antérieurs du laboratoire d’accueil ont montré une interaction directe de la topo avec la surface des fibroblastes et la matrice extracellulaire. Nous avons voulu caractériser ces interactions du point de vue moléculaire. La topo a donc été exprimée sous forme de 5 fragments, déterminés à partir de ses principaux domaines structuraux et de ses épitopes majeurs, chez E. coli. Les fragments purifiés ont été analysés pour leur interaction avec l’héparine, représentant les héparane sulfates de la surface des fibroblastes, et avec des protéines purifiées de la matrice extracellulaire. Nous avons montré que le fragment topo-N est le principal responsable de l’interaction avec l’héparine, ce qui suggère donc l’implication potentielle de ce domaine dans l’interaction de la topo avec la surface des fibroblastes. Le fragment topo-DIDII est responsable de l’interaction avec la plupart des protéines de la matrice extracellulaire étudiées, alors que le fragment topo-H15 n’interagit qu’avec la vitronectine. Aucune interaction des fragments topo-DIII et topo-C n’a été décelée. Ces résultats pourront maintenant servir à mieux comprendre le rôle potentiel de la topo et des autoanticorps circulants anti-topo dans la fibrose présente chez les personnes atteintes de sclérose systémique en contribuant à l’identification de la cible de la topo sur les fibroblastes.
Resumo:
Dans ce mémoire, nous présentons un nouveau type de problème de confection de tour- née pour un seul véhicule avec cueillettes et livraisons et contrainte de chargement. Cette variante est motivée par des problèmes similaires rapportés dans la littérature. Le véhi- cule en question contient plusieurs piles où des colis de hauteurs différentes sont empilés durant leur transport. La hauteur totale des items contenus dans chacune des piles ne peut dépasser une certaine hauteur maximale. Aucun déplacement n’est permis lors de la li- vraison d’un colis, ce qui signifie que le colis doit être sur le dessus d’une pile au moment d’être livré. De plus, tout colis i ramassé avant un colis j et contenu dans la même pile doit être livré après j. Une heuristique à grand voisinage, basé sur des travaux récents dans le domaine, est proposée comme méthode de résolution. Des résultats numériques sont rapportés pour plusieurs instances classiques ainsi que pour de nouvelles instances.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Formées lors de l’effondrement gravitationnel d’un nuage de gaz moléculaire, les étoiles naissantes auront différentes masses variant entre 0.08 et environ 100M . La majorité de la population stellaire de la Galaxie est constituée d’étoiles dont la masse est inférieure à environ 0.6 M . Le dernier évènement de formation stellaire dans le voisinage solaire s’est produit dans la bulle locale il y a au plus 100 millions d’années, vraisemblablement provoqué par le passage d’une onde de choc dans le bras local de la Galaxie. C’est ainsi que se formèrent de jeunes associations d’étoiles dont les membres se caractérisent en particulier par une vitesse spatiale et une position commune dans la Galaxie. Les associations jeunes étant peu densément peuplées et relativement proches du Soleil, leurs membres se font plutôt rares et dispersés sur toute la voûte céleste. Jusqu’à présent, surtout les étoiles les plus massives (brillantes) ont été répertoriées. Les étoiles jeunes de faible masse, constituant la majorité de la population, restent pour la plupart à être identifiées. Les étoiles jeunes de faible masse représentent une population clef pour contraindre les modèles évolutifs des étoiles M et des naines brunes. Elles sont également d’excellentes candidates pour chercher des exoplanètes via les techniques d’imagerie directe. Ce mémoire présente une nouvelle méthode utilisant un modèle cinématique enrichi d’une analyse statistique Bayesienne pour identifier des étoiles jeunes de faible masse dans les associations beta Pictoris, Tucana-Horologium et AB Doradus. À partir d’un échantillon de 1080 étoiles K et M, toutes comportant des indicateurs de jeunesse tels l’émission Halpha et une forte luminosité dans les rayons X, leurs propriétés cinématiques (mouvement propre) et photométriques sont analysées pour en extraire 98 candidates hautement probables membres d’une des trois associations. Une confirmation de leur statut comme membre nécessitera en particulier une mesure de leur vitesse radiale (prédit par notre analyse) et une mesure de la largeur équivalente du lithium à 6708 Å pour mieux contraindre leur âge.
Resumo:
Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.
Resumo:
Cette thèse est dédiée à l’étude des matériaux InMnP et GaMnP fabriqués par implantation ionique et recuit thermique. Plus précisément nous avons investigué la possibilité de former par implantation ionique des matériaux homogènes (alliages) de InMnP et GaMnP contenant de 1 à 5 % atomiques de Mn qui seraient en état ferromagnétique, pour des possibles applications dans la spintronique. Dans un premier chapitre introductif nous donnons les motivations de cette recherche et faisons une revue de la littérature sur ce sujet. Le deuxième chapitre décrit les principes de l’implantation ionique, qui est la technique utilisée pour la fabrication des échantillons. Les effets de l’énergie, fluence et direction du faisceau ionique sur le profil d’implantation et la formation des dommages seront mis en évidence. Aussi dans ce chapitre nous allons trouver des informations sur les substrats utilisés pour l’implantation. Les techniques expérimentales utilisées pour la caractérisation structurale, chimique et magnétique des échantillons, ainsi que leurs limitations sont présentées dans le troisième chapitre. Quelques principes théoriques du magnétisme nécessaires pour la compréhension des mesures magnétiques se retrouvent dans le chapitre 4. Le cinquième chapitre est dédié à l’étude de la morphologie et des propriétés magnétiques des substrats utilisés pour implantation et le sixième chapitre, à l’étude des échantillons implantés au Mn sans avoir subi un recuit thermique. Notamment nous allons voir dans ce chapitre que l’implantation de Mn à plus que 1016 ions/cm2 amorphise la partie implantée du matériau et le Mn implanté se dispose en profondeur sur un profil gaussien. De point de vue magnétique les atomes implantés se trouvent dans un état paramagnétique entre 5 et 300 K ayant le spin 5/2. Dans le chapitre 7 nous présentons les propriétés des échantillons recuits à basses températures. Nous allons voir que dans ces échantillons la couche implantée est polycristalline et les atomes de Mn sont toujours dans un état paramagnétique. Dans les chapitres 8 et 9, qui sont les plus volumineux, nous présentons les résultats des mesures sur les échantillons recuits à hautes températures : il s’agit d’InP et du GaP implantés au Mn, dans le chapitre 8 et d’InP co-implanté au Mn et au P, dans le chapitre 9. D’abord, dans le chapitre 8 nous allons voir que le recuit à hautes températures mène à une recristallisation épitaxiale du InMnP et du GaMnP; aussi la majorité des atomes de Mn se déplacent vers la surface à cause d’un effet de ségrégation. Dans les régions de la surface, concentrés en Mn, les mesures XRD et TEM identifient la formation de MnP et d’In cristallin. Les mesures magnétiques identifient aussi la présence de MnP ferromagnétique. De plus dans ces mesures on trouve qu’environ 60 % du Mn implanté est en état paramagnétique avec la valeur du spin réduite par rapport à celle trouvée dans les échantillons non-recuits. Dans les échantillons InP co-implantés au Mn et au P la recristallisation est seulement partielle mais l’effet de ségrégation du Mn à la surface est beaucoup réduit. Dans ce cas plus que 50 % du Mn forme des particules MnP et le restant est en état paramagnétique au spin 5/2, dilué dans la matrice de l’InP. Finalement dans le dernier chapitre, 10, nous présentons les conclusions principales auxquels nous sommes arrivés et discutons les résultats et leurs implications.
Resumo:
La douleur est une expérience perceptive comportant de nombreuses dimensions. Ces dimensions de douleur sont inter-reliées et recrutent des réseaux neuronaux qui traitent les informations correspondantes. L’élucidation de l'architecture fonctionnelle qui supporte les différents aspects perceptifs de l'expérience est donc une étape fondamentale pour notre compréhension du rôle fonctionnel des différentes régions de la matrice cérébrale de la douleur dans les circuits corticaux qui sous tendent l'expérience subjective de la douleur. Parmi les diverses régions du cerveau impliquées dans le traitement de l'information nociceptive, le cortex somatosensoriel primaire et secondaire (S1 et S2) sont les principales régions généralement associées au traitement de l'aspect sensori-discriminatif de la douleur. Toutefois, l'organisation fonctionnelle dans ces régions somato-sensorielles n’est pas complètement claire et relativement peu d'études ont examiné directement l'intégration de l'information entre les régions somatiques sensorielles. Ainsi, plusieurs questions demeurent concernant la relation hiérarchique entre S1 et S2, ainsi que le rôle fonctionnel des connexions inter-hémisphériques des régions somatiques sensorielles homologues. De même, le traitement en série ou en parallèle au sein du système somatosensoriel constitue un autre élément de questionnement qui nécessite un examen plus approfondi. Le but de la présente étude était de tester un certain nombre d'hypothèses sur la causalité dans les interactions fonctionnelle entre S1 et S2, alors que les sujets recevaient des chocs électriques douloureux. Nous avons mis en place une méthode de modélisation de la connectivité, qui utilise une description de causalité de la dynamique du système, afin d'étudier les interactions entre les sites d'activation définie par un ensemble de données provenant d'une étude d'imagerie fonctionnelle. Notre paradigme est constitué de 3 session expérimentales en utilisant des chocs électriques à trois différents niveaux d’intensité, soit modérément douloureux (niveau 3), soit légèrement douloureux (niveau 2), soit complètement non douloureux (niveau 1). Par conséquent, notre paradigme nous a permis d'étudier comment l'intensité du stimulus est codé dans notre réseau d'intérêt, et comment la connectivité des différentes régions est modulée dans les conditions de stimulation différentes. Nos résultats sont en faveur du mode sériel de traitement de l’information somatosensorielle nociceptive avec un apport prédominant de la voie thalamocorticale vers S1 controlatérale au site de stimulation. Nos résultats impliquent que l'information se propage de S1 controlatéral à travers notre réseau d'intérêt composé des cortex S1 bilatéraux et S2. Notre analyse indique que la connexion S1→S2 est renforcée par la douleur, ce qui suggère que S2 est plus élevé dans la hiérarchie du traitement de la douleur que S1, conformément aux conclusions précédentes neurophysiologiques et de magnétoencéphalographie. Enfin, notre analyse fournit des preuves de l'entrée de l'information somatosensorielle dans l'hémisphère controlatéral au côté de stimulation, avec des connexions inter-hémisphériques responsable du transfert de l'information à l'hémisphère ipsilatéral.
Resumo:
Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.
Resumo:
Ce mémoire présente une analyse homogène et rigoureuse de l’échantillon d’étoiles naines blanches situées à moins de 20 pc du Soleil. L’objectif principal de cette étude est d’obtenir un modèle statistiquement viable de l’échantillon le plus représentatif de la population des naines blanches. À partir de l’échantillon défini par Holberg et al. (2008), il a fallu dans un premier temps réunir le plus d’information possible sur toutes les candidates locales sous la forme de spectres visibles et de données photométriques. En utilisant les modèles d’atmosphère de naines blanches les plus récents de Tremblay & Bergeron (2009), ainsi que différentes techniques d’analyse, il a été permis d’obtenir, de façon homogène, les paramètres atmosphériques (Teff et log g) des naines blanches de cet échantillon. La technique spectroscopique, c.-à-d. la mesure de Teff et log g par l’ajustement des raies spectrales, fut appliquée à toutes les étoiles de notre échantillon pour lesquelles un spectre visible présentant des raies assez fortes était disponible. Pour les étoiles avec des données photométriques, la distribution d’énergie combinée à la parallaxe trigonométrique, lorsque mesurée, permettent de déterminer les paramètres atmosphériques ainsi que la composition chimique de l’étoile. Un catalogue révisé des naines blanches dans le voisinage solaire est présenté qui inclut tous les paramètres atmosphériques nouvellement determinés. L’analyse globale qui en découle est ensuite exposée, incluant une étude de la distribution de la composition chimique des naines blanches locales, de la distribution de masse et de la fonction luminosité.
Resumo:
La paroi vasculaire est composée de cellules endothéliales, de cellules musculaires lisses vasculaires et de fibroblastes qui sont entourés d’un réseau structuré et complexe de protéines, la matrice extracellulaire. Les interactions réciproques entre la matrice et les cellules sont nécessaires à la croissance, au développement et au remodelage. Or, différents contextes pathologiques entraînent la perturbation de ces interactions et sont la cause de différentes maladies. Au cours du vieillissement, la matrice extracellulaire des grosses artères élastiques est modifiée. Ainsi, les lamelles élastiques de la paroi vasculaire se fragmentent ou sont dégradées, en plus de calcifier. De même, l’accumulation de protéines plus rigides, comme le collagène, entraîne le développement de la fibrose. Ces modulations vont mener à l’augmentation de la rigidité artérielle et au développement de l’hypertension systolique isolée. En utilisant un modèle animal de calcification basé sur l’inhibition d’une protéine anti-calcifiante, la matrix Gla protein, avec la warfarine, nous avons étudié la séquence des événements impliqués dans le développement de l’hypertension systolique isolée. Nous avons observé l’activation précoce et transitoire de MMP-9, puis du TGF-ß, précédant la modulation phénotypique des cellules musculaires lisses vasculaires, la calcification et les changements hémodynamiques. L’inhibition des métalloprotéinases et du TGF-ß a permis de prévenir la calcification vasculaire. Nous avons également étudié le rôle joué par une enzyme de la matrice extracellulaire, la transglutaminase 2, dans le développement de la calcification associée à l’hypertension systolique isolée. À l’aide d’un nouvel inhibiteur de cette enzyme, qui a permis de prévenir la calcification, nous avons établi que la transglutaminase était un élément clé dans le processus pathologique. Ces travaux ont permis de démontré l’intérêt de nouvelles avenues thérapeutiques ciblant directement la matrice extracellulaire, particulièrement la MMP-9, le TGF-ß et la transglutaminase 2, dans la pathologie de l’hypertension systolique isolée.
Resumo:
Le virus du syndrome reproducteur et respiratoire porcin (SRRP) est actuellement l’une des principales menaces pour la santé des troupeaux porcins. Les multiples voies de transmission complexifient l’épidémiologie de l’infection et en font une maladie particulièrement difficile à contrôler. L’objectif général de ce projet de recherche était de déterminer les facteurs associés au statut SRRP des sites de production afin de mieux comprendre l’épidémiologie de cette maladie au sein de deux régions du Québec ayant des densités porcines différentes. Les stratégies d’introduction des cochettes de remplacement ont d’abord été examinées. Des lacunes importantes ont été identifiées représentant un risque potentiel pour l’introduction du virus ou pour la recirculation d’une souche endémique au sein d’un troupeau reproducteur. Ainsi, appliquée à titre de stratégie de contrôle, l’acclimatation s’est révélée particulièrement problématique. Les principes de base étaient peu respectés, pouvant donc avoir un impact négatif considérable sur la circulation virale au sein du troupeau et potentiellement sur le voisinage immédiat. La fréquence de plusieurs mesures de biosécurité externe a ensuite été évaluée, permettant d’identifier certains problèmes dont ceux touchant principalement les mesures d’hygiène relatives au protocole d’entrée. Des différences de fréquence entre les régions et les types de production ont également été notées, ce qui peut orienter les interventions de rehaussement. Une classification multivariée a permis de grouper les sites en différents patrons de biosécurité pour constituer par le fait même un index de biosécurité. Cette étape a permis d’évaluer l’association entre certaines caractéristiques de l’élevage et le niveau de biosécurité indiqué par l’index. La distribution géographique des patrons au sein des deux régions, couplée à la détection d’agrégats spatiaux de sites ayant un patron similaire, a également permis de cibler davantage les interventions en fonction de la localisation des sites. Suite à l’investigation du statut SRRP des sites, une prévalence apparente très élevée a été obtenue pour les deux régions, complexifiant le contrôle de la maladie. L’étude de facteurs de risque dans la région de densité modérée a mis en évidence quatre facteurs associés au statut SRRP positif des sites, soit un inventaire important, la proximité du site porcin immédiat, l’absence de douche ainsi que le libre accès au site par l’équarrisseur. Une action préventive intégrant des mesures de biosécurité spécifiques peut donc être entreprise directement à la ferme au regard des deux derniers facteurs. Le fait d’utiliser un index de biosécurité plutôt que des mesures de biosécurité spécifiques a également été évalué. Les résultats ne supportent pas l’index global dans l’évaluation de l’association entre la biosécurité et le statut SRRP des sites de production. Finalement, la corrélation entre les distances génétique, euclidienne et temporelle des souches de SRRP, considérant également l’appartenance au même ou à des propriétaires différents, a été évaluée au sein de la région de haute densité. Une corrélation positive entre la distance génétique et euclidienne observée jusqu’à 5 km a souligné l’importance de la propagation régionale impliquant les aérosols, les insectes, d’autres espèces animales ou les objets inanimés. De plus, les souches génétiquement similaires appartenaient davantage à des sites ayant le même propriétaire, ce qui sous-tend des mécanismes de transmission impliquant une source commune d’animaux, d’employés, d’équipement, voire de véhicules.