996 resultados para Système de Recommandation d’Articles de Recherche
Resumo:
Le système rénine-angiotensine est impliqué dans le remodelage structurel et électrique caractérisant la fibrillation auriculaire (FA). L’angiotensine II (ANG II) induit le développement de fibrose et d’hypertrophie au niveau des oreillettes, prédisposant à la FA. Or, les mécanismes électrophysiologiques par lesquels l’ANG II pourrait promouvoir la FA sont peu connus. L’objectif de ce projet de recherche est d’évaluer l’effet de l’ANG II sur les courants potassiques et calciques au niveau auriculaire indépendamment du remodelage structurel. Pour ce faire, nous avons utilisé la technique de patch-clamp avec un modèle de souris surexprimant le récepteur de type 1 à l’angiotensine II (AT1R) spécifiquement au niveau cardiaque. Pour distinguer les effets directs de la surexpression d’AT1R des effets induits par le remodelage cardiaque, nous avons étudié des souris âgées de 180 jours, qui présentent du remodelage structurel, et des souris âgées de 50 jours, qui n’en présentent pas. Des études précédentes sur ce modèle ont montré qu’au niveau des myocytes ventriculaires, l’ANG II réduit le courant potassique global (Ipeak) et rectifiant entrant (IK1) ainsi que le courant calcique de type L (ICaL). Ainsi, notre hypothèse est que l’ANG II modulera aussi ces courants au niveau auriculaire, pouvant ainsi augmenter l’hétérogénéité de repolarisation auriculaire et de ce fait le risque de développer et maintenir la FA. Nous avons observé une diminution significative de la densité d’IK1 dans l’oreillette gauche des souris transgéniques sans changement d’Ipeak. De plus, la densité d’ ICaL n’est pas réduite chez les souris transgéniques âgées de 50 jours. En conclusion, l’effet de l’ANG II sur les courants potassiques et calciques semble dépendre de la chambre cardiaque. En effet, nous savions que l’ANGII réduisait Ipeak, IK1 et ICaL au niveau ventriculaire, mais nos résultats ont montré qu’il ne les affectait pas directement au niveau des oreillettes. Ceci suggère des mécanismes de régulation impliquant des voies de signalisation distinctes selon les chambres cardiaques. Enfin, nos résultats montrant l’absence de l’influence directe de la surexpression d’AT1R sur les canaux K+ et Ca2+ au niveau des myocytes auriculaires renforcent l’importance d’approfondir nos connaissances sur les effets de l’angiotensine II sur le développement de la fibrose, sur le remodelage structurel et sur la conduction électrique cardiaque.
Resumo:
La voie de signalisation des Récepteurs Tyrosine Kinase (RTK) occupe un rôle central dans la régulation de la croissance cellulaire, la prolifération, la différentiation et la motilité. Une régulation anormale des RTKs mène à plusieurs maladies humaines telles que le cancer du sein, la seconde cause de mortalité chez les femmes à cause de l’amplification et la mutation fréquente de la protéine tyrosine kinase HER2 (ERBB2). Grb2-associated binder (Gab) 2 est une protéine adaptatrice qui agit en aval de plusieurs RTKs, y compris HER2, pour réguler de multiples voies de signalisation. En réponse à la stimulation par de nombreux facteurs de croissances et cytokines, Gab2 est recruté à la membrane plasmique où il potentialise l’activation des voies de signalisation Ras/mitogen-activated protein kinase (MAPK) et PI3K (phosphatidylinositol-3-kinase)/Akt (protein kinase B). En plus d’occuper un rôle essentiel durant le développement du système hématopoïétique, Gab2 est souvent amplifié dans les cancers, notamment le cancer du sein et les mélanomes. Cependant, les mécanismes moléculaires qui régulent le fonctionnement de Gab2 sont peu connus. Il est établi que lors de l’activation des RTKs, Gab2 est phosphorylé au niveau de plusieurs résidus Tyrosine, menant à l’association de différentes protéines comme p85 et Shp2. En plus de la phosphorylation en Tyrosine, notre laboratoire ainsi que d’autres groupes de recherche avons identifié que Gab2 est aussi phosphorylé au niveau de résidus Ser/Thr suite à l’activation de la voie de signalisation MAPK. Cependant, la régulation des fonctions de Gab2 par ces modifications post-traductionnelles est encore peu connue. Dans le but de comprendre comment Gab2 est régulé par la voie de signalisation MAPK, nous avons utilisé différentes approches. Dans la première partie de ma thèse, nous avons déterminé un nouveau mécanisme démontrant que la voie de signalisation Ras/MAPK, par le biais des protéines kinases RSK (p90 ribosomal S6 kinase), phosphoryle Gab2. Ce phénomène se produit à la fois in vivo et in vitro au niveau de trois résidus Ser/Thr conservés. Des mutations au niveau de ces sites de phosphorylation entrainent le recrutement de Shp2 menant à l’augmentation de la motilité cellulaire, ce qui suggère que les protéines RSK restreignent les fonctions dépendantes de Gab2. Ce phénomène est le résultat de la participation de RSK dans la boucle de rétroaction négative de la voie de signalisation MAPK. Dans la seconde partie de ma thèse, nous avons démontré que les protéines ERK1/2 phosphorylent Gab2 au niveau de plusieurs résidus pS/T-P à la fois in vitro et in vivo, entrainant l’inhibition du recrutement de p85. De plus, nous avons établi pour la première fois que Gab2 interagit physiquement avec ERK1/2 dans des cellules lors de l’activation de la voie de signalisation MAPK. Par ailleurs, nous avons montré un nouveau domaine d’attache du module ERK1/2 sur Gab2. Des mutations sur les résidus essentiels de ce domaine d’attache n’entrainent pas seulement la dissociation de ERK1/2 avec Gab2, mais diminuent également la phosphorylation dépendante de ERK1/2 sur Gab2. Ainsi, nos données montrent que la voie de signalisation MAPK régule les fonctions de la protéine Gab2 par le biais des kinases RSK et ERK1/2. Cette thèse élabore par ailleurs un schéma complet des fonctions de Gab2 dépendantes de la voie de signalisation MAPK dans le développement de nombreux cancers.
Resumo:
Dans ce rapport de mémoire, nous avons utilisé les méthodes numériques telles que la dynamique moléculaire (code de Lammps) et ART-cinétique. Ce dernier est un algorithme de Monte Carlo cinétique hors réseau avec construction du catalogue d'événements à la volée qui incorpore exactement tous les effets élastiques. Dans la première partie, nous avons comparé et évalué des divers algorithmes de la recherche du minimum global sur une surface d'énergie potentielle des matériaux complexes. Ces divers algorithmes choisis sont essentiellement ceux qui utilisent le principe Bell-Evans-Polanyi pour explorer la surface d'énergie potentielle. Cette étude nous a permis de comprendre d'une part, les étapes nécessaires pour un matériau complexe d'échapper d'un minimum local vers un autre et d'autre part de contrôler les recherches pour vite trouver le minimum global. En plus, ces travaux nous ont amené à comprendre la force de ces méthodes sur la cinétique de l'évolution structurale de ces matériaux complexes. Dans la deuxième partie, nous avons mis en place un outil de simulation (le potentiel ReaxFF couplé avec ART-cinétique) capable d'étudier les étapes et les processus d'oxydation du silicium pendant des temps long comparable expérimentalement. Pour valider le système mis en place, nous avons effectué des tests sur les premières étapes d'oxydation du silicium. Les résultats obtenus sont en accord avec la littérature. Cet outil va être utilisé pour comprendre les vrais processus de l'oxydation et les transitions possibles des atomes d'oxygène à la surface du silicium associée avec les énergies de barrière, des questions qui sont des défis pour l'industrie micro-électronique.
Resumo:
Introduction : Bien que la pratique de l’usage de la warfarine se soit améliorée au cours de la dernière décennie, aucune recommandation claire basée sur le dosage de l’amiodarone n’a été jusqu’à maintenant standardisée, ce qui représente un grand obstacle pour les cliniciens. La warfarine a un index thérapeutique étroit nécessitant un suivi régulier et un ajustement individuel de la posologie, ceci afin de déterminer la dose thérapeutique, tout en prévenant les effets secondaires qui pourraient être fatals dans certains cas. La variabilité interindividuelle de la réponse à la warfarine dépend de plusieurs facteurs, dont l’âge, le sexe, le poids, l’alimentation et l’interaction médicamenteuse, mais ceux-ci n’expliquent que partiellement les différences de sensibilité à la warfarine. Les polymorphismes des gènes CYP2C9 et VKORC1 jouent un rôle important dans la réponse à la warfarine et expliquent jusqu’à 50% de la variabilité des doses. L’utilisation d’antiarythmiques telle l’amiodarone peut accentuer considérablement l’effet de la warfarine et nécessite généralement une diminution de 30 à 50% de la dose de la warfarine. Aucune étude à ce jour n’a tenté de déterminer l’utilité du génotypage des polymorphismes des gènes CYP2C9 et VKORC1 chez les patients sous traitement combiné de warfarine et amiodarone. Objectif : Notre étude a pour objectif tout d’abord de déterminer si des facteurs génétiques influencent la première dose de stabilisation de la warfarine chez les patients en FA après l’introduction de l’amiodarone. Nous allons également tenter de confirmer l’association préalablement rapportée entre les facteurs génétiques et la première dose de stabilisation de warfarine dans notre population à l’étude. Méthodes : Un devis de cohorte rétrospective de patients qui fréquentaient la clinique d'anticoagulothérapie de l’Institut de cardiologie de Montréal entre le 1er janvier 2007 et le 29 février 2008 pour l’ajustement de leur dose selon les mesures d'INR. Au total, 1615 patients ont été recrutés pour participer à cette étude de recherche. Les critères de sélection des patients étaient les patients avec fibrillation auriculaire ou flutter, ayant un ECG documenté avec l'un de ces deux diagnostics et âgé de moins de 67 ans, en raison d’une moindre comorbidité. Les patients souffrant d’insuffisance hépatique chronique ont été écartés de l’étude. Tous les patients devaient signer un consentement éclairé pour leur participation au projet et échantillon de sang a été pri pour les tests génétiques. La collecte des données a été effectuée à partir du dossier médical du patient de l’Institut de cardiologie de Montréal. Un formulaire de collecte de données a été conçu à cet effet et les données ont ensuite été saisies dans une base de données SQL programmée par un informaticien expert dans ce domaine. La validation des données a été effectuée en plusieurs étapes pour minimiser les erreurs. Les analyses statistiques utilisant des tests de régression ont été effectuées pour déterminer l’association des variants génétiques avec la première dose de warfarine. Résultats : Nous avons identifié une association entre les polymorphismes des gènes CYP2C9 et VKORC1 et la dose de la warfarine. Les polymorphismes génétiques expliquent jusqu’à 42% de la variabilité de dose de la warfarine. Nous avons également démontré que certains polymorphismes génétiques expliquent la réduction de la dose de warfarine lorsque l’amiodarone est ajoutée à la warfarine. Conclusion : Les travaux effectués dans le cadre de ce mémoire ont permis de démontrer l’implication des gènes CYP2C9 et VKORC1 dans la réponse au traitement avec la warfarine et l’amiodarone. Les résultats obtenus permettent d’établir un profil personnalisé pour réduire les risques de toxicité, en permettant un dosage plus précis de la warfarine pour assurer un meilleur suivi des patients. Dans le futur, d’autres polymorphismes génétiques dans ces gènes pourraient être évalués pour optimiser davantage la personnalisation du traitement.
Resumo:
À la suite d’un crime, les victimes vont ressentir différents besoins et celui d’être informé serait fondamental (Baril, 1984). Les recherches ont permis d’établir que les policiers ont un rôle important à jouer dans la transmission des informations aux victimes puisqu’ils sont les premiers acteurs du système pénal avec lesquels celles-ci sont en contact (Laxminarayan, 2013). De plus, la perception des victimes quant à la façon dont elles ont été traitées par les policiers peut avoir un impact significatif sur leur rétablissement psychologique. Cette étude a pour but de mesurer l’effet thérapeutique des interactions entre les victimes et les policiers ainsi que de la transmission des informations aux victimes à la suite d’un crime sur l’état de stress post-traumatique (ÉSPT). Pour ce faire, l’instrument qui a été administré aux participants (n=188) est l’Échelle modifiée des symptômes du trouble de stress post-traumatique. Cet instrument est une version adaptée et validée en français (Guay, Marchand, Iucci et Martin, 2002) de l’échelle MPSS-SR élaborée par Falsetti, Resnick, Resick et Kilpatrick (1993). Cette échelle permet d’évaluer la présence des symptômes de stress post-traumatique en terme de fréquence et de sévérité. Les résultats de l’étude montrent que l’information est un déterminant important d’un traitement juste et la qualité de ce traitement à un effet thérapeutique sur les symptômes de stress post-traumatique. Une discussion des résultats dans une perspective plus globale concernant les théories en victimologie sur la perception de justice, la problématique de la victimisation secondaire et les implications pour les politiques en matière de droits des victimes sera présentée à la fin de cette recherche.
Resumo:
Thèse de doctorat effectuée en cotutelle au Département d’histoire de l’art et d’études cinématographiques, Faculté des arts et des sciences, Université de Montréal et à l’Institut de recherche sur le cinéma et l'audiovisuel (IRCAV), Arts et Médias, ED 267, Université Sorbonne Nouvelle – Paris 3
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.
Resumo:
Située dans le discours actuel à la mode sur la diversité culturelle, l’objet de cette thèse consiste à comprendre l’orientation pratique d’une organisation internationale en matière de gestion de sa diversité culturelle interne. Il propose que, face aux changements qui ont modifié la configuration sociodémographique de la sphère organisationnelle, il serait intéressant de partir d’une organisation pour laquelle la diversité est une tradition tributaire de son fonctionnement. L’organisation sujet d’étude est internationale, affiliée à l’Unesco. Cette dernière étant reconnue pour son mandat qui valorise et protège les cultures. L’ancrage épistémologique de la thèse est bi-disciplinaire. Il considère deux champs théoriques sur lesquels se construit la diversité culturelle. Le premier est forgé dans les théories de management dites « occidentales » sur la diversité. Le deuxième champ, s’établit sur une approche dynamique de la culture apportée par les « Cross-Cultural Studies ». La méthodologie que nous avons mobilisée pour cette recherche est principalement qualitative. Elle est également diverse puisqu’elle veut identifier trois niveaux d’analyses. D’abord, l’étude historique réalisée se fonde sur l’analyse d’articles choisis tirés des archives de l’« organisation mère » (Unesco). Elle se veut être une étude exhaustive qui révèle l’évolution du discours « global » de cette organisation sur la diversité culturelle depuis sa création. Ensuite, afin de mieux comprendre le discours interne de l’Organisation sur la diversité culturelle, une analyse du contenu d’un « halo » de ses politiques internes a lieu. Elle nous permet de comprendre la valeur que prend la diversité culturelle dans son discours « organisationnel » dans la période de temps que nous traitons. Enfin, les histoires « individuelles » des acteurs de la diversité culturelle, apportent une description riche et, complètent l’analyse avec leurs interprétions des pratiques de gestions mises en place à leur égard. Des éléments de recherche sous adjacentes sont aussi amenés dans la thèse et font également partie du processus de l’analyse de la pratique de la diversité culturelle dans l’Organisation. En effet, la thèse se penche sur le problème conceptuel sur la « diversité culturelle ». Elle apporte des éclaircissements à la terminologie à travers l’analyse de ses différents emplois dans la littérature organisationnelle. Par ailleurs, elle clarifie la notion d’organisation internationale et propose une description du contexte unesquien défini par sa diversité culturelle interne. L’ensemble des niveaux examinés a permis de mettre en évidence une double constatation. D’une part, le paradoxe entre les trois niveaux. D’autre part, la neutralité des pratiques de gestion de la diversité culturelle pour les employés et la demande implicite de reconnaissance de leurs identités culturelles. Des recommandations sont proposées et des suggestions pour de recherches ultérieures sont formulées à la conclusion de la thèse.
Resumo:
Ce mémoire porte sur l’utilisation des niveaux d’interventions médicales (NIM) en centre hospitalier (CH) au Québec. Les NIM sont des formulaires organisés sous forme d’échelle, qui ont été développés afin de faciliter la prise de décision en lien avec la réanimation, les traitements de maintien en vie et de prolongation de la vie, et les soins à offrir. L’objectif de ce mémoire est d’offrir un portrait de l’utilisation actuelle des NIM au Québec en CH afin d’émettre des recommandations pour les professionnels de la santé, les institutions et les décideurs politiques. Dans un premier temps, un article de recension des écrits est présenté afin de situer les concepts associés aux NIM avec les problèmes actuellement vécus, par exemple le grand nombre de patients qui décèdent en CH, les problèmes de communication entre les professionnels de la santé, les patients et leur famille, les difficultés liées à la prise de décision en fin de vie et les délais liés aux ordonnances de non-réanimation. Dans un deuxième temps, le second article présente les résultats de recherche. Afin d’établir le portrait de l’utilisation des NIM en CH, un audit de 299 dossiers de patients adultes, décédés dans trois CH a été entrepris. Le cadre éthique d’analyse des résultats est l’approche par principes. Bien que l’utilisation des NIM peut différer sur certains aspects selon l’hôpital, les NIM sont un système efficace pour promouvoir le respect de l’autonomie des patients, la bienfaisance et le caring, mais ceux-ci ne protègent pas contre les problèmes d’iniquité dans l’accès aux soins palliatifs. Afin de faciliter et promouvoir leur utilisation, il est recommandé de standardiser les échelles de NIM à travers la province et les institutions et d’émettre des lignes directrices d’utilisation claires. Également, une plus grande formation pour les professionnels de la santé et l’inclusion d’un membre de l’équipe interdisciplinaire permettraient aux professionnels d’être mieux outillés pour les discussions difficiles et pour la prise de décision, et encourageraient la pratique interdisciplinaire.
Resumo:
En continuité avec les ouvrages récents (Veyne 1981, MacMullen 1988 et Kelly 2004) qui tentent de relativiser les effets néfastes de la corruption lors du Bas-Empire, ce travail étudie le suffragium, le processus de nomination des fonctionnaires de bureaux, afin d'évaluer comment les acteurs sociaux du IVe siècle considéraient ce phénomène. Ce système, organisé d'une telle façon que les hauts fonctionnaires devaient fournir des lettres de recommandation aux candidats postulant à des postes au sein de la fonction publique, serait devenu complètement corrompu durant le IVe siècle et les lettres de recommandation auraient commencé à être systématiquement vendues. Pourtant, les lois de Constantin, Constance et Julien ne fournissent aucune preuve tangible que le suffragium était dans tous le cas vénal à cette époque. Bien au contraire, les empereurs ajoutaient la plupart de temps des épithètes au terme suffragium pour spécifier qu'il parle du suffragium vénal. Généralement, les empereurs sont présentés comme farouchement opposés au suffragium et à toutes les tractations qui y sont attachées. Loin d'être aussi hostiles envers les « pratiques corrompues », les empereurs de la dynastie constantinienne firent preuve d'un certain pragmatisme en voyant qu'ils ne pouvaient contrôler toutes les nominations de ceux qui voulaient entrer dans la fonction publique et que ce n'était pas nécessairement à leur avantage de le faire. Les empereurs se concentrèrent plutôt sur les restrictions entourant les promotions afin de faire en sorte que les personnes qui avaient de réels pouvoirs soient celles qui avaient démontré leurs qualités tout au long de leurs années de service. Bien qu'ils n'aient pas concrètement légiféré sur les critères d'embauche des candidats, cela ne veut pas dire que n'importe qui pouvait obtenir un poste. À travers l'étude des lettres de Libanios et de Symmaque, ce travail démontre que les hauts fonctionnaires ne fournissaient pas de lettres à quiconque le demandait, puisque leur réputation pouvait être entachée par le fait d'avoir recommandé un mauvais candidat à un de leurs amis. Les hauts fonctionnaires qui recevaient les recommandations pouvaient également soumettre les candidats à des examens afin d'être certains de la qualité de l'individu. Ce système officieux de contrôle des candidats vint pallier, en partie, les déficits de la législation impériale. Conjointement, la loi et les usages permirent à l'administration de fonctionner en lui fournissant des candidats qui répondaient aux critères de l'époque.
Resumo:
Projet de recherche réalisé avec Bernard Angers comme directeur de maîtrise, Denis Réale en tant que co-directeur et grâce à la collaboration active d'Emmanuel Milot.
Resumo:
À travers cette thèse, nous revisitons les différentes étapes qui ont conduit à la découverte des isolants topologiques, suite à quoi nous nous penchons sur la question à savoir si une phase topologiquement non-triviale peut coexister avec un état de symétrie brisée. Nous abordons les concepts les plus importants dans la description de ce nouvel état de la matière, et tentons de comprendre les conséquences fascinantes qui en découlent. Il s’agit d’un champ de recherche fortement alimenté par la théorie, ainsi, l’étude du cadre théorique est nécessaire pour atteindre une compréhension profonde du sujet. Le chapitre 1 comprend un retour sur l’effet de Hall quantique, afin de motiver les sections subséquentes. Le chapitre 2 présente la première réalisation d’un isolant topologique à deux dimensions dans un puits quantique de HgTe/CdTe, suite à quoi ces résultats sont généralisés à trois dimensions. Nous verrons ensuite comment incorporer des principes de topologie dans la caractérisation d’un système spécifique, à l’aide d’invariants topologiques. Le chapitre 3 introduit le premier dérivé de l’état isolant topologique, soit l’isolant topologique antiferromagnétique (ITAF). Après avoir motivé théoriquement le sujet et introduit un invariant propre à ce nouvel état ITAF, qui est couplé à l’ordre de Néel, nous explorons, dans les chapitres 4 et 5, deux candidats de choix pour la phase ITAF : GdBiPt et NdBiPt.
Resumo:
Contexte : L’hypertension artérielle (HTA) est reconnue comme un important facteur de risque des maladies cardiovasculaires et de la mortalité prématurée. Les données montrent qu’un adulte sur 4 dans le monde souffrait d’hypertension en 2000 et ce chiffre serait en augmentation. Dans les pays africains, les estimations prévoient une progression plus rapide de la prévalence de l’HTA engendrant ainsi un problème additionnel à gérer pour le système de santé qui est toujours aux prises avec les maladies transmissibles. Les progrès économiques et l’urbanisation semblent entraîner des modifications des habitudes de vie dans ces pays qui seraient associés à une émergence des maladies non transmissibles, dont l’HTA. Le Burkina Faso, pays de l’Afrique de l’Ouest classé comme un pays à faibles revenus, aurait amorcé sa transition épidémiologique et il importe de faire un état sur les maladies non transmissibles en émergence. Afin de contribuer à la connaissance des aspects épidémiologiques de l’HTA au Burkina Faso, trois objectifs spécifiques ont été retenus pour la présente recherche : 1) Estimer la prévalence de l’HTA et identifier les facteurs associés dans la population rurale et la population semi-urbaine du Système de Surveillance démographique et de Santé de Kaya (Kaya HDSS) ; 2) Déterminer la différence de prévalence de l’HTA entre la zone lotie et la zone non lotie de la ville de Ouagadougou et identifier les facteurs associés ; 3) Déterminer la détection, le traitement, le contrôle de l’HTA et estimer la fréquentation des centres de santé par les personnes hypertendues nouvellement dépistées dans la population adulte du Centre Nord du Burkina Faso. Méthodologie : Le cadre de notre recherche est le Burkina Faso. Deux sites ont fait l’objet de nos investigations. Kaya HDSS, situé dans la région du Centre Nord du Burkina Faso a servi de site pour les enquêtes ayant permis l’atteinte du premier et du troisième objectif général. Une étude transversale a été menée en fin 2012 sur un échantillon aléatoire de 1645 adultes résidents du site. Un entretien suivi de mesures anthropométriques et de la pression artérielle (PA) ont été réalisés au domicile des participants. Toutes les personnes qui avaient une PA élevée (PA systolique ≥ 140 mm Hg et/ou PA diastolique ≥ 90 mm Hg) et qui n’avaient pas été diagnostiquées auparavant ont été référées à une formation sanitaire. Un second entretien a été réalisé avec ces personnes environ un mois après. Pour le second objectif général, c’est le système de surveillance démographique et de santé de Ouagadougou (Ouaga HDSS) qui a été retenu comme site. Ouaga HDSS couvre 5 quartiers de la zone nord de Ouagadougou. Une étude transversale a été réalisée en 2010 sur un échantillon aléatoire représentatif de la population adulte résidante du site (N = 2041). Des entretiens suivis de mesures anthropométriques et de la PA ont été réalisés durant l’enquête. Résultats : Notre premier article examine la prévalence de l’HTA et les facteurs associés en milieu rural et en milieu semi-urbain. Au total 1481 participants ont été dépistés et la prévalence totale pondérée était de 9,4 % (95 % IC : 7,3 % - 11,4 %) avec une grande différence entre le milieu semi-urbain et le milieu rural : un adulte sur 10 était hypertendu en milieu semi-urbain contre un adulte sur 20 en milieu rural. L’analyse multivariée nous a permis d’identifier l’âge avancé, le milieu semi-urbain et l’histoire familiale de l’HTA comme des facteurs de risque. Dans le deuxième article, nous avons déterminé la différence entre la zone lotie et la zone non lotie du milieu urbain en ce qui concerne l’HTA. Sur 2 041 adultes enquêtés, la prévalence totale est estimée à 18,6 % (95 % IC : 16,9 % - 20,3 %). Après ajustement avec l’âge, il n’y avait pas de différence de prévalence entre la zone lotie et la zone non lotie de la ville de Ouagadougou. Dans ce milieu urbain, l’obésité et l’inactivité physique sont confirmées comme des facteurs à risque. En plus des personnes âgées qui constituent un groupe à risque, les migrants venant du milieu rural et les veuves ont été identifiés comme des personnes à risque. Notre troisième article examine la détection, le traitement, le contrôle de l’HTA ainsi que la fréquentation des structures de santé par les personnes nouvellement dépistées hypertendues dans le milieu non urbain. Sur les 1481 participants à l’étude, 41 % n’avaient jamais mesuré leur PA. Sur les 123 participants (9,4 %) dépistés comme hypertendus, 26,8 % avaient déjà bénéficié d’un diagnostic et 75,8 % de ces derniers étaient sous traitement anti hypertensif. Parmi les participants sous traitement, 60 % (15 sur 25) avaient leur PA sous contrôle. Le suivi de 2 mois a permis de retrouver 72 des 90 personnes nouvellement dépistées. Seulement 50 % ont été en consultation et parmi ces derniers 76 % (28 personnes sur les 37) ont reçu une confirmation de leur hypertension. Conclusion : Notre recherche montre l’évolution de l’HTA en fonction du niveau d’urbanisation de la population. Même si les maladies infectieuses restent la priorité du système de santé, la lutte contre l’HTA doit s’inscrire dans un cadre général de lutte contre les maladies cardiovasculaires. Cette lutte doit être amorcée maintenant avant que des proportions inquiétantes ne soient atteintes. Des actions de prévention telles que la promotion de saines habitudes de vie, le dépistage de masse et un renforcement des capacités du système de soins sont à mettre en œuvre.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.