847 resultados para Séquençage à haut-débit
Resumo:
Contexte: La césarienne est une procédure chirurgicale qui survient dans plus du quart des accouchements en Amérique du Nord. Les techniques chirurgicales de fermeture de l’utérus lors de la césarienne sont variées, influencent la cicatrisation et le risque de complications chez la femme à court et long terme. Il a été suggéré que la fermeture en un plan barré augmentait le risque de rupture de l’utérus et de défaut de cicatrisation de l’utérus. Cependant, en l’absence d’un haut niveau d’évidence, cette technique est toujours pratiquée au Canada et en Amérique du Nord. Objectif: Comparer l’impact des différentes techniques de fermeture de l’utérus lors de la césarienne sur les complications maternelles à court et long terme. Méthode : Trois revues systématiques et méta-analyses d’études observationnelles ou d’essais randomisés contrôlés (ECR) ont été réalisées. La prévalence des défauts de cicatrisation et les issues à court et long terme ont été comparées entre les techniques de fermeture de l’utérus. Par la suite, un essai randomisé contrôlé a évalué trois techniques de fermeture de l’utérus : un plan barré, deux plans barrés et deux plans non barrés excluant la déciduale, chez 81 femmes avec une césarienne primaire élective à ≥ 38 semaines de grossesse. L’épaisseur du myomètre résiduel a été mesurée six mois après la césarienne à l’aide d’une échographie transvaginale et comparée par un test t de Student. Résultats : Les résultats des revues systématiques et méta-analyses ont montré que 37% à 59% des femmes présentaient un défaut de cicatrisation de l’utérus après leur césarienne. Concernant les complications à court terme, les types de fermeture de l’utérus étudiés sont comparables, à l’exception de la fermeture en un plan barré qui est associée à un temps opératoire plus court que celle en deux plans (-6.1 minutes, 95% intervalle de confiance (IC) -8.7 à -3.4, p<0.001). Les fermetures de l’utérus en un plan barré sont associées à plus de risque de rupture utérine qu’une fermeture en deux plans barrés (rapport de cote 4.96; IC 95%: 2.58–9.52, P< 0.001). L’ECR a également démontré que la fermeture de l’utérus en un plan barré était associée à une épaisseur du myomètre résiduel plus mince que la fermeture en deux plans non barrés excluant la déciduale (3.8 ± 1.6 mm vs 6.1 ± 2.2 mm; p< 0.001). Finalement, aucune différence significative n’a été détectée concernant la fréquence des points d’hémostases entre les techniques (p=1.000). Conclusion : Lors d’une césarienne élective primaire à terme, une fermeture en deux plans non barrés est associée à un myomètre plus épais qu’une fermeture en un plan barré, sans augmenter le recours à des points d’hémostase. De plus, il est suggéré que la fermeture en deux plans réduirait le risque de rupture utérine lors d’une prochaine grossesse. Finalement, la fermeture chez les femmes en travail doit être plus étudiée.
Resumo:
Cette thèse a pour sujet le développement d’un détecteur à fibre scintillante plastique pour la dosimétrie des faisceaux de photons de basses énergies. L’objectif principal du projet consiste à concevoir et caractériser cet instrument en vue de mesurer la dose de radiation reçue au cours des examens d’imagerie diagnostique et interventionnelle. La première section est consacrée à la conception de six différents systèmes et à l’évaluation de leur performance lorsqu’ils sont exposés à des rayonnements de hautes et basses énergies. Tous les systèmes évalués présentaient un écart type relatif (RSD) de moins de 5 % lorsqu’ils étaient exposés à des débits de dose de plus de 3 mGy/s. Cette approche systématique a permis de déterminer que le tube photomultiplicateur répondait le mieux aux conditions d’exposition propres à la radiologie. Ce dernier présentait une RSD de moins de 1 % lorsque le débit de dose était inférieur à 0.10 mGy/s. L’étude des résultats permis également de suggérer quelques recommandations dans le choix d’un système en fonction de l’application recherchée. La seconde partie concerne l’application de ce détecteur à la radiologie interventionnelle en procédant à des mesures de dose à la surface d’un fantôme anthropomorphique. Ainsi, plusieurs situations cliniques ont été reproduites afin d’observer la précision et la fiabilité du détecteur. Ce dernier conserva une RSD inférieure à 2 % lorsque le débit de dose était supérieur à 3 mGy/min et d’environ 10 % au débit le plus faible (0.25 mGy/min). Les mesures sur fantôme montrèrent une différence de moins de 4 % entre les mesures du détecteur et celles d’une chambre d’ionisation lors du déplacement de la table ou du bras de l’appareil de fluoroscopie. Par ailleurs, cette différence est demeurée sous les 2 % lors des mesures de débit de dose en profondeur. Le dernier sujet de cette thèse porta sur les fondements physiques de la scintillation dans les scintillateurs plastiques. Les différents facteurs influençant l’émission lumineuse ont été analysés afin d’identifier leur contribution respective. Ainsi, la réponse du détecteur augmente de près d’un facteur 4 entre un faisceau de 20 kVp et 250 kVp. De ce signal, la contribution de la fluorescence produite dans la fibre claire était inférieure à 0.5 % lorsque les fibres étaient exposées sur 10 cm par des faisceaux de 20 à 250 kVp. Le phénomène d’extinction de la fluorescence par ionisation a également été étudié. Ainsi, l’atténuation du signal variait en fonction de l’énergie du faisceau et atteignit environ 20 % pour un faisceau de 20 kVp. En conclusion, cette étude suggère que les détecteurs à fibres scintillantes peuvent mesurer avec précision la dose de radiation reçue en imagerie diagnostique et interventionnelle, mais une calibration rigoureuse s’avère essentielle.
Resumo:
L’identité professionnelle des travailleurs sociaux (TS) est l’objet de débats et d’enjeux au sein de la profession depuis longtemps. Le caractère a priori insaisissable de la dimension relationnelle n’est pas sans participer à cette préoccupation constante à l’égard de la professionnalité du travail social. Confrontée à une difficulté de conceptualisation, et, par voie de conséquence, d’évaluation des productions des TS, la profession souffre d’un sentiment de non-reconnaissance par la population et par le champ des professions sociales. Cette difficulté à concevoir et à nommer sa pratique va même jusqu’à provoquer un haut taux de détresse et de retrait au travail chez les TS. Si la médiation représente le trait distinctif du travail social, elle n’apparait pas spontanément dans les discours des TS ; celle-ci étant plutôt conçue en termes de négociation ou de résolution de conflits. Pourtant, l’intervention sociale du TS repose sur une médiation fondamentale qui rend possible l’harmonisation des dimensions individuelle et sociale caractéristiques du travail social et qui conduit un usager à reprendre du pouvoir sur sa vie afin que ses besoins sociaux trouvent enfin satisfaction et que se rétablisse l’échange social. L’action du TS est donc essentiellement médiatrice, puisqu’elle vise l’objectivation et la transformation d’un rapport rompu entre un usager et une norme sociale. La position du TS à l’interface de différents systèmes, qu’ils soient individuels, institutionnels, organisationnels, politiques ou sociaux, facilite par ailleurs l’accomplissement de la médiation. Or, l’occultation de cette spécificité professionnelle, dans un contexte où la profession est amenée à débattre publiquement de ses productions, accroit l’importance de mieux comprendre cette pratique professionnelle. C’est dans cette perspective que cette thèse de doctorat a souhaité caractériser la dimension médiatrice de la pratique professionnelle de TS œuvrant en Centres de santé et de services sociaux (CSSS). Plus spécifiquement, deux composantes de la pratique de TS en CSSS ont été analysées: l’intervention sociale telle que réalisée en situation et l’intervention sociale telle que consignée par écrit. Deux formes de données ont donc constitué le corpus analysé: des enregistrements audio d’entrevues individuelles conduites par six TS auprès d’usagers et la reprographie des notes évolutives insérées aux dossiers à la suite de ces entrevues. Le recours à un dispositif de traitement et d’analyse des données fondé sur la méthode d’analyse structurale de discours a guidé l’analyse de ces deux types de données. Cette dernière, parce qu’elle permet de dégager les univers de sens donnés à une profession et qui orientent la conduite de la pratique professionnelle de ses agents, donne accès aux référents professionnels partagés par l’ensemble du groupe et, par voie de conséquence, met à jour les piliers de son identité professionnelle. Les résultats font ressortir un écart dans l’intervention sociale telle que réalisée et telle que consignée aux dossiers. Se référant tantôt aux normes sociales tantôt au cadre normatif institutionnel, ses visées oscillent entre la recherche d’une transformation sociale et l’atteinte d’un équilibre fonctionnel chez l’usager. Deux logiques d’intervention sont donc mises en œuvre : une logique d’accompagnement lors des entretiens auprès de l’usager et une logique thérapeutique dans les notes aux dossiers. En situation, il s’agit d’un travail social fondé sur une logique d’accompagnement de l’usager dans l’instauration d’un registre d’action visant à le rendre autonome dans la prise en charge de ses difficultés. Le TS devient dès lors accompagnateur et guide vers le changement. Dans le cadre de la logique thérapeutique, le TS se positionne plutôt comme le spécialiste des problèmes de l’usager. Par la maitrise d’actes cliniques et diagnostiques que lui seul est à même de poser, les symptômes identifiés peuvent enfin être contrôlés, les critères institutionnels d’octroi de services sociaux être rencontrés et son intervention plus facilement évaluée. Si l’idée d’améliorer la situation de l’usager est celle qui prime dans les entrevues, dans les notes aux dossiers, l’intention est de démontrer sa compétence envers le problème de l’usager. Quelles que soient ces distinctions, et en dépit de l’écart observé et des exigences actuelles pesant sur la profession, les constats dégagés indiquent que le travail social conserve le même mandat : agir sur les rapports des usagers aux normes sociales, quelle que soit la forme de ces normes.
Resumo:
Les villes d’Afrique subsaharienne devront faire face à de grands phénomènes complexes dans les prochaines décennies : une forte croissance démographique, une demande alimentaire croissante, des impacts des changements climatiques, une augmentation des problématiques environnementales dues aux activités humaines en développement. Les difficultés de gestion de ces grands phénomènes s’ajouteront aux problématiques économiques, politiques, alimentaires, législatives, sanitaires et sociales déjà omniprésentes à différentes échelles dans les villes d’Afrique subsaharienne. L’ensemble de ces défis et ces contraintes nuit au développement des activités agricoles urbaines et périurbaines qui ont peu d’options à leur disposition pour bâtir des systèmes efficaces et productifs dans ces milieux denses et perturbés. Les préoccupations de durabilité et de santé peuvent alors souvent se trouver au bas de la liste de priorité des producteurs. L’agriculture maraîchère urbaine et périurbaine peut cependant offrir plusieurs bénéfices importants pour les citoyens et la gestion écologiques des villes. Elle participe d’une part à l’approvisionnement en aliments frais localement produits pour les citoyens urbains de diverses classes sociales. Elle a des impacts positifs sur la sécurité alimentaire et nutritionnelle ainsi que sur les conditions économiques des ménages à faible revenu. La proximité des marchés et des services urbains offrent aussi des avantages intéressants pour les producteurs qui peuvent écouler leur marchandise hautement périssable sur les marchés urbains et s’approvisionner en intrants dans les commerces et les industries urbaines. Les activités agricoles urbaines et périurbaines présentent cependant des risques pour la santé et la qualité de l’environnement urbain et périurbain puisqu’elles utilisent parfois de grandes quantités d’intrants synthétiques ou des sources de fertilisation inappropriée pour la culture des fruits et légumes. Les dernières décennies de domination d’agriculture conventionnelle nous ont permis d’apprendre que les pratiques tels que l’usage abondant d’intrants chimiques et synthétiques, le lourd travail des sols, l’utilisation d’une faible diversité de cultivars à haut rendement et les techniques d’irrigation inadaptée aux conditions locales engendrent des impacts négatifs importants sur le plan environnemental et écologique. Aujourd’hui, de nombreuses solutions de rechange sont proposées pour remplacer le modèle agricole conventionnel mondial. L’agroécologie fait partie de ces solutions de rechange et propose une vision plus intégrative de l’agriculture. Elle propose une vision des systèmes alimentaires en entier plutôt que des paramètres agricoles qui permettent d’augmenter la production alimentaire. Cet essai explore la possibilité de pratiquer une agriculture urbaine et périurbaine basée selon les principes de cette vision agroécologique dans les villes d’Afrique subsaharienne. Cet essai explore aussi de façon complémentaire l’opportunité que représente cette avenue pour répondre aux besoins alimentaires des villes d’Afrique subsaharienne. Les pratiques agroécologiques proposées et décrites offrent des possibilités différentes de travailler sur les principaux éléments agricoles d’une exploitation urbaine ou périurbaine (e.g. travail du sol, fertilisation, irrigation, protection des cultures, organisation des cultures et du paysage). Les pratiques agroécologiques présentent des possibilités variables de transformer les agroécosystèmes urbains en systèmes durables, équitables, socialement et culturellement sensibles ainsi qu’économiquement viables. Pour évaluer si les pratiques agroécologiques ont un bon potentiel d’application dans un lieu donné, il faut regarder si elles offrent la possibilité de répondre aux besoins et aux contraintes du type de production agricole concerné, des acteurs impliqués et des caractéristiques agroécologiques et environnementales du site d’exploitation. Si ces éléments ne sont pas tenus en compte, les agroécosystèmes ne pourront pas tirer profit au maximum des avantages que représente l’approche agroécologique. L’implication des autorités nationales et internationales, ainsi que des investissements dans le domaine de la recherche et du développement sont essentiels pour arriver à une plus grande adoption de pratiques agroécologiques dans les milieux urbains et périurbains.
Resumo:
Résumé: Le développement de l’industrie des polymères fourni de plus en plus de choix pour la formulation de matériaux pour les couvre-planchers. Les caoutchoucs, le PVC et le linoleum sont les polymères habituellement utilisés dans l’industrie des couvre-planchers. Ce projet répond à un problème de facilité de nettoyage des couvre-planchers de caoutchouc qui sont reconnus pour être mous, collants et ayant une surface rugueuse. L’INTRODUCTION couvrira l’état actuel de la recherche sur les couvre-planchers, surtout en regard au problème de la «nettoyabilité». La théorie pertinente et les informations générales sur les polymères, les composites polymériques et la science des surfaces seront introduites au CHAPITRE 1. Ensuite, le CHAPITRE 2 couvrira la méthode utilisée pour déterminer la nettoyabilité, l’évaluation des résultats ainsi que l’équipement utilise. Le CHAPITRE 3, discutera des premières expériences sur l’effet de la mouillabilité, la rugosité et la dureté sur la facilité de nettoyage des polymères purs. Plusieurs polymères ayant des surfaces plus ou moins hydrophobes seront investigués afin d’observer leur effet sur la nettoyabilité. L’effet de la rugosité sur la nettoyabilité sera investigué en imprimant une rugosité définie lors du moulage des échantillons; l’influence de la dureté sera également étudiée. Ensuite, un modèle de salissage/nettoyage sera établi à partir de nos résultats et observations afin de rationaliser les facteurs, ou « règles », qui détrminent la facilité de nettoyage des surfaces. Finalement, la réticulation au peroxyde sera étudiée comme une méthode de modification des polymères dans le but d’améliorer leur nettoyabilité; un mécanisme découlant des résultats de ces études sera présenté. Le CHAPITRE 4 étendra cette recherche aux mélanges de polymères; ces derniers servent habituellement à optimiser la performance des polymères purs. Dans ce chapitre, les mêmes tests discutés dans le CHAPITRE 3 seront utilisés pour vérifier le modèle de nettoyabilité établi ci-haut. De plus, l’influence de la non-miscibilité des mélanges de polymères sera discutée du point de vue de la thermodynamique (DSC) et de la morphologie (MEB). L’utilisation de la réticulation par peroxyde sera étudié dans les mélanges EPDM/ (E-ran-MAA(Zn)-ran-BuMA) afin d’améliorer la compatibilité de ces polymères. Les effets du dosage en agent de réticulation et du temps de cuisson seront également examinés. Finalement, un compatibilisant pré-réticulé a été développé pour les mélanges ternaires EPDM/ (E-ran-MAA(Zn)-ran-BuMA)/ HSR; son effet sur la nettoyabilité et sur la morphologie du mélange sera exposé.
Resumo:
Un enjeu actuel en biotechnologie est d’obtenir des plantes haploïdes doublées par la technique de la culture de microspores isolées (CMI). Pourtant, la CMI génère parfois une proportion importante de plantes albinos, laquelle peut atteindre 100 % chez certains cultivars. Des travaux antérieurs ont indiqué que des remaniements du génome chloroplastique seraient à l’origine de cet albinisme. Afin de mieux comprendre ce processus menant à l’albinisme, nous avons entrepris d’étudier l’intégrité du génome chloroplastique au sein de microspores d’orge et de plantes albinos via une approche de séquençage à grande échelle. L’ADN total extrait de microspores à un stade précoce de la CMI, d’une feuille de la plante-mère (témoin), et de feuilles albinos, a été séquencé et les séquences chloroplastiques ont été analysées. Ceci nous a permis de documenter pour la première fois une diminution de l’ADN chloroplastique chez les microspores. De plus une étude de variations structurales a démontré un abaissement généralisé de la quantité de génomes chloroplastiques chez les microspores. Enfin, d’importants remaniements du génome chloroplastique ont été observés chez les plantes albinos, révélant une forte abondance de génomes chloroplastiques altérés de forme linéaire.
Resumo:
Le climat planétaire évolue à une vitesse alarmante. Selon le Groupe d’experts intergouvernemental sur l’évolution du climat, les températures globales pourraient grimper de 3 à 7°C d’ici 2100. Les zones tempérées, comme le Québec, ne seront pas épargnées. Au sein de la province, le climat typique en forêt boréale pourrait se déplacer de 750 km vers le nord pour atteindre le Haut-Arctique dans quelques décennies. D’autres modifications notables du climat se traduisent dans les précipitations, les glaces, les océans, etc. Tous ces changements climatiques constituent une menace grandissante pour la biodiversité. D’ailleurs, ils pourraient devenir la principale cause d’extinction d’espèces dans le futur, surpassant même la dégradation d’habitats et la pollution. Afin de témoigner de la portée des changements climatiques sur la biodiversité, 6 espèces fauniques à statut précaire au Québec sont étudiées dans le cadre de l’essai. Par leurs fortes réponses aux stress, elles agissent à titre de bioindicateurs des changements climatiques. Ces espèces, de classes taxonomiques différentes, sont : le chevalier cuivré (Moxostoma hubbsi), l’ours blanc (Ursus maritimus), la grive de Bicknell (Catharus Bicknelli), la rainette faux-grillon de l’Ouest (Pseudacris triseriata), la tortue luth (Dermochelys coriacea) et le satyre fauve des Maritimes (Coenonympha nipisiquit). L’étude approfondie de ces espèces a permis de relever un total de 47 impacts potentiels des changements climatiques. En majorité, ces impacts concernent la perte d’habitats, l’augmentation de la compétition, la diminution du succès reproducteur et l’entrave à la survie. L’objectif de cet essai est d’évaluer les mesures de protection actuelles permettant de faire face à ces impacts. Bien qu’elles varient grandement d’une espèce à l’autre, elles peuvent être regroupées en quatre grandes thématiques, soit la recherche et le suivi, la gestion des aires protégées, l’adaptation du cadre législatif et l’aménagement écosystémique. L’évaluation de ces mesures a permis de soulever certains constats. En premier lieu, la recherche et le suivi constituent la principale mesure de protection adoptée. En second lieu, il appert que les mesures de protection actuelles manquent de spécificité. En effet, dans la majorité des cas, elles protègent l’espèce de manière indirecte seulement. Au final, dans le but d’améliorer ou de combler les lacunes des mesures de protection actuelles, des recommandations ont été formulées. D’une part, celles-ci présentent des actions concrètes comme la translocation ou l’aménagement écosystémique. D’autre part, elles suggèrent des modifications quant aux méthodes de suivi, à la gestion des aires protégées et aux cadres législatifs.
Resumo:
Résumé : L’entrainement sportif est « un processus de perfectionnement de l’athlète dirigé selon des principes scientifiques et qui, par des influences planifiées et systématiques (charges) sur la capacité de performance, vise à mener le sportif vers des performances élevées et supérieures dans un sport ou une discipline sportive » (Harre, 1982). Un entrainement sportif approprié devrait commencer dès l’enfance. Ainsi, le jeune sportif pourrait progressivement et systématiquement développer son corps et son esprit afin d’atteindre l’excellence sportive (Bompa, 2000; Weineck, 1997). Or plusieurs entraineurs, dans leur tentative de parvenir à des résultats de haut niveau rapidement, exposent les jeunes athlètes à une formation sportive très spécifique et rigoureuse, sans prendre le temps de développer convenablement les aptitudes physiques et motrices et les habiletés motrices fondamentales sous-jacentes aux habiletés sportives spécifiques (Bompa, 2000), d’où l’appellation « spécialisation hâtive ». Afin de contrer les conséquences néfastes de la spécialisation hâtive, de nouvelles approches d’entrainement ont été proposées. Une des façons d’y arriver consisterait notamment à pratiquer différents sports en bas âge (Fraser-Thomas, Côté et Deakin, 2008; Gould et Carson, 2004; Judge et Gilreath, 2009; LeBlanc et Dickson, 1997; Mostafavifar, Best et Myer, 2013), d’où l’appellation « diversification sportive ». Plusieurs organisations sportives et professionnelles ont décidé de valoriser et de mettre en place des programmes basés sur la diversification sportive (Kaleth et Mikesky, 2010). C’est donc à la suite d’une prise de conscience des effets néfastes de la spécialisation hâtive que des professionnels de l’activité physique d’une école secondaire du Québec (éducateur physique, kinésiologue et agent de développement sportif) ont mis en place un programme multisports-études novateur au premier cycle du secondaire, inspiré des sciences du sport et des lignes directrices du modèle de développement à long terme de l’athlète (DLTA) (Balyi, Cardinal, Higgs, Norris et Way, 2005). Le présent projet de recherche porte sur le développement des aptitudes physiques et motrices chez de jeunes sportifs inscrits à un programme de spécialisation sportive et de jeunes sportifs inscrits à un programme de diversification sportive à l’étape « S’entrainer à s’entrainer » (12 à 16 ans) du modèle de développement à long terme de l’athlète (Balyi et al., 2005). L’objectif principal de cette étude est de rendre compte de l’évolution des aptitudes physiques et motrices de jeunes élèves-athlètes inscrits, d’une part, à un programme sport-études soccer (spécialisation) et, d’autre part, à un programme multisports-études (diversification). Plus spécifiquement, cette étude tente de (a) dresser un portrait détaillé de l’évolution des aptitudes physiques et motrices des élèves-athlètes de chaque programme et de faire un parallèle avec la planification annuelle de chaque programme sportif et (b) de rendre compte des différences d’aptitudes physiques et motrices observées entre les deux programmes. Le projet de recherche a été réalisé dans une école secondaire de la province de Québec. Au total, 53 élèves-athlètes de première secondaire ont été retenus pour le projet de recherche selon leur volonté de participer à l’étude, soit 23 élèves-athlètes de première secondaire inscrits au programme sport-études soccer et 30 élèves-athlètes de première secondaire inscrits au programme multisports-études. Les élèves-athlètes étaient tous âgés de 11 à 13 ans. Treize épreuves standardisées d’aptitudes physiques et motrices ont été administrées aux élèves-athlètes des deux programmes sportifs en début, en milieu et en fin d’année scolaire. Le traitement des données s’est effectué à l’aide de statistiques descriptives et d’une analyse de variance à mesures répétées. Les résultats révèlent que (a) l’ensemble des aptitudes physiques et motrices des élèves-athlètes des deux programmes sportifs se sont améliorées au cours de l’année scolaire, (b) il est relativement facile de faire un parallèle entre l’évolution des aptitudes physiques et motrices des élèves-athlètes et la planification annuelle de chaque programme sportif, (c) les élèves-athlètes du programme multisports-études ont, en général, des performances semblables à celles des élèves-athlètes du programme sport-études soccer et (d) les élèves-athlètes du programme sport-études soccer ont, au cours de l’année scolaire, amélioré davantage leur endurance cardiorespiratoire, alors que ceux du programme multisports-études ont amélioré davantage (a) leur vitesse segmentaire des bras, (b) leur agilité à l’épreuve de course en cercle et (c) leur puissance musculaire des membres inférieurs, confirmant ainsi que les aptitudes physiques et motrices développées chez de jeunes athlètes qui se spécialisent tôt sont plutôt spécifiques au sport pratiqué (Balyi et al., 2005; Bompa, 1999; Cloes, Delfosse, Ledent et Piéron, 1994; Mattson et Richards, 2010), alors que celles développées à travers la diversification sportive sont davantage diversifiées (Coakley, 2010; Gould et Carson, 2004; White et Oatman, 2009). Ces résultats peuvent s’expliquer par (a) la spécificité ou la diversité des tâches proposées durant les séances d’entrainement, (b) le temps consacré à chacune de ces tâches et (c) les exigences reliées à la pratique du soccer comparativement aux exigences reliées à la pratique de plusieurs disciplines sportives. Toutefois, les résultats obtenus restent complexes à interpréter en raison de différents biais : (a) la maturation physique, (b) le nombre d’heures d’entrainement effectué au cours de l’année scolaire précédente, (c) le nombre d’heures d’entrainement offert par les deux programmes sportifs à l’étude et (d) les activités physiques et sportives pratiquées à l’extérieur de l’école. De plus, cette étude ne permet pas d’évaluer la qualité des interventions et des exercices proposés lors des entrainements ni la motivation des élèves-athlètes à prendre part aux séances d’entrainement ou aux épreuves physiques et motrices. Finalement, il serait intéressant de reprendre la présente étude auprès de disciplines sportives différentes et de mettre en évidence les contributions particulières de chaque discipline sportive sur le développement des aptitudes physiques et motrices de jeunes athlètes.
Resumo:
La sténose aortique est la cardiopathie valvulaire la plus fréquente retrouvée chez les patients agés. Suite à l’apparition des symptômes, la survie des patients diminue de façon drastique en l’absence d’un remplacement valvulaire aortique. Cependant, une proportion considérable de ces patients n’est pas opérée en raison d’un risque chirurgical élevé, l’âge étant l’une des principales raisons de refus d’un remplacement valvulaire aortique chirurgical. Ce défaut dans la prise en charge des ces patients a favorisé le développement du remplacement valvulaire aortique par cathéter où implantation valvulaire aortique par cathèter (TAVR ou TAVI), qui a représenté une révolution dans le traitement de la sténose aortique. Cette intervention est actuellement un traitement de routine chez les patients à haut risque chirurgical atteints d’une sténose aortique, même si la chirurgie cardiaque n’est pas contre-indiquée. Ces dernières années ont vu un changement de profil des candidats potentiels vers une population à plus faible risque. Cependant, plusieurs préoccupations demeurent. L’une des plus importantes est la survenue des arythmies et de troubles de conduction, notamment le bloc de branche gauche et le bloc auriculo-ventriculaire, qui sont des complications fréquemment associées au TAVR. Malgré l’évolution de la technologie et le développement de nouveaux dispositifs réduisant le taux global de complications, aucune amélioration n’a pas été intégrée pour prévenir l’apparition de telles complications. De plus, l’utilisation de certains dispositifs de nouvelle génération semble être associée à un risque accru de troubles de conduction, et par conséquent, l’incidence de ces complications pourrait augmenter dans le futur. Cependant, L’impact et l’évolution de ces complications sont inconnus. Ce travail de recherche évalue l’incidence et l’évolution des troubles de conduction suite au TAVR et l’impact des blocs de branche gauche de novo et de l’implantation d’un pacemaker sur les résultats cliniques et échocardiographiques.
Resumo:
Dans l’industrie de l’aluminium, le coke de pétrole calciné est considéré comme étant le composant principal de l’anode. Une diminution dans la qualité du coke de pétrole a été observée suite à une augmentation de sa concentration en impuretés. Cela est très important pour les alumineries car ces impuretés, en plus d’avoir un effet réducteur sur la performance des anodes, contaminent le métal produit. Le coke de pétrole est aussi une source de carbone fossile et, durant sa consommation, lors du processus d’électrolyse, il y a production de CO2. Ce dernier est considéré comme un gaz à effet de serre et il est bien connu pour son rôle dans le réchauffement planétaire et aussi dans les changements climatiques. Le charbon de bois est disponible et est produit mondialement en grande quantité. Il pourrait être une alternative attrayante pour le coke de pétrole dans la fabrication des anodes de carbone utilisées dans les cuves d’électrolyse pour la production de l’aluminium. Toutefois, puisqu’il ne répond pas aux critères de fabrication des anodes, son utilisation représente donc un grand défi. En effet, ses principaux désavantages connus sont sa grande porosité, sa structure désordonnée et son haut taux de minéraux. De plus, sa densité et sa conductivité électrique ont été rapportées comme étant inférieures à celles du coke de pétrole. L’objectif de ce travail est d’explorer l’effet du traitement de chaleur sur les propriétés du charbon de bois et cela, dans le but de trouver celles qui s’approchent le plus des spécifications requises pour la production des anodes. L’évolution de la structure du charbon de bois calciné à haute température a été suivie à l’aide de différentes techniques. La réduction de son contenu en minéraux a été obtenue suite à des traitements avec de l’acide chlorhydrique utilisé à différentes concentrations. Finalement, différentes combinaisons de ces deux traitements, calcination et lixiviation, ont été essayées dans le but de trouver les meilleures conditions de traitement.
Resumo:
La transplantation de cellules souches hématopoïétiques (CSH) constitue une avenue thérapeutique potentiellement curative pour plusieurs cancers hématologiques comme la leucémie. L’utilisation d’une thérapie immunosuppressive pour prévenir la maladie du greffon contre l’hôte (GvHD) est un déterminant majeur du succès de la greffe. Malgré tout, cette complication survient chez 25 à 50% des transplantés et est une cause majeure de mortalité. L’optimisation du régime d’immunosuppression est un facteur facilement modifiable qui pourrait améliorer le pronostic des patients. Particulièrement, les polymorphismes du génome du donneur ou du receveur dans les voies pharmacogénomiques des immunosuppresseurs pourraient influencer l’exposition et l’action de ces médicaments, de même que le pronostic du patient. Le profilage de 20 pharmacogènes prioritaires chez des paires de donneurs-receveurs en greffe de CSH a permis d’identifier des variations génétiques liées au risque de la GvHD aiguë. Principalement, le statut génétique du receveur pour les protéines ABCC1 et ABCC2, impliquées dans le transport du méthotrexate (MTX), ainsi que des cibles moléculaires de ce médicament (ATIC et MTHFR) ont été associées au risque de GvHD aiguë. Similairement, le NFATc1, codant pour une cible moléculaire de la cyclosporine, augmentait lui aussi le risque de la maladie. Les porteurs de deux génotypes à risque et plus étaient particulièrement prédisposés à développer cette complication. Par surcroît, le statut génétique du donneur influençait également le pronostic du receveur après la greffe. Entre autres, des allèles protecteurs ont été identifiés dans les voies liées au transport (SLC19A1) et à l’action du MTX (DHFR). Inversement, NFATc2 a été associé à une augmentation du risque de GvHD aiguë. Afin de mieux comprendre les associations observées entre ces marqueurs génétiques et le risque de GvHD aiguë, une étude prospective innovante est en cours chez des greffés de CSH. Cette étude permettra d’étudier comment la génétique du patient ou du donneur peut influencer la pharmacocinétique et la pharmacodynamie des immunosuppresseurs, de même que leurs liens avec la GvHD aiguë. Ces paramètres sont quantifiés grâce à des approches analytiques que nous avons mises au point afin de répondre aux besoins spécifiques et uniques de cette étude. Les approches proposées dans cette thèse sont complémentaires aux méthodes classiques de suivi des immunosuppresseurs et pourraient aider à optimiser la pharmacothérapie du patient. Une meilleure identification des patients à haut risque de GvHD aiguë avant la greffe, basée sur des marqueurs pharmacogénomiques identitaires, pourrait guider le choix de la prophylaxie immunosuppressive, et ainsi améliorer l’issue clinique de la greffe.
Resumo:
Cette thèse présente la découverte de nouveaux inhibiteurs de l’amidotransférase ARNt-dépendante (AdT), et résume les connaissances récentes sur la biosynthèse du Gln-ARNtGln et de l’Asn-ARNtAsn par la voie indirecte chez la bactérie Helicobacter pylori. Dans le cytoplasme des eucaryotes, vingt acides aminés sont liés à leur ARNt correspondant par vingt aminoacyl-ARNt synthétases (aaRSs). Ces enzymes sont très spécifiques, et leur fonction est importante pour le décodage correct du code génétique. Cependant, la plupart des bactéries, dont H. pylori, sont dépourvues d’asparaginyl-ARNt synthétase et/ou de glutaminyl-ARNt synthétase. Pour former le Gln-ARNtGln, H. pylori utilise une GluRS noncanonique nommée GluRS2 qui glutamyle spécifiquement l’ARNtGln ; ensuite, une AdT trimérique, la GatCAB corrige le Glu-ARNtGln mésapparié en le transamidant pour former le Gln-ARNtGln, qui lira correctement les codons glutamine pendant la biosynthèse des protéines sur les ribosomes. La formation de l’Asn-ARNtAsn est similaire à celle du Gln-ARNtGln, et utilise la même GatCAB et une AspRS non-discriminatrice. Depuis des années 2000, la GatCAB est considérée comme une cible prometteuse pour le développement de nouveaux antibiotiques, puisqu’elle est absente du cytoplasme de l’être humain, et qu’elle est encodée dans le génome de plusieurs bactéries pathogènes. Dans le chapitre 3, nous présentons la découverte par la technique du « phage display » de peptides cycliques riches en tryptophane et en proline, et qui inhibent l’activité de la GatCAB de H. pylori. Les peptides P10 (CMPVWKPDC) et P9 (CSAHNWPNC) inhibent cette enzyme de façon compétitive par rapport au substrat Glu-ARNtGln. Leur constante d’inhibition (Ki) est 126 μM pour P10, et 392 μM pour P9. Des modèles moléculaires ont montré qu’ils lient le site actif de la réaction de transmidation catalysée par la GatCAB, grâce à la formation d’une interaction π-π entre le résidu Trp de ces peptides et le résidu Tyr81 de la sous-unité GatB, comme fait le A76 3’-terminal de l’ARNt. Dans une autre étude concernant des petits composés contenant un groupe sulfone, et qui mimiquent l’intermédiaire de la réaction de transamidation, nous avons identifié des composés qui inhibent la GatCAB de H. pylori de façon compétitive par rapport au substrat Glu-ARNtGln. Cinq fois plus petits que les peptides cycliques mentionnés plus haut, ces composés inhibent l’activité de la GatCAB avec des Ki de 139 μM pour le composé 7, et de 214 μM pour le composé 4. Ces inhibiteurs de GatCAB pourraient être utiles pour des études mécanistiques, et pourraient être des molécules de base pour le développement de nouvelles classes d’antibiotiques contre des infections causées par H. pylori.
Resumo:
L’hypertension artérielle pulmonaire (HTAP) est une maladie caractérisée par l’augmentation progressive des résistances vasculaires pulmonaires causant une augmentation de la pression artérielle pulmonaire qui mène au décès prématuré des patients. Malgré une amélioration rapide ces dernières années des traitements spécifiques, les patients souffrant d’HTAP demeurent dyspnéiques et intolérants à l’effort. L’atteinte vasculaire pulmonaire est actuellement irréversible. Elle est également la source de plusieurs anomalies au niveau des systèmes cardiovasculaires, ventilatoires et musculaires constituant les principaux déterminants physiologiques de la capacité à l’effort des patients. Cette thèse a investigué différentes facettes de la tolérance à l’effort en HTAP : les différents mécanismes ayant un impact sur l’apport musculaire en oxygène, l’altération des voies de signalisation cellulaire impliquées dans l’angiogenèse musculaire et les mécanismes ayant un impact sur la régulation du débit sanguin et l’oxygénation cérébrale en HTAP. Nous avons premièrement documenté une diminution de l’apport en oxygène aux muscles squelettiques à l’effort des patients en relation avec une diminution de la densité capillaire musculaire. Ce défaut d’angiogenèse corrélait d’ailleurs avec la capacité à l’effort des sujets. Par la suite, nous avons étudié les voies de signalisations cellulaires de l’angiogenèse musculaire. Ces résultats ont permis de démontrer une diminution de l’expression de miR-126, unique aux patients HTAP, qui était responsable de la diminution de la densité capillaire et qui contribuait à leur intolérance à l’effort. De plus, il était possible de moduler in vivo l’expression de miR-126. L’expérimentation in vivo, à l’aide d’un modèle murin d’HTAP, a permis de rétablir l’expression de miR-126, d’augmenter la microcirculation musculaire et d’améliorer la tolérance à l’effort des animaux, ce qui met en lumière le potentiel thérapeutique de l’angiogenèse musculaire pour améliorer la capacité à l’effort en HTAP. Notre dernier projet a démontré que les patients HTAP présentaient une diminution de débit sanguin cérébral. Ce projet a également démontré que les changements de pression artérielle sont moins bien amortis par les vaisseaux cérébraux des patients et que leurs vaisseaux cérébraux étaient moins réactifs aux changements de CO2. Les patients présentaient aussi une augmentation de la sensibilité des chémorécepteurs centraux qui contribuait à augmenter leur ventilation au repos, mais aussi à l’exercice. Finalement, à l’effort, nous avons démontré que le débit sanguin cérébral des patients HTAP était principalement influencé par la pression artérielle alors que chez les sujets sains, le débit sanguin cérébral était influencé principalement par la PETCO2. Nous avons également démontré que les patients HTAP présentaient une diminution progressive de leur oxygénation cérébrale, qui corrélait avec leur capacité à l’effort. Les résultats obtenus au cours de ce doctorat démontrent bien que la capacité à l’effort en HTAP est aussi déterminée par plusieurs anomalies physiopathologiques périphériques.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
Avec la mise en œuvre de la réforme qui requiert des compétences professionnelles de haut niveau chez les enseignantes et enseignants, ceux-ci doivent exercer davantage leur autonomie professionnelle. En plus de maitriser les savoirs à enseigner, ils doivent se prononcer sur le choix de matériel, le modèle d'encadrement de l'école, prévoir des situations d'apprentissage et d'évaluation qui répondent aux besoins et processus cognitifs de chacun des élèves pour le développement de compétences. Ils sont maintenant en relation professionnelle avec l'élève. Par conséquent, ils doivent faire preuve de jugement professionnel dans l'exercice de leur fonction. Nous nous sommes penchée sur les moyens à mettre en oeuvre pour développer le jugement professionnel chez les enseignantes et enseignants. C'est en ce sens que nous pensons qu'un programme de formation continue par rapport au développement du jugement professionnel peut aider les enseignantes et enseignants dans la prise de décision et dans la justification de celle-ci, que ce soit au primaire ou au secondaire