133 resultados para Logiciel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : En dépit de nombreuses initiatives et interventions au cours des dernières années, l’intérêt des étudiants en médecine pour la médecine de famille (MF) demeure inférieur aux attentes des planificateurs de services de santé. Objectifs : Préciser les facteurs qui influencent les leaders étudiants en médecine dans leur choix de programme de résidence en s’intéressant plus spécifiquement aux groupes d’intérêt en médecine de famille (GIMF) et aux moyens d’accroître leur efficacité. Stratégie et devis : Approche synthétique par étude de cas multiples à un seul niveau d’analyse. Recherche descriptive à finalité instrumentale en recherche-action. Participants : Leaders étudiants de trois facultés de médecine du Québec (n=21), sélectionnés par choix raisonné à l’aide d’un sociogramme. Méthode : Groupes de discussion et questionnaire autoadministré. Analyse qualitative assistée par le logiciel N-Vivo. Résultats : Différents facteurs, dont l’existence des GIMF, influencent le choix de carrière des étudiants en médecine. Pour augmenter la capacité des GIMF d’intéresser les étudiants à la MF, on pourrait notamment s’appuyer sur les groupes d’intérêt d’autres spécialités et développer une approche de marketing social auprès des indécis, insistant sur leurs motivations d’ordre émotionnel. Conclusion : Les GIMF peuvent contribuer à la promotion et à la valorisation de la MF chez les étudiants en médecine du Québec. En s’intéressant aux leaders étudiants en médecine et leur influence naturelle sur leurs pairs, il est possible d’accroître l’efficacité des GIMF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les calculs statistiques ont été effectués à l'aide du logiciel SPSS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif : Récemment, un nouvel appareil issu de la technologie du Forsus™ et visant à corriger les malocclusions de classe III a été mis sur le marché et se popularise dans la pratique orthodontique : le Tandem Forsus Maxillary Corrector (TFMC). L’objectif de la présente étude est de mesurer les effets squelettiques, l’influence réelle sur la croissance, et les effets dento-alvéolaires du port du TFMC. Matériel et méthodes : 14 patients présentant une malocclusion de classe III (âge moyen de 9 ans 6 mois) traités par le même orthodontiste ont participé à cette étude prospective. Le groupe consiste en 10 garçons et 4 filles. Le Tandem Forsus Maxillary Corrector est porté de 12 à 14 heures par jour jusqu’à l’obtention d’une surcorrection du surplomb horizontal et une relation dentaire de classe I. Le traitement est généralement d’une durée de 8 à 9 mois. Des radiographies céphalométriques latérales prises avant (T1) et après (T2) le traitement ont été analysées afin de déterminer les changements dentaires et squelettiques. Les résultats ont été comparés à un groupe contrôle composé de 42 enfants provenant du Centre de croissance de l’Université de Montréal. Les radiographies ont été tracées et analysées de manière aveugle à l’aide du logiciel Dolphin Imaging (ver 11.0, Patterson Dental, Chatsworth, California). L’erreur sur la méthode a été évaluée avec la formule de Dahlberg, le coefficient de corrélation intra-classe et l’indice de Bland-Altman. L’effet du traitement a été évalué à l’aide du test t pour échantillons appariés. L’effet de la croissance pour le groupe contrôle a été calculé à l’aide d’un test t pour échantillons indépendants. Résultats : L’utilisation du TFMC produit un mouvement antérieur et une rotation antihoraire du maxillaire. De plus, il procline les incisives supérieures et rétrocline les incisives inférieures. Une rotation antihoraire du plan occlusal contribue aussi à la correction de la malocclusion de classe III. Par contre, le TFMC ne semble pas avoir pour effet de restreindre la croissance mandibulaire. Conclusion : La présente étude tend à démontrer que le port de l’appareil TFMC a un effet orthopédique et dento-alvéolaire significatif lors du traitement correctif des malocclusions modérées de classe III.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au fil des ans, la Bibliothèque de la santé de l'Université de Montréal s'est graduellement intégrée au programme de B. Sc. en Sciences biomédicales, dans le cadre du cours SBM2006 – Analyse de la communication scientifique. Les étudiants de ce cours bénéficient de cinq heures de formation documentaire réparties en deux volets : 1) la recherche avancée dans la base de données PubMed ; et 2) la gestion des références bibliographiques avec le logiciel EndNote. L'évaluation de ces deux activités de formation axées sur la pratique représente 10% de la note finale du cours. Aussi, quatre questions de l'examen de mi-session portent sur la création de bibliographies. L'accès en écriture au site du cours dans l'environnement numérique d'apprentissage StudiUM permet à une bibliothécaire d'y déposer de la documentation utile. De plus, la collaboration étroite avec le professeur a entraîné l'ajout d'hyperliens vers des ressources de la bibliothèque dans le plan de cours et les notes de cours. En outre, une bibliothécaire est responsable de la correction d'affiches produites par les étudiants à partir des données d'une publication scientifique et comptant pour 25% de la note finale du cours. Finalement, un guide en ligne sur la communication scientifique réunit des ressources utiles à la rédaction et à la soumission de publications scientifiques. Une section compile notamment les principaux outils de citation et de profils de chercheurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données sont analysées par le logiciel conçu par François Courtemanche et Féthi Guerdelli. L'expérimentation des jeux a eu lieu au Laboratoire de recherche en communication multimédia de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis was created in Word and converted to PDF using Mac OS X 10.7.5 Quartz PDFContext.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le triméthoprime (TMP) est un antibiotique communément utilisé depuis les années 60. Le TMP est un inhibiteur de la dihydrofolate réductase (DHFR) bactérienne chromosomale. Cette enzyme est responsable de la réduction du dihydrofolate (DHF) en tétrahydrofolate (THF) chez les bactéries, qui lui, est essentiel à la synthèse des purines et ainsi, à la prolifération cellulaire. La résistance bactérienne au TMP est documentée depuis plus de 30 ans. Une des causes de cette résistance provient du fait que certaines souches bactériennes expriment une DHFR plasmidique, la DHFR R67. La DHFR R67 n'est pas affectée par le TMP, et peut ainsi remplacer la DHFR chromosomale lorsque celle-ci est inhibée par le TMP. À ce jour, aucun inhibiteur spécifique de la DHFR R67 est connu. En découvrant des inhibiteurs contre la DHFR R67, il serait possible de lever la résistance au TMP que la DHFR R67 confère aux bactéries. Afin de découvrir des inhibiteurs de DHFR R67, les approches de design à base de fragments et de criblage virtuel ont été choisies. L'approche de design à base de fragments a permis d'identifier sept composés simples et de faible poids moléculaire (fragments) inhibant faiblement la DHFR R67. À partir de ces fragments, des composés plus complexes et symétriques, inhibant la DHFR R67 dans l'ordre du micromolaire, ont été élaborés. Des études cinétiques ont montré que ces inhibiteurs sont compétitifs et qu'au moins deux molécules se lient simultanément dans le site actif de la DHFR R67. L'étude d'analogues des inhibiteurs micromolaires de la DHFR R67 a permis de déterminer que la présence de groupements carboxylate, benzimidazole et que la longueur des molécules influencent la puissance des inhibiteurs. Une étude par arrimage moléculaire, appuyée par les résultats in vitro, a permis d'élaborer un modèle qui suggère que les résidus Lys32, Gln67 et Ile68 seraient impliqués dans la liaison avec les inhibiteurs. Le criblage virtuel de la librairie de 80 000 composés de Maybridge avec le logiciel Moldock, et les essais d'inhibition in vitro des meilleurs candidats, a permis d'identifier quatre inhibiteurs micromolaires appartenant à des familles distinctes des composés précédemment identifiés. Un second criblage virtuel, d'une banque de 6 millions de composés, a permis d'identifier trois inhibiteurs micromolaires toujours distincts. Ces résultats offrent la base à partir de laquelle il sera possible de développer iv des composés plus efficaces et possédant des propriétés phamacologiquement acceptables dans le but de développer un antibiotique pouvant lever la résistance au TMP conféré par la DHFR R67.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente un patron d’architecture permettant, dans un contexte orientéobjet, l’exploitation d’objets appartenant simultanément à plusieurs hiérarchies fonctionnelles. Ce patron utilise un reasoner basé sur les logiques de description (web sémantique) pour procéder à la classification des objets dans les hiérarchies. La création des objets est simplifiée par l’utilisation d’un ORM (Object Relational Mapper). Ce patron permet l’utilisation effective du raisonnement automatique dans un contexte d’applications d’entreprise. Les concepts requis pour la compréhension du patron et des outils sont présentés. Les conditions d’utilisation du patron sont discutées ainsi que certaines pistes de recherche pour les élargir. Un prototype appliquant le patron dans un cas simple est présenté. Une méthodologie accompagne le patron. Finalement, d’autres utilisations potentielles des logiques de description dans le même contexte sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Les professionnels de la réadaptation de l’accident vasculaire cérébral (AVC) ont la responsabilité d’offrir des services de qualité ancrés dans les données probantes. Cette responsabilité relève du rôle d’érudit selon le cadre de compétences CanMEDS. Quelle place occupe par ce rôle en clinique? Objectifs : 1) Documenter les perceptions, expériences et vécus en lien avec le rôle d’érudit chez les professionnels de la réadaptation de l’AVC. 2) Identifier les facteurs perçus comme facilitant ou entravant ce rôle clinique. Méthodologie : Étude qualitative exploratoire d’orientation phénoménologique par entrevue individuelle de professionnels travaillant en réadaptation de l’AVC depuis au moins deux ans. Codification des verbatim avec le logiciel QDA-Miner. Résultats : Les participants (âge moyen 40,7 ans ± 11,2) sont majoritairement des femmes (9/11) et leur expérience de travail en AVC varie de 3 à 23 ans. Les principaux thèmes identifiés sont: 1) Les savoirs tacites sont perçus comme synonyme du rôle d’érudit; 2) L’expérience de travail et l’intuition clinique amènent confiance et confort dans les pratiques; 3) L’insatisfaction quant au manque de partage des connaissances; 4) L’importance de la diversification dans les tâches cliniques et 5) La pratique réflexive est peu développée. Les quatre facteurs influençant le rôle d’érudit sont: la motivation; l’incident critique, les stagiaires et le manque de temps. Conclusion : Le rôle d’érudit apparaît peu valorisé par les participants. Il existe un écart entre le rôle d’érudit tel que décrit dans les cadres de compétences et la façon dont il est actualisé en pratique clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, l'évolution moléculaire cherche à caractériser les variations et l'intensité de la sélection grâce au rapport entre taux de substitution synonyme et taux de substitution non-synonyme (dN/dS). Cette mesure, dN/dS, a permis d'étudier l'histoire de la variation de l'intensité de la sélection au cours du temps ou de détecter des épisodes de la sélection positive. Les liens entre sélection et variation de taille efficace interfèrent cependant dans ces mesures. Les méthodes comparatives, quant a elle, permettent de mesurer les corrélations entre caractères quantitatifs le long d'une phylogénie. Elles sont également utilisées pour tester des hypothèses sur l'évolution corrélée des traits d'histoire de vie, mais pour être employées pour étudier les corrélations entre traits d'histoire de vie, masse, taux de substitution ou dN/dS. Nous proposons ici une approche combinant une méthode comparative basée sur le principe des contrastes indépendants et un modèle d'évolution moléculaire, dans un cadre probabiliste Bayésien. Intégrant, le long d'une phylogénie, sur les reconstructions ancestrales des traits et et de dN/dS nous estimons les covariances entre traits ainsi qu'entre traits et paramètres du modèle d'évolution moléculaire. Un modèle hiérarchique, a été implémenté dans le cadre du logiciel coevol, publié au cours de cette maitrise. Ce modèle permet l'analyse simultané de plusieurs gènes sans perdre la puissance donnée par l'ensemble de séquences. Un travail deparallélisation des calculs donne la liberté d'augmenter la taille du modèle jusqu'à l'échelle du génome. Nous étudions ici les placentaires, pour lesquels beaucoup de génomes complets et de mesures phénotypiques sont disponibles. À la lumière des théories sur les traits d'histoire de vie, notre méthode devrait permettre de caractériser l'implication de groupes de gènes dans les processus biologique liés aux phénotypes étudiés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.