952 resultados para Méthodes de recherche avec tabous
Resumo:
Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.
Resumo:
Objectif: L'objectif primaire de cette étude était d'évaluer la validité, la fiabilité et la reproductibilité des mesures dentaires obtenues sur les modèles digitaux iTero (Align Technology, San Jose, Californie) et Unitek TMP Digital (3M, Monrovia, Californie) en comparaison avec celles obtenues sur les modèles de plâtre (gold standard). L'objectif secondaire était de comparer les deux différents matériaux à empreinte (l'alginate et le polyvinylsiloxane-PVS) afin de déterminer si le choix du matériau affectait la précision des mesures. Méthodes: Le premier volet de l'étude impliquait les modèles digitaux Unitek et iTero, obtenus à partir de 25 paires de modèles de plâtre choisis de façon randomisée et provenant de la pratique privée d'un des co-auteurs. Des empreintes d'alginate et de PVS ont été prises sur les modèles de plâtre et numérisées par le scanner Unitek. Les modèles ont ensuite été numérisés avec le scanner iTero. Le deuxième volet de l'étude cherchait à comparer les modèles digitaux iTero (numérisation intra-orale) avec les modèles de plâtre (empreintes d'alginate et de PVS) obtenus à partir de 25 patients de la clinique d'orthodontie de l'Université de Montréal ayant besoin d'un traitement orthodontique. Dans les deux volets de l'étude, deux auteurs ont pris les mesures suivantes sur les différents modèles: largeur mésio-distale de chaque dent de la première molaire à l'autre première molaire, le périmètre d'arcade, les distances intermolaire et intercanine, le surplomb vertical et le surplomb horizontal. Les ratios et excès Bolton 6 et 12, l'espace requis et les différentiels d'espace au maxillaire et à la mandibule, ont été calculés. Résultats: La fiabilité (ICC) entre les modèles digitaux (Unitek et iTero) et les modèles de plâtre était bonne à excellente pour toutes les mesures [ICC=0,762–0,998], et la fiabilité entre les deux matériaux à empreinte était excellente [ICC=0,947–0,996]. Dans les deux volets de l'étude, les mesures faites sur les modèles iTero étaient généralement plus grandes que celles faites sur les modèles de plâtre. Les plus grandes différences moyennes pour la comparaison iTero-plâtre étaient trouvées au niveau de l'espace disponible au maxillaire et à la mandibule (systématiquement plus grande pour cette variable), soit 2,24 mm et 2,02 mm respectivement dans le premier volet, et 1,17 mm et 1,39 mm respectivement dans le deuxième volet. Les différences étaient considérées cliniquement non significatives pour toutes les variables. La reproductibilité intra-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux, à l'exception du différentiel d'espace à la mandibule pour les modèles Unitek [ICC=0,690-0,692]. La reproductibilité inter-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux dans les deux volets de l'étude, mais acceptable à modérée pour les modèles Unitek au niveau des analyses Bolton 6 et 12, et des différentiels d'espace au maxillaire et à la mandibule [ICC=0,362-0,548]. Conclusions: La précision et la fiabilité des mesures dentaires faites sur les modèles digitaux Unitek et iTero étaient cliniquement acceptables et reproductibles en comparaison avec les celles faites sur les modèles de plâtre. Le choix de matériel à empreinte entre l'alginate et le PVS n'affectait pas la précision des mesures. Cette étude semble démontrer que les modèles digitaux Unitek et iTero, utilisés avec leur logiciel respectif, sont une alternative fiable et reproductible aux modèles de plâtre pour le diagnostic et l’analyse des modèles orthodontiques.
Resumo:
Introduction : L’inconfort causé par les appareils orthodontiques peut significativement affecter la coopération des patients dans leur traitement. La douleur, ainsi que la détérioration de la fonction (mastication, élocution) sont reconnus comme les déterminants majeurs de la coopération des patients traités par appareils amovibles. Invisalign® se positionne comme une alternative esthétique aux multiples inconforts observés lors des traitements fixes avec boîtiers. À ce jour, peu d’études ont cherché à comparer la douleur (quantitativement et qualitativement) perçue entre cette technique et celle avec boîtiers fixes sur une longue période. Objectif : L’objectif de la présente étude est d’évaluer la douleur ressentie par les patients qui suivent un traitement orthodontique avec coquilles correctrices Invisalign® et de la comparer avec celle des patients qui suivent un traitement orthodontique conventionnel avec des boîtiers fixes. Matériels et Méthodes: L’étude compte 70 patients (29 garçons, 41 filles), moyenne d’âge de 16 ans [11 à 30]. Les trois sous-groupes sont Invisalign® (n=31), boîtiers Damon (n=19) et boîtiers Speed (n=20). Les groupes avec boîtiers (Damon et Speed) sont les 2 groupes de l’étude menée au sein de la clinique d’Orthodontie de l’Université de Montréal en 2011 qui comparait la perception de la douleur durant le traitement orthodontique entre boîtiers auto-ligaturants passifs et actifs. L’étude a été organisée en 4 phases correspondant à l’insertion des 4 premiers fils pour les groupes avec boîtiers (Phase 1: 0,016" Supercable, Phase 2: 0,016" CuNiTi, Phase 3: 0,016"x0,022" CuNiTi, Phase 4: 0,019"x0,025" CuNiTi) et à l’insertion des coquilles 1, 4, 7 et 10 pour le groupe Invisalign®. À l’aide d’un questionnaire, l’étude évalue pour chaque phase l’ampleur (grâce à une échelle visuelle analogue EVA), la durée et la localisation de la douleur à 6 différents points (T1: immédiatement après l’insertion, T2: 5h après, T3: 24h après, T4: 3 jours après, T5: une semaine après, T6: 2 semaines après). Résultats: À T1Ph3 le pourcentage de patients rapportant de la douleur était plus élevé avec Damon qu’avec Invisalign® (p=0,032) (Damon=55,6% ; Invisalign®=23,3%) mais il n’y avait pas de différence avec le groupe Speed (p=0,114). Les patients avec Invisalign® rapportaient significativement moins d’irritation des tissus mous (muqueuses, gencives) que les patients avec des boîtiers. Pour les résultats des EVA, les différences étaient statistiquement significatives à 2 temps : T3Ph1 (Médiane Invisalign®=33,31, Médiane Speed=49,47; p=0,025) et T3Ph4 (Médiane Invisalign®=13,15, Médiane Damon=27,28; p=0,014). Pour la majorité des patients la douleur ne nécessitait pas la prise de médicament et il n’y avait pas de différence significative entre les groupes sur ce point. La qualité de vie était légèrement affectée lors de la première phase et moindrement pour le groupe Invisalign® que pour les groupes avec boîtiers. Pour les patients Invisalign®, la douleur atteignait son niveau le plus élevé entre 5 et 24 heures après l’insertion de la première coquille, et diminuait en intensité et en durée à chaque phase. Conclusion: La perception de la douleur lors d’un traitement orthodontique avec Invisalign® est inférieure à celle ressentie lors d’un traitement avec des boîtiers fixes. Cette méthode de traitement est donc une thérapie attirante pour les patients désirant un traitement esthétique et relativement confortable.
Resumo:
Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques pour plusieurs domaines, par exemple des mots et des images, mais aussi à l’intersection de différents domaines. Un espace de représentation est appelé sémantique si des entités jugées similaires par un être humain, ont leur similarité préservée dans cet espace. La première publication présente un enchaînement de méthodes d’apprentissage incluant plusieurs techniques d’apprentissage non supervisé qui nous a permis de remporter la compétition “Unsupervised and Transfer Learning Challenge” en 2011. Le deuxième article présente une manière d’extraire de l’information à partir d’un contexte structuré (177 détecteurs d’objets à différentes positions et échelles). On montrera que l’utilisation de la structure des données combinée à un apprentissage non supervisé permet de réduire la dimensionnalité de 97% tout en améliorant les performances de reconnaissance de scènes de +5% à +11% selon l’ensemble de données. Dans le troisième travail, on s’intéresse à la structure apprise par les réseaux de neurones profonds utilisés dans les deux précédentes publications. Plusieurs hypothèses sont présentées et testées expérimentalement montrant que l’espace appris a de meilleures propriétés de mixage (facilitant l’exploration de différentes classes durant le processus d’échantillonnage). Pour la quatrième publication, on s’intéresse à résoudre un problème d’analyse syntaxique et sémantique avec des réseaux de neurones récurrents appris sur des fenêtres de contexte de mots. Dans notre cinquième travail, nous proposons une façon d’effectuer de la recherche d’image ”augmentée” en apprenant un espace sémantique joint où une recherche d’image contenant un objet retournerait aussi des images des parties de l’objet, par exemple une recherche retournant des images de ”voiture” retournerait aussi des images de ”pare-brises”, ”coffres”, ”roues” en plus des images initiales.
Resumo:
Objectif : Cette thèse a pour but de préciser les mécanismes neuropsychologiques de la douleur, de la régulation endogène de la douleur et de l'hypoalgésie induite psychologiquement (HIP) par la synthèse de près de trente ans de recherche imagerie cérébrale fonctionnelle. Méthodologie : Étant donné l'abondance des études sur le sujet et le manque d'intégration de leurs résultats, la technique de métaanalyse quantitative basée sur les coordonnées d'activation cérébrale fut privilégiée dans cette thèse, telle qu’implémentée dans l'algorithme ALE (Activation Likelyhood Estimate). Une force supplémentaire de cette thèse repose sur la rigueur du processus de sélection des articles. En effet, les études incluses dans les métaanalyses devaient satisfaire des critères stricts d'inclusion, ceci dans le but de favoriser la précision et la validité des conclusions subséquentes. Étude 1 : Le premier article visait à identifier les aires cérébrales impliquées dans la réduction de la douleur par des méthodes psychologiques d'interventions. Les articles retenus portent sur une variété de méthodes d'intervention, telles que le placebo, l'hypnose, la méditation, la perception de contrôle sur la stimulation douloureuse et l'induction d'émotions. Les résultats indiquent que l'HIP implique un vaste réseau d'activation qui comprend le cortex cingulaire antérieur, l'insula antérieure, les zones orbitofrontale et préfrontale latérale, ainsi que les régions pariétale, temporale et souscorticales. Ces activations reflèteraient l'implication des mécanismes neuropsychologiques cognitifs et émotionnels sous-tendent les interventions psychologiques ciblées par ces études, incluant la conscience de soi et la motivation. De plus, les divergences de patron d'activation entre les approches ont été explorées, notamment pour le placebo et la distraction. Étude 2 : Le deuxième article a identifié des patrons d'activations préférentiellement associés à la perception de la douleur, à l'HIP, ainsi que des activations communément associées à la douleur et l'HIP. Les résultats indiquent que 1) la perception de la douleur est associée à l'activation d'aires somatosensorielles et motrices, ce qui pourrait être le reflet de la préparation d'une action adaptative, 2) l'HIP est liée à l'engagement de régions préfrontales antéromédianes et orbitales, possiblement en lien avec des processus motivationnels et émotionnels, et 3) la douleur et l'HIP sont associés à l'activation d'aires préfrontales dorsolatérales, de l'insula antérieure et du cortex cingulaire moyen, ce qui pourrait refléter l'engagement spontané pendant la douleur de mécanismes endogènes de régulation descendante. Conclusion : Par ces études, cette thèse fait le point sur les mécanismes cérébraux impliqués différentiellement dans la perception de la douleur, dans sa régulation endogène et dans l'hypoalgésie induite psychologiquement.
Resumo:
Problématique: Le virus du papillome humain (VPH) est présent dans près de 50% des cancers de l’oropharynx. Le potentiel oncogénique du VPH est encodé dans les oncoprotéines E6 et E7, qui agissent en modulant différents gènes, dont les gènes suppresseurs de tumeur p53 et pRb. Les cellules VPH positives démontrent une altération au niveau de la signalisation de la réponse aux dommages à l’ADN (RDA), un mécanisme de contrôle dans l’arrêt de la croissance des cellules ayant subit des dommages au niveau de leur ADN. Hypothèse et objectifs : Nous croyons que les défauts au niveau de la RDA des cancers VPH positifs peuvent être exploités afin de sensibiliser préférentiellement les cellules cancéreuses aux traitements de radiothérapie. Cette stratégie de recherche nécessite l’élaboration d’un modèle cellulaire de carcinogenèse isogénique pour le cancer de l’oropharynx que nous proposons de développer et de caractériser. L’étude vise à dériver des lignées isogéniques à partir de kératinocytes primaires et cellules épithéliales de l’oropharynx pour ensuite valider la carcinogenèse de notre modèle in vitro & in vivo Méthodologie : Des lignées cellulaires de kératinocytes primaires et de cellules épithéliales de l’oropharynx ont été successivement modifiées par transduction afin de présenter les mutations associées aux cancers de l’oropharynx induits par le VPH. Les cellules ont été modifiées avec des lentivirus codants pour la télomérase (hTERT), les oncogènes E6, E7 et RasV12. Afin de valider la cancérogenèse in vitro de notre modèle, des études d’invasion en matrigel et de croissance sans ancrage en agar mou ont été réalisées. Les populations cellulaires transformées ont été ensuite introduites dans des souris immunodéficientes afin d’évaluer leur tumorogénicité in vivo. Résultats : À partir des plasmides recombinés construits par méthodes de clonage traditionnelle et de recombinaison « Gateway », nous avons produit des lentivirus codants pour la télomérase humaine (hTERT), les oncogènes viraux E6 et E7 et l’oncogène Ras. Les kératinocytes primaires et cellules épithéliales de l’oropharynx ont été infectés successivement par transduction et sélectionnés. Nous avons validé l’expression de nos transgènes par méthode d’immunofluorescence, de Western Blot et de réaction de polymérisation en chaîne quantitative en temps réel (qRT-PCR). Nous avons établi trois lignées des cellules épithéliales de l’oropharynx (HNOE) à partir d’échantillons tissulaires prélevés lors d’amygdalectomie (HNOE42, HNO45, HNOE46). Les cellules transduites avec le lentivirus exprimant le promoteur fort CMV/TO de l’oncogène RasV12 ont présenté un changement morphologique compatible avec une sénescence prématurée induite par l’oncogène Ras. En exprimant des quantités plus faibles du RasV12 mutant, la lignée cellulaire HEKn hTERT-E6-E7 PGK RasV12 a réussi à échapper à la sénescence induite par l’oncogène Ras. La population cellulaire exprimant HEKn hTERT-E6-E7-PGK RasV12 a présenté un phénotype malin en culture et à l’étude d'invasion, mais n’a pas démontré de résultats positifs à l’étude de croissance sans ancrage en agar mou ni en xénogreffe en souris immunodéficientes. Conclusion : Nos résultats démontrent qu’en présence des oncogènes viraux E6 et E7, il y a un troisième mécanisme suppresseur de tumeur qui médie la sénescence induite par l’oncogène Ras. Nous avons identifié que la présence de E6 seule ne suffit pas à immortaliser les kératinocytes primaires humains (HEKn). Nous n’avons pas réussi à créer un modèle in vitro de carcinogenèse pour les cancers de l’oropharynx induits par le VPH.
Resumo:
Le domaine biomédical est probablement le domaine où il y a les ressources les plus riches. Dans ces ressources, on regroupe les différentes expressions exprimant un concept, et définit des relations entre les concepts. Ces ressources sont construites pour faciliter l’accès aux informations dans le domaine. On pense généralement que ces ressources sont utiles pour la recherche d’information biomédicale. Or, les résultats obtenus jusqu’à présent sont mitigés : dans certaines études, l’utilisation des concepts a pu augmenter la performance de recherche, mais dans d’autres études, on a plutôt observé des baisses de performance. Cependant, ces résultats restent difficilement comparables étant donné qu’ils ont été obtenus sur des collections différentes. Il reste encore une question ouverte si et comment ces ressources peuvent aider à améliorer la recherche d’information biomédicale. Dans ce mémoire, nous comparons les différentes approches basées sur des concepts dans un même cadre, notamment l’approche utilisant les identificateurs de concept comme unité de représentation, et l’approche utilisant des expressions synonymes pour étendre la requête initiale. En comparaison avec l’approche traditionnelle de "sac de mots", nos résultats d’expérimentation montrent que la première approche dégrade toujours la performance, mais la seconde approche peut améliorer la performance. En particulier, en appariant les expressions de concepts comme des syntagmes stricts ou flexibles, certaines méthodes peuvent apporter des améliorations significatives non seulement par rapport à la méthode de "sac de mots" de base, mais aussi par rapport à la méthode de Champ Aléatoire Markov (Markov Random Field) qui est une méthode de l’état de l’art dans le domaine. Ces résultats montrent que quand les concepts sont utilisés de façon appropriée, ils peuvent grandement contribuer à améliorer la performance de recherche d’information biomédicale. Nous avons participé au laboratoire d’évaluation ShARe/CLEF 2014 eHealth. Notre résultat était le meilleur parmi tous les systèmes participants.
Resumo:
OBJECTIF: Évaluer si la prééclampsie (PE) récidivante présente un taux de prématurité (< 37 semaines de gestation) plus élevé qu'une première PE. Les critères de jugement secondaires étaient le retard de croissance intra-utérin (RCIU) et la morbidité maternelle. MÉTHODES: Il s'agit d'une étude rétrospective de cohorte conduite sur 383 femmes avec un diagnostic de prééclampsie et ayant accouché au CHU Sainte-Justine à Montréal (Canada) entre 2001 et 2011. Parmi elles, 128 ont développé une récidive de PE à la grossesse successive. RÉSULTATS: Chez les femmes récidivantes (n = 128), les taux de prématurité et de RCIU étaient similaires dans les 2 épisodes de PE, bien que plus atteintes d'hypertension chronique (p = 0.001) et de diabète gestationnel (p = 0.021) dans leur seconde PE. Comparativement aux femmes non récidivantes (n = 255), les récidivantes (n = 128) présentaient, à leur première PE, un profil clinique caractérisé par un taux élevé de PE sévère (p < 0.001), éclampsie et critères adverses (p = 0.007). Le risque relatif de récidive de PE chez une femme avec ce profil clinique à sa première PE a été évalué à 1, 60 (95%IC: 1, 17 – 2, 18). CONCLUSION: La récidive de PE est associée à des taux similairement élevés de prématurité et de RCIU comparativement à la première PE. Les femmes qui à leur première PE ont un profil clinique défini par prééclampsie sévère, éclampsie ou présence de critères adverses sont plus à risque de récidive de PE à la grossesse subséquente. Mots clés: prééclampsie, récidive, issues périnatales, prématurité
Resumo:
Mise en garde : Ce mémoire a été réalisé grâce au soutien financier du Fonds d’éducation et de saine gouvernance de l'Autorité des marchés financiers. Les informations, opinions et avis exprimés n'engagent que la responsabilité de Marie-Annick Laurendeau.
Resumo:
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.
Resumo:
Une étude récente auprès de 302 mathématiciens canadiens révèle un écart intriguant : tandis que 43% des sondés utilisent la programmation informatique dans leur recherche, seulement 18% indiquent qu'ils emploient cette technologie dans leur enseignement (Buteau et coll., 2014). La première donnée reflète le potentiel énorme qu'a la programmation pour faire et apprendre des mathématiques. La deuxième donnée a inspiré ce mémoire : pourquoi existe-t-il un tel écart ? Pour répondre à cette question, nous avons mené une étude exploratoire qui cherche à mieux comprendre la place de la programmation dans la recherche et la formation en mathématiques au niveau universitaire. Des entrevues semi-dirigées ont été conduites avec 14 mathématiciens travaillant dans des domaines variés et à différentes universités à travers le pays. Notre analyse qualitative nous permet de décrire les façons dont ces mathématiciens construisent des programmes informatiques afin d'accomplir plusieurs tâches (p.e., simuler des phénomènes réels, faire des mathématiques « expérimentales », développer de nouveaux outils puissants). Elle nous permet également d'identifier des moments où les mathématiciens exposent leurs étudiants à certains éléments de ces pratiques en recherche. Nous notons toutefois que les étudiants sont rarement invités à concevoir et à écrire leurs propres programmes. Enfin, nos participants évoquent plusieurs contraintes institutionnelles : le curriculum, la culture départementale, les ressources humaines, les traditions en mathématiques, etc. Quelques-unes de ces contraintes, qui semblent limiter l'expérience mathématique des étudiants de premier cycle, pourraient être revues.
Resumo:
La réalité des femmes vivant avec le VIH (FVVIH) et désireuses d’avoir un enfant soulève un ensemble d’enjeux de santé publique et de promotion de la santé. Les études réalisées jusqu’à maintenant se sont surtout orientées sur les dimensions épidémiologiques et biomédicales de la maternité en contexte de VIH. Peu d’entre elles ont cependant tenu compte des expériences et des besoins du point de vue des FVVIH mais surtout de l’importance et des significations qu’elles accordent à la maternité. Le projet de maternité contribue à leur sens de l’existence et constitue une modalité de transformation du rapport au VIH et d’auto-transcendance. Cette perspective en tant que stratégie de promotion de la santé n’a pas été non plus suffisamment explorée. L’objectif général de cette thèse, à partir d’un cadre théorique fondé sur les approches féministes de la construction sociale de la maternité, des représentations du risque et des stratégies d’adaptation à la maladie, est d’analyser les expériences de maternité chez des FVVIH montréalaises. Au plan méthodologique, cette thèse s’appuie sur l’analyse qualitative secondaire d’entrevues, réalisées auprès de 42 FVVIH d’origine canadienne-française, africaine et haïtienne et recrutées dans des milieux hospitalier et communautaire. Ces entrevues portent sur leurs expériences quotidiennes en relation avec le VIH, leurs enjeux sociaux, leur famille et leurs relations interpersonnelles. Les données ont été analysées et interprétées selon les étapes de la théorie ancrée avec validation inter-juges. Une analyse typologique a aussi été effectuée pour dégager les modèles de maternité présents dans les discours à partir de deux types d’analyses à savoir, la « méthode relationnelle centrée sur la voix » et celle de « la logique d’action ». Trois articles scientifiques, présentant les résultats de l’analyse, ont été soumis. Le premier article décrit les modèles idéologiques de la maternité dans cette population (croissance personnelle ; réalisation sociale ; accomplissement de soi et de complétude) et ses répercussions sur la gestion du VIH (traitements, dévoilement, soins aux enfants). Le second article dégage la manière dont les femmes, selon leur modèle idéologique de la maternité, s’approprient les informations et les conseils provenant des intervenants de la santé et construisent le risque biologique associé à la maternité dans le contexte du VIH. Il cerne aussi les stratégies utilisées pour réaliser leur projet reproductif en conformité ou non avec les injonctions biomédicales. Le troisième article décrit les façons dont le projet de maternité oriente le rapport au VIH, le sens de l’existence et les expériences d’auto-transcendance des femmes (préserver un statut, un rôle et une image sociale ; transformer le rapport à la mort ; faciliter l’acceptation et la transformation du rapport à la maladie ; donner un sens et une direction à l’existence). À partir d’une réflexion sur l’articulation entre les données présentées dans les trois articles, un modèle théorique intégrateur est proposé. Les retombées de cette étude sur la recherche et l’intervention dans une perspective de promotion de la santé sont esquissées. Des pistes de transfert et de partage des connaissances sont aussi proposées.
Resumo:
Le but de ce projet était de développer des méthodes d'assemblage de novo dans le but d'assembler de petits génomes, principalement bactériens, à partir de données de séquençage de nouvelle-génération. Éventuellement, ces méthodes pourraient être appliquées à l'assemblage du génome de StachEndo, une Alpha-Protéobactérie inconnue endosymbiote de l'amibe Stachyamoeba lipophora. Suite à plusieurs analyses préliminaires, il fut observé que l’utilisation de lectures Illumina avec des assembleurs par graphe DeBruijn produisait les meilleurs résultats. Ces expériences ont également montré que les contigs produits à partir de différentes tailles de k-mères étaient complémentaires pour la finition des génomes. L’ajout de longues paires de lectures chevauchantes se montra essentiel pour la finition complète des grandes répétitions génomiques. Ces méthodes permirent d'assembler le génome de StachEndo (1,7 Mb). L'annotation de ce génome permis de montrer que StachEndo possède plusieurs caractéristiques inhabituelles chez les endosymbiotes. StachEndo constitue une espèce d'intérêt pour l'étude du développement endosymbiotique.