256 resultados para Métrique logiciel
Resumo:
Contexte & Objectifs : La manométrie perfusée conventionnelle et la manométrie haute résolution (HRM) ont permis le développement d’une variété de paramètres pour mieux comprendre la motilité de l'œsophage et quantifier les caractéristiques de la jonction œsophago-gastrique (JOG). Cependant, l'anatomie de la JOG est complexe et les enregistrements de manométrie détectent à la fois la pression des structures intrinsèques et des structures extrinsèques à l'œsophage. Ces différents composants ont des rôles distincts au niveau de la JOG. Les pressions dominantes ainsi détectées au niveau de la JOG sont attribuables au sphincter œsophagien inférieur (SOI) et aux piliers du diaphragme (CD), mais aucune des technologies manométriques actuelles n’est capable de distinguer ces différents composants de la JOG. Lorsqu’on analyse les caractéristiques de la JOG au repos, celle ci se comporte avant tout comme une barrière antireflux. Les paramètres manométriques les plus couramment utilisés dans ce but sont la longueur de la JOG et le point d’inversion respiratoire (RIP), défini comme le lieu où le pic de la courbe de pression inspiratoire change de positif (dans l’abdomen) à négatif (dans le thorax), lors de la classique manœuvre de « pull-through ». Cependant, l'importance de ces mesures reste marginale comme en témoigne une récente prise de position de l’American Gastroenterology Association Institute (AGAI) (1) qui concluait que « le rôle actuel de la manométrie dans le reflux gastro-œsophagien (RGO) est d'exclure les troubles moteurs comme cause des symptômes présentés par la patient ». Lors de la déglutition, la mesure objective de la relaxation de la JOG est la pression de relaxation intégrée (IRP), qui permet de faire la distinction entre une relaxation normale et une relaxation anormale de la JOG. Toutefois, puisque la HRM utilise des pressions moyennes à chaque niveau de capteurs, certaines études de manométrie laissent suggérer qu’il existe une zone de haute pression persistante au niveau de la JOG même si un transit est mis en évidence en vidéofluoroscopie. Récemment, la manométrie haute résolution « 3D » (3D-HRM) a été développée (Given Imaging, Duluth, GA) avec le potentiel de simplifier l'évaluation de la morphologie et de la physiologie de la JOG. Le segment « 3D » de ce cathéter de HRM permet l'enregistrement de la pression à la fois de façon axiale et radiale tout en maintenant une position fixe de la sonde, et évitant ainsi la manœuvre de « pull-through ». Par conséquent, la 3D-HRM devrait permettre la mesure de paramètres importants de la JOG tels que sa longueur et le RIP. Les données extraites de l'enregistrement fait par 3D-HRM permettraient également de différencier les signaux de pression attribuables au SOI des éléments qui l’entourent. De plus, l’enregistrement des pressions de façon radiaire permettrait d’enregistrer la pression minimale de chaque niveau de capteurs et devrait corriger cette zone de haute pression parfois persistante lors la déglutition. Ainsi, les objectifs de ce travail étaient: 1) de décrire la morphologie de la JOG au repos en tant que barrière antireflux, en comparant les mesures effectuées avec la 3D-HRM en temps réel, par rapport à celle simulées lors d’une manœuvre de « pull-through » et de déterminer quelles sont les signatures des pressions attribuables au SOI et au diaphragme; 2) d’évaluer la relaxation de la JOG pendant la déglutition en testant l'hypothèse selon laquelle la 3D-HRM permet le développement d’un nouveau paradigme (appelé « 3D eSleeve ») pour le calcul de l’IRP, fondé sur l’utilisation de la pression radiale minimale à chaque niveau de capteur de pression le long de la JOG. Ce nouveau paradigme sera comparé à une étude de transit en vidéofluoroscopie pour évaluer le gradient de pression à travers la JOG. Méthodes : Nous avons utilisé un cathéter 3D-HRM, qui incorpore un segment dit « 3D » de 9 cm au sein d’un cathéter HRM par ailleurs standard. Le segment 3D est composé de 12 niveaux (espacés de 7.5mm) de 8 capteurs de pression disposés radialement, soit un total de 96 capteurs. Neuf volontaires ont été étudiés au repos, où des enregistrements ont été effectués en temps réel et pendant une manœuvre de « pull-through » du segment 3D (mobilisation successive du cathéter de 5 mm, pour que le segment 3D se déplace le long de la JOG). Les mesures de la longueur du SOI et la détermination du RIP ont été réalisées. La longueur de la JOG a été mesurée lors du « pull-through » en utilisant 4 capteurs du segment 3D dispersés radialement et les marges de la JOG ont été définies par une augmentation de la pression de 2 mmHg par rapport à la pression gastrique ou de l’œsophage. Pour le calcul en temps réel, les limites distale et proximale de la JOG ont été définies par une augmentation de pression circonférentielle de 2 mmHg par rapport à la pression de l'estomac. Le RIP a été déterminée, A) dans le mode de tracé conventionnel avec la méthode du « pull-through » [le RIP est la valeur moyenne de 4 mesures] et B) en position fixe, dans le mode de représentation topographique de la pression de l’œsophage, en utilisant l’outil logiciel pour déterminer le point d'inversion de la pression (PIP). Pour l'étude de la relaxation de la JOG lors de la déglutition, 25 volontaires ont été étudiés et ont subi 3 études de manométrie (10 déglutitions de 5ml d’eau) en position couchée avec un cathéter HRM standard et un cathéter 3D-HRM. Avec la 3D-HRM, l’analyse a été effectuée une fois avec le segment 3D et une fois avec une partie non 3D du cathéter (capteurs standard de HRM). Ainsi, pour chaque individu, l'IRP a été calculée de quatre façons: 1) avec la méthode conventionnelle en utilisant le cathéter HRM standard, 2) avec la méthode conventionnelle en utilisant le segment standard du cathéter 3D-HRM, 3) avec la méthode conventionnelle en utilisant le segment « 3D » du cathéter 3D-HRM, et 4) avec le nouveau paradigme (3D eSleeve) qui recueille la pression minimale de chaque niveau de capteurs (segment 3D). Quatorze autres sujets ont subi une vidéofluoroscopie simultanée à l’étude de manométrie avec le cathéter 3D-HRM. Les données de pression ont été exportés vers MATLAB ™ et quatre pressions ont été mesurées simultanément : 1) la pression du corps de l’œsophage, 2cm au-dessus de la JOG, 2) la pression intragastrique, 3) la pression radiale moyenne de la JOG (pression du eSleeve) et 4) la pression de la JOG en utilisant la pression minimale de chaque niveau de capteurs (pression du 3D eSleeve). Ces données ont permis de déterminer le temps permissif d'écoulement du bolus (FPT), caractérisé par la période au cours de laquelle un gradient de pression existe à travers la JOG (pression œsophagienne > pression de relaxation de la JOG > pression gastrique). La présence ou l'absence du bolus en vidéofluoroscopie et le FPT ont été codés avec des valeurs dichotomiques pour chaque période de 0,1 s. Nous avons alors calculé la sensibilité et la spécificité correspondant à la valeur du FPT pour la pression du eSleeve et pour la pression du 3D eSleeve, avec la vidéofluoroscopie pour référence. Résultats : Les enregistrements avec la 3D-HRM laissent suggérer que la longueur du sphincter évaluée avec la méthode du « pull-through » était grandement exagéré en incorporant dans la mesure du SOI les signaux de pression extrinsèques à l’œsophage, asymétriques et attribuables aux piliers du diaphragme et aux structures vasculaires. L’enregistrement en temps réel a permis de constater que les principaux constituants de la pression de la JOG au repos étaient attribuables au diaphragme. L’IRP calculé avec le nouveau paradigme 3D eSleeve était significativement inférieur à tous les autres calculs d'IRP avec une limite supérieure de la normale de 12 mmHg contre 17 mmHg pour l’IRP calculé avec la HRM standard. La sensibilité (0,78) et la spécificité (0,88) du 3D eSleeve étaient meilleurs que le eSleeve standard (0,55 et 0,85 respectivement) pour prédire le FPT par rapport à la vidéofluoroscopie. Discussion et conclusion : Nos observations suggèrent que la 3D-HRM permet l'enregistrement en temps réel des attributs de la JOG, facilitant l'analyse des constituants responsables de sa fonction au repos en tant que barrière antireflux. La résolution spatiale axiale et radiale du segment « 3D » pourrait permettre de poursuivre cette étude pour quantifier les signaux de pression de la JOG attribuable au SOI et aux structures extrinsèques (diaphragme et artéfacts vasculaires). Ces attributs du cathéter 3D-HRM suggèrent qu'il s'agit d'un nouvel outil prometteur pour l'étude de la physiopathologie du RGO. Au cours de la déglutition, nous avons évalué la faisabilité d’améliorer la mesure de l’IRP en utilisant ce nouveau cathéter de manométrie 3D avec un nouveau paradigme (3D eSleeve) basé sur l’utilisation de la pression radiale minimale à chaque niveau de capteurs de pression. Nos résultats suggèrent que cette approche est plus précise que celle de la manométrie haute résolution standard. La 3D-HRM devrait certainement améliorer la précision des mesures de relaxation de la JOG et cela devrait avoir un impact sur la recherche pour modéliser la JOG au cours de la déglutition et dans le RGO.
Resumo:
Contexte: L'utilisation de suppléments alimentaires est répandue chez les populations américaines et canadiennes en général, mais on en sait peu sur la consommation de suppléments alimentaires dans la population autochtone canadienne. Objectif: L'objectif général de cette étude est de prendre en compte l'utilisation de suppléments alimentaires dans l'évaluation nutritionnelle des apports alimentaires des adultes des Premières nations vivant dans les réserves en Colombie-Britannique et Manitoba. Conception: Les données ont été recueillies par l’étude ‘First Nations Food, Nutrition, and Environment Study’ de 1103 (Colombie-Britannique) et 706 (Manitoba) adultes des Premières Nations âgés de 19 à 70 ans. L'étude a utilisé un rappel alimentaire des dernières 24 heures (avec un deuxième rappel pour un sous-échantillon) pour évaluer la diète alimentaire. L'utilisation de suppléments alimentaires et des antiacides ont été recueillis par un questionnaire de fréquence. En utilisant le logiciel SIDE pour tenir compte des variations intra-individuelles dans la prise alimentaire et la technique du bootstrap pour obtenir des estimations représentatives des différentes régions, l'utilisation de suppléments de la vitamine A, D, C et de calcium ont été intégrées aux estimations de la consommation alimentaire. Résultats: Environ 30% des adultes des Premières Nations de la Colombie-Britannique et seulement 13,2% des adultes des Premières Nations du Manitoba âgés entre 19-70 ans vivant dans les réserves ont déclaré utiliser au moins un supplément alimentaire durant les 30 jours précédents. Lors de l'examen des nutriments d'intérêt, un plus faible pourcentage de la population en a fait usage, de 14,8 à 18,5% en Colombie-Britannique et de 4,9 à 8% de la population du Manitoba. La prévalence de l'usage de tout supplément alimentaire était plus élevée chez les femmes que chez les hommes dans tous les groupes d'âge et augmente avec l'âge dans les deux sexes. La plus forte prévalence d'un apport insuffisant provenant de la nourriture a été observée pour la vitamine D et le calcium en Colombie-Britannique et Manitoba, variant de 75 à 100%, et de la vitamine A dans le Manitoba (73-96%). Après avoir examiné l'utilisation de suppléments alimentaires, plus des trois quarts des participants n’ont toujours pas réussi à répondre au besoin moyen estimatif pour ces nutriments. La vitamine C est l'oligo-élément avec le plus faible pourcentage sous le besoin moyen estimatif (avec au sans suppléments) pour la Colombie-Britannique et le Manitoba. Conclusion: La majorité des adultes des Premières nations de la Colombie-Britannique et du Manitoba, même après prise en compte de l'utilisation de suppléments alimentaires, avaient des apports en vitamines A, D et des apports de calcium sous les niveaux recommandés. L'utilisation de compléments alimentaires n'a pas contribué de façon significative à l'apport total en nutriments sélectionnés sauf pour la vitamine C dans certains groupes d'âge.
Resumo:
La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
Les calculs numériques ont été effectués à l'aide du logiciel SAGE.
Resumo:
Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.
Resumo:
Malgré le rôle important joué par les comportements alimentaires durant la grossesse, et de leurs implications pour la santé de la mère et de l’enfant à naître, plusieurs études soulignent que les besoins d’informations des femmes enceintes à faible revenu ou issues de minorités ethniques n’ont pas été comblés. Le comportement de recherche d’informations de femmes enceintes immigrantes maghrébines à faible revenu sera donc abordé via le modèle d’Engel, Kollat et Blackwell. L’objectif général est l’exploration de ce comportement de recherche d’informations en lien avec des thématiques associées à leur alimentation au cours de la grossesse. La thèse propose quatre questions spécifiques de recherche visant l’exploration des facteurs d’ordre individuel et d’environnement susceptibles d’influencer une recherche active d’informations, des sources auprès desquelles des informations sont recherchées, et de la nature de l’information recueillie. Un total de 28 femmes enceintes volontaires (14 primigestes et 14 secondigestes) ont été recrutées via le Dispensaire diététique de Montréal entre les mois d’août 2010 et 2011. Des entrevues semi-structurées de 60 à 90 minutes ont été réalisées par l’étudiante au doctorat. Les données ont été soumises à une analyse de contenu via le logiciel NVivo. Des facteurs d’ordre individuel susceptibles d’influencer le comportement de recherche active d’informations furent identifiés: perspective idéologique à l’égard de la grossesse, présence de malaises de grossesse, perception du caractère contradictoire des informations reçues, perceptions liées au caractère adéquat de l’information reçue, perceptions liées au caractère suffisant de l’information détenue, variation du poids corporel, valorisation du bien-être du bébé, attitudes à l’égard de la supplémentation prénatale, valorisation d’une saine alimentation et motivation à apprendre. Des facteurs d’environnement susceptibles d’influencer le comportement de recherche active d’informations ont été identifiés: culture (habitudes alimentaires, croyances alimentaires, croyances religieuses, perte de repères culturels traditionnels quant aux soins de santé et conseils offerts durant la grossesse) et interactions avec les membres de l’environnement social. Des sources d’informations significatives en lien avec la nutrition prénatale se sont avérées être pour les primigestes: diététiste, mère, amies, mari et Internet. Pour les secondigestes, ces sources d’informations étaient: diététiste, médecin, amies et mari. Une source d’informations professionnelle significative concernant la supplémentation prénatale et le gain de poids durant la grossesse, tant pour les primigestes que secondigestes, s’est révélée être la diététiste. Peu de femmes ont rapporté avoir reçu des professionnels de l’information à propos de la salubrité alimentaire et des risques de gagner trop de poids. Les résultats soulèvent une réflexion à l’égard de l’implication des professionnels en période prénatale et quant à la révision de leurs approches de counseling nutritionnel. Les résultats amènent également à réfléchir quant à l’amélioration des activités ayant pour objectif de répondre aux besoins d’informations des femmes enceintes immigrantes maghrébines à faible revenu en lien avec des thématiques liées à l’alimentation durant la grossesse. Pour terminer, il serait utile que de futures recherches s’attardent à mieux comprendre le comportement de recherche d’informations en lien avec des thématiques associées à l’alimentation de femmes enceintes de différents horizons culturels ou de celle de l’enfant à venir.
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de doctorat en psychologie (D.Psy.) option psychologie clinique
Resumo:
Introduction Syllabo est une base de données maison visant à faciliter le processus de développement de collection, tout en ciblant le mieux possible les besoins des étudiants. L’objectif est d’atteindre la meilleure adéquation possible entre les collections des bibliothèques de l’Université de Montréal, et les ouvrages et sources d’information mentionnés dans les plans de cours. Méthodologie Le développement de Syllabo a débuté en juin 2009 à la Bibliothèque de la santé, dans la perspective de faciliter le processus de révision des syllabus des cours offerts à chaque trimestre par les facultés et les écoles desservies par les bibliothèques. Un procédurier décrit en détail la configuration de cette base élaborée à l’aide du logiciel EndNote. On y explique les étapes de repérage des syllabus et des données bibliographiques, les champs personnalisés disponibles (sigle du cours, statut du document, suivi des démarches, etc.), le vocabulaire contrôlé et les règles d’écriture associés à ces champs, ainsi que les procédures de sauvegarde. Résultats La base Syllabo facilite maintenant le repérage annuel de nouvelles éditions, assure un suivi plus systématique de toutes les démarches requises, tout en simplifiant les communications avec les professeurs. La Bibliothèque de la santé applique dorénavant cette même méthodologie à la gestion de ses sections référence et de réserve de cours. Exposé La base Syllabo a grandement amélioré l’efficacité du processus de révision des syllabus et est maintenant implantée dans cinq bibliothèques de l’Université de Montréal (Santé, Paramédicale, Optométrie, Lettres et sciences humaines et EPC-Biologie).
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université́ de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Introduction: Au Canada, le cancer de la prostate est le cancer le plus fréquemment diagnostiqué chez les hommes et le plus mortel après les cancers du poumon et du côlon. Il y a place à optimiser le traitement du cancer de la prostate de manière à mettre en œuvre une médecine personnalisée qui s’adapte aux caractéristiques de la maladie de chaque patient de façon individuelle. Dans ce mémoire, nous avons évalué la réponse aux dommages de l’ADN (RDA) comme biomarqueur potentiel du cancer de la prostate. Les lésions potentiellement oncogènes de l'ADN déclenche une cascade de signalisation favorisant la réparation de l'ADN et l’activation des points de contrôle du cycle cellulaire pour préserver l’intégrité du génome. La RDA est un mécanisme central de suppression tumorale chez l’homme. La RDA joue un rôle important dans l’arrêt de la prolifération des cellules dont les génomes sont compromis, et donc, prévient la progression du cancer en agissant comme une barrière. Cette réponse cellulaire détermine également comment les cellules normales et cancéreuses réagissent aux agents utilisés pour endommager l'ADN lors du traitement du cancer comme la radiothérapie ou la chimiothérapie, en plus la présence d,un certain niveau de RDA dans les cellules du cancer de la prostate peuvent également influer sur l'issue de ces traitements. L’activation des signaux de la RDA peut agir comme un frein au cancer dans plusieurs lésions pré-néoplasiques de l'homme, y compris le cancer de la prostate. Il a été démontré que la RDA est augmentée dans les cellules de néoplasie intra- épithéliale (PIN) comparativement aux cellules prostatiques normales. Toutefois, le devient de la RDA entre le PIN et l’adénocarcinome est encore mal documenté et aucune corrélation n'a été réalisée avec les données cliniques des patients. Notre hypothèse est que les niveaux d’activation de la RDA seront variables selon les différents grades et agressivité du cancer de la prostate. Ces niveaux pourront être corrélés et possiblement prédire les réponses cliniques aux traitements des patients et aider à définir une stratégie plus efficace et de nouveaux biomarqueurs pour prédire les résultats du traitement et personnaliser les traitements en conséquence. Nos objectifs sont de caractériser l'activation de la RDA dans le carcinome de la prostate et corréler ses données avec les résultats cliniques. Méthodes : Nous avons utilisé des micro-étalages de tissus (tissue microarrays- TMAs) de 300 patients ayant subi une prostatectomie radicale pour un cancer de la prostate et déterminé le niveau d’expression de protéines de RDA dans le compartiment stromal et épithélial des tissus normaux et cancéreux. Les niveaux d’expression de 53BP1, p-H2AX, p65 et p-CHK2 ont été quantifiés par immunofluorescence (IF) et par un logiciel automatisé. Ces marqueurs de RDA ont d’abord été validés sur des TMAs-cellule constitués de cellules de fibroblastes normales ou irradiées (pour induire une activation du RDA). Les données ont été quantifiées à l'aide de couches binaires couramment utilisées pour classer les pixels d'une image pour que l’analyse se fasse de manière indépendante permettant la détection de plusieurs régions morphologiques tels que le noyau, l'épithélium et le stroma. Des opérations arithmétiques ont ensuite été réalisées pour obtenir des valeurs correspondant à l'activation de la RDA qui ont ensuite été corrélées à la récidive biochimique et l'apparition de métastases osseuses. Résultats : De faibles niveaux d'expression de la protéine p65 dans le compartiment nucléaire épithélial du tissu normal de la prostate sont associés à un faible risque de récidive biochimique. Par ailleurs, nous avons aussi observé que de faibles niveaux d'expression de la protéine 53BP1 dans le compartiment nucléaire épithéliale du tissu prostatique normal et cancéreux ont été associés à une plus faible incidence de métastases osseuses. Conclusion: Ces résultats confirment que p65 a une valeur pronostique chez les patients présentant un adénocarcinome de la prostate. Ces résultats suggèrent également que le marqueur 53BP1 peut aussi avoir une valeur pronostique chez les patients avec le cancer de la prostate. La validation d'autres marqueurs de RDA pourront également être corrélés aux résultats cliniques. De plus, avec un suivi des patients plus long, il se peut que ces résultats se traduisent par une corrélation avec la survie. Les niveaux d'activité de la RDA pourront éventuellement être utilisés en clinique dans le cadre du profil du patient comme le sont actuellement l’antigène prostatique spécifique (APS) ou le Gleason afin de personnaliser le traitement.
Resumo:
Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.
Resumo:
Avec la sécularisation, la laïcité et la diversité croissantes de la société québécoise, la place de la religion en général et du catholicisme en particulier se sont vues remises en question. Cette situation a d’ailleurs mené à la mise en place de deux commissions : l’une sur la place de la religion à l’école (1999) et l’autre sur les pratiques d’accommodements reliées aux différences culturelles (2008). Ces deux commissions auront fourni énormément d’informations sur les rapports qu’entretiennent encore les Québécois avec le catholicisme. Cette recherche a donc pour but de faire le point sur certains aspects du catholicisme au Québec à partir d’une perspective reposant principalement sur des instruments heuristiques issus des écrits signés « Jacques Derrida ». Pour ce faire, nous nous appuierons sur les travaux du Groupe de travail sur la religion à l’école, de la consultation générale sur la place de la religion à l’école et de la commission de consultation sur les pratiques d’accommodement reliées aux différences culturelles. Nous posons comme hypothèse que de manière générale, les Québécois entretiennent avec le catholicisme, des rapports « archivaux », c’est-à-dire conditionnés par des perceptions de ce dernier informées par son passé, plutôt que par son présent. De plus, ces perceptions du catholicisme, probablement développées dans le sillage de la Révolution tranquille et peut-être même un peu avant, nourriraient l’existence de « spectres » qui viendraient hanter les rapports des Québécois à tout ce qui touche le religieux et la diversité culturelle. En ce sens, il s’agit d’une dimension essentielle de ce que nous appellerions la « postmodernité » religieuse québécoise. Pour illustrer ce propos, nous mènerons une analyse de contenu documentaire. Premièrement, nous procéderons à l’analyse thématique de centaines de documents (rapports de recherche, rapports officiels, mémoires) déposés lors de ces débats. Le logiciel QDA Miner permettra d’effectuer une analyse documentaire en identifiant les passages thématiques reliés à la recherche. Nous procéderons ensuite à une analyse plus fine de ces extraits sélectionnés à partir de perspectives philosophiques provenant principalement du philosophe Jacques Derrida.
Resumo:
Cette recherche a été financée par le Fonds de recherche sur la société et la culture du Québec et le Conseil de recherches en sciences humaines. L’auteur a de plus reçu le support financier du programme de remboursement des frais de scolarité des forces armées canadiennes. Les cartes ont été produites grâce au logiciel ArcGIS (ESRI).