39 resultados para Le Pré-Saint-Gervais (Seine-Saint-Denis)
Resumo:
L’incontinence urinaire d’effort (IUE) est une condition fréquente en période postnatale pouvant affecter jusqu’à 77% des femmes. Neuf femmes sur dix souffrant d’IUE trois mois après l’accouchement, vont présenter une IUE cinq ans plus tard. Le traitement en physiothérapie de l’IUE par le biais d’un programme d’exercices de renforcement des muscles du plancher pelvien est reconnu comme étant un traitement de première ligne efficace. Les études ont prouvé l’efficacité de cette approche sur l’IUE persistante à court terme, mais les résultats de deux ECR à long terme n’ont pas démontré un maintien de l’effet de traitement. L’effet d’un programme en physiothérapie de renforcement du plancher pelvien intensif et étroitement supervisé sur l’IUE postnatale persistante avait été évalué lors d’un essai clinique randomisé il y a sept ans. Le but principal de la présente étude était d’évaluer l’effet de ce programme sept ans après la fin des interventions de l’ECR initial. Un objectif secondaire était de comparer l’effet de traitement à long terme entre un groupe ayant fait seulement des exercices de renforcement du plancher pelvien et un groupe ayant fait des exercices de renforcement du plancher pelvien et des abdominaux profonds. Un troisième objectif était d’explorer l’influence de quatre facteurs de risques sur les symptômes d’IUE et la qualité de vie à long terme. Les cinquante-sept femmes ayant complétées l’ECR initial ont été invitées à participer à l’évaluation du suivi sept ans. Vingt et une femmes ont participé à l’évaluation clinique et ont répondu à quatre questionnaires, tandis que dix femmes ont répondu aux questionnaires seulement. L’évaluation clinique incluait un pad test et la dynamométrie du plancher pelvien. La mesure d’effet primaire était un pad test modifié de 20 minutes. Les mesures d’effets secondaires étaient la dynamométrie du plancher pelvien, les symptômes d’IUE mesuré par le questionnaire Urogenital Distress Inventory, la qualité de vie mesurée par le questionnaire Incontinence Impact Questionnaire et la perception de la sévérité de l’IUE mesuré par l’Échelle Visuelle Analogue. De plus, un questionnaire portant sur quatre facteurs de risques soit, la présence de grossesses subséquentes, la v présence de constipation chronique, l’indice de masse corporel et la fréquence des exercices de renforcement du plancher pelvien de l’IUE, venait compléter l’évaluation. Quarante-huit pour-cent (10/21) des participantes étaient continentes selon de pad test. La moyenne d’amélioration entre le résultat pré-traitement et le suivi sept ans était de 26,9 g. (écart-type = 68,0 g.). Il n’y avait pas de différence significative des paramètres musculaires du plancher pelvien entre le pré-traitement, le post-traitement et le suivi sept ans. Les scores du IIQ et du VAS étaient significativement plus bas à sept ans qu’en prétraitement (IIQ : 23,4 vs 15,6, p = 0,007) et (VAS : 6,7 vs 5,1, p = 0,001). Les scores du UDI étaient plus élevés au suivi sept ans (15,6) qu’en pré-traitement (11,3, p = 0,041) et en post-traitement (5,7, p = 0,00). La poursuite des exercices de renforcement du plancher pelvien à domicile était associée à une diminution de 5,7 g. (p = 0,051) des fuites d’urine observées au pad test selon une analyse de régression linéaire. Les limites de cette étude sont ; la taille réduite de l’échantillon et un biais relié au désir de traitement pour les femmes toujours incontinentes. Cependant, les résultats semblent démontrer que l’effet du traitement à long terme d’un programme de renforcement des muscles du plancher pelvien qui est intensif et étroitement supervisé, est maintenu chez environ une femme sur deux. Bien que les symptômes d’IUE tel que mesuré par les pad test et le questionnaire UDI, semblent réapparaître avec le temps, la qualité de vie, telle que mesurée par des questionnaires, est toujours meilleure après sept qu’à l’évaluation initiale. Puisque la poursuite des exercices de renforcement du plancher pelvien est associée à une diminution de la quantité de fuite d’urine au pad test, les participantes devraient être encouragées à poursuivre leurs exercices après la fin d’un programme supervisé. Pour des raisons de logistique la collecte de donnée de ce projet de recherche s’est continuée après la rédaction de ce mémoire. Les résultats finaux sont disponibles auprès de Chantale Dumoulin pht, PhD., professeure agrée à l’Université de Montréal.
Resumo:
La leucémie lymphoïde représente 30% de tous les cancers chez l’enfant. SCL (« Stem cell leukemia ») et LMO1/2 (« LIM only protein ») sont les oncogènes les plus fréquemment activés dans les leucémies aiguës des cellules T chez l'enfant (T-ALL). L’expression ectopique de ces deux oncoprotéines dans le thymus de souris transgéniques induit un blocage de la différenciation des cellules T suivie d’une leucémie agressive qui reproduit la maladie humaine. Afin de définir les voies génétiques qui collaborent avec ces oncogènes pour induire des leucémies T-ALL, nous avons utilisé plusieurs approches. Par une approche de gène candidat, nous avons premièrement identifié le pTalpha, un gène crucial pour la différenciation des cellules T, comme cible directe des hétérodimères E2AHEB dans les thymocytes immatures. De plus, nous avons montré que pendant la différenciation normale des thymocytes, SCL inhibe la fonction E2A et HEB et qu’un dosage entre les protéines E2A, HEB et SCL détermine l’expression du pTalpha. Deuxièmement, par l’utilisation d’une approche globale et fonctionnelle, nous avons identifié de nouveaux gènes cibles des facteurs de transcription E2A et HEB et montré que SCL et LMO1 affectent la différenciation thymocytaire au stade préleucémique en inhibant globalement l’activité transcriptionnelle des protéines E par un mécanisme dépendant de la liaison à l’ADN. De plus, nous avons découvert que les oncogènes SCL et LMO1 sont soit incapables d’inhiber totalement l’activité suppresseur de tumeur des protéines E ou agissent par une voie d’induction de la leucémie différente de la perte de fonction des protéines E. Troisièmement, nous avons trouvé que Notch1, un gène retrouvé activé dans la majorité des leucémies T-ALL chez l’enfant, opère dans la même voie génétique que le pré-TCR pour collaborer avec les oncogènes SCL et LMO1 lors du processus de leucémogénèse. De plus, cette collaboration entre des facteurs de transcription oncogéniques et des voies de signalisation normales et importantes pour la détermination de la destinée cellulaire pourraient expliquer la transformation spécifique à un type cellulaire. Quatrièmement, nous avons trouvé que les oncogènes SCL et LMO1 sont des inducteurs de sénescence au stade préleucémique. De plus, la délétion du locus INK4A/ARF, un évènement retrouvé dans la majorité des leucémies pédiatriques T-ALL associées avec une activation de SCL, collabore aves les oncogènes SCL et LMO1 dans l’induction de la leucémie. Cette collaboration entre la perte de régulateurs de la sénescence suggère qu’un contournement de la réponse de sénescence pourrait être nécessaire à la transformation. Finalement, nous avons aussi montré que l’interaction directe entre les protéines SCL et LMO1 est critique pour l’induction de la leucémie. Ces études ont donc permis d’identifier des évènements collaborateurs, ainsi que des propriétés cellulaires affectées par les oncogènes associés avec la leucémie et de façon plus générale dans le développement du cancer.
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.
Resumo:
L'ère numérique dans laquelle nous sommes entrés apporte une quantité importante de nouveaux défis à relever dans une multitude de domaines. Le traitement automatique de l'abondante information à notre disposition est l'un de ces défis, et nous allons ici nous pencher sur des méthodes et techniques adaptées au filtrage et à la recommandation à l'utilisateur d'articles adaptés à ses goûts, dans le contexte particulier et sans précédent notable du jeu vidéo multi-joueurs en ligne. Notre objectif est de prédire l'appréciation des niveaux par les joueurs. Au moyen d'algorithmes d'apprentissage machine modernes tels que les réseaux de neurones profonds avec pré-entrainement non-supervisé, que nous décrivons après une introduction aux concepts nécessaires à leur bonne compréhension, nous proposons deux architectures aux caractéristiques différentes bien que basées sur ce même concept d'apprentissage profond. La première est un réseau de neurones multi-couches pour lequel nous tentons d'expliquer les performances variables que nous rapportons sur les expériences menées pour diverses variations de profondeur, d'heuristique d'entraînement, et des méthodes de pré-entraînement non-supervisé simple, débruitant et contractant. Pour la seconde architecture, nous nous inspirons des modèles à énergie et proposons de même une explication des résultats obtenus, variables eux aussi. Enfin, nous décrivons une première tentative fructueuse d'amélioration de cette seconde architecture au moyen d'un fine-tuning supervisé succédant le pré-entrainement, puis une seconde tentative où ce fine-tuning est fait au moyen d'un critère d'entraînement semi-supervisé multi-tâches. Nos expériences montrent des performances prometteuses, notament avec l'architecture inspirée des modèles à énergie, justifiant du moins l'utilisation d'algorithmes d'apprentissage profonds pour résoudre le problème de la recommandation.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Réalisé en cotutelle avec Claude Sicotte PhD Université de Montréal et le Pr. Étienne Minvielle École des Hautes Études en Santé Publique à Paris.
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
Dès le tournant du XIIIe siècle, les écrivains reprennent l’idée d’une quête du Graal, déjà développée par Chrétien de Troyes avec le Conte du Graal, pour y faire entrer plus amplement les traits d’une idéologie ecclésiastique. Les premières proses du Graal présentent alors une nouvelle façon d’exposer certains idéaux de la chevalerie à travers des convictions religieuses. Dans une approche socio-historique, nous nous sommes d’abord penché sur la figure incontournable du roi Arthur, personnage dont le comportement est la cause de la quête du Graal. Plus particulièrement, dans cette recherche, il est question de découvrir comment la position sociale du chevalier tend à s’élever au-dessus de celle du roi. Partant des différentes fonctions royales pour aller vers la nature et le but des aventures vécues par les chevaliers, nous observons pourquoi et comment les auteurs des premières proses du Graal ont tenté d’adapter l’idéologie chevaleresque à l’idéologie ecclésiastique. Il appert que l’influence des discours politiques de cette période médiévale aura joué un rôle important dans cette nouvelle approche de la chevalerie.
Resumo:
En raison de la grande résolution des photographies des échantillons, celles-ci se trouvent dans un fichier complémentaire, puisque les conditions de forme imposées ne permettaient pas l'affichage intégral de ces images au sein du mémoire.
Resumo:
Parc marin du Saguenay - Saint-Laurent, Groupe de recherche et d'éducation sur les mammifères marins, GREMM, excursions aux baleines, bélugas, Tadoussac, règlementation, ArcCatalog, ArcMap.
Resumo:
Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.
Resumo:
Dès les débuts du christianisme, l’Église s’est servie de l’art. Au Moyen âge, en particulier, la décoration des cathédrales (sculptures, fresques vitraux) avait une valeur esthétique, mais plus encore, une valeur didactique. Moyens matériels pour faire la catéchèse, voire évangéliser, les crèches du Musée de l’Oratoire Saint-Joseph du Mont-Royal s’inscrivent dans cette perspective. Tenant compte de cette mission d’évangélisation qui incombe à l’Église et de l’importance que prend de plus en plus le visuel dans la culture et la société actuelles, nous voulons partir de l’exposition des crèches de Noël à l’Oratoire Saint-Joseph, de l’année 2009, pour découvrir en quoi elle pourrait contribuer à l’évangélisation et à la croissance du christianisme et des chrétiens. En effet, les crèches de Noël sont essentiellement œuvre de foi, – non pas liée à la foi de l’auteur mais plutôt à l’effet que cette oeuvre peut avoir sur celui qui la regarde, – dont la dévotion à la sainte Famille. Ce moyen d’évangélisation dans ce monde en mutation où l’art visuel s’est avéré d’une extrême importance convient bien au contexte de la déchristianisation et peut offrir une complémentarité aux méthodes traditionnelles d’évangélisation basées surtout sur le discours. Ils sont complémentaires, dans le sens où il ne s’agit pas de « cheminer à travers villes et villages, prêchant et annonçant la Bonne Nouvelle du Royaume de Dieu » (Lc 8,1) aux personnes qui n’ont pas encore entendu parler du Christ, mais d’éveiller la curiosité chez les visiteurs non-chrétiens (Evangelii Nuntiandi 53), de stimuler l’intérêt à l’égard de la religion chez les non-pratiquants (EN 56) et, de soutenir et approfondir la foi des fidèles. Mots-clés : Christianisme – Église – transmission – évangélisation – éducation de la foi – musée – crèches – Oratoire Saint-Joseph.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal