225 resultados para Traitement automatique de texte
Resumo:
L’influence des contaminants environnementaux (CE) a été largement étudié en contexte d’exposition aigüe et d’intoxication. Qu’en est-il d’une exposition chronique à plus faibles doses sur le développement cognitif et sensoriel des enfants? Les études longitudinales de la présente thèse ont été réalisées au Nunavik. Bien que géographiquement éloignée des centres industriels, la communauté inuite est exposée aux CE via leur transport par les courants atmosphériques et océaniques ainsi que par leur bioaccumulation dans le poisson et les mammifères marins. Puisque l’alimentation autochtone traditionnelle, notamment la chair de béluga, est encore fréquemment consommée par la communauté, une proportion substantielle d’enfants inuits est exposée in utero aux CE. Ceux-ci sont également continuellement exposés à ces agents neurotoxiques durant leur développement postnatal. Or, la variation considérable dans l’adoption de l’alimentation traditionnelle au sein de la communauté représente une opportunité pour étudier la relation entre les niveaux d’exposition aux CE et le développement cognitif et sensoriel des enfants. Bien que certains déficits aient déjà été mis en lien avec l’exposition chronique aux CE dans la littérature, la présente thèse s’intéressa à cette relation plus spécifiquement chez les enfants inuits vivant dans le Grand Nord et plus exposés aux CE en raison de leur alimentation. Par ailleurs, les protocoles qui ont été développés pour cette thèse permettront d’évaluer des aspects qui ont été peu étudiés en lien avec les CE, soit l’attention visuospatiale et le traitement visuel cérébral précoce. Dans le premier volet de cette thèse, la relation entre trois CE et l’attention visuospatiale a été étudiée à l’aide d’une version adaptée de la tâche de Posner (M.I. Posner et al., 1980). Cette tâche psychophysique a été administrée à des enfants inuits (âge moyen = 11.2 ans) dont les niveaux d’exposition au mercure (Hg), au plomb (Pb) et aux biphényles polychlorés (BPCs) ont été documentés durant les périodes pré et postnatale. Les expositions in utero au Pb et aux BPCs ont été significativement associées à de l’impulsivité et de l’inattention, respectivement, alors que l’exposition postnatale au Pb a été associée à des temps de réaction plus longs. Bien qu’aucune relation spécifique avec l’attention visuospatiale n’ait été trouvée, les résultats de cette étude suggèrent que l’exposition aux CE est associée à une diminution des capacités attentionnelles générales chez les enfants résidant au Nunavik. Dans le second volet, le traitement cérébral précoce de l’information visuelle a été examiné à l’aide de potentiels évoqués visuels auprès d’enfants de la même communauté (âge moyen = 10.9 ans). La concentration de Hg dans le sang de cordon ombilical mesurée à la naissance a été associée à une réduction de l’amplitude et à une augmentation de la latence de la composante N75. L’exposition prénatale au Pb a quant à elle été associée à un délai dans la latence de la composante N150. Les résultats obtenus suggèrent ainsi que l’exposition aux métaux lourds, en particulier durant la période gestationnelle, serait associée à des altérations dans le développement visuel. Les résultats présentés dans cette thèse soutiennent l’hypothèse selon laquelle le cerveau en développement est vulnérable lors d’une exposition chronique aux CE, et cela même à des niveaux de concentration inférieurs aux limites recommandées par les organismes de santé publique. Les résultats permettent également d’apporter un éclairage nouveau sur les déficits cognitifs et sensoriels associés aux CE.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maitrise en criminologie, option intervention
Resumo:
La maladie cardiaque ischémique, la plus commune des maladies qui affectent le cœur, est encore aujourd’hui une importante cause de décès dans les pays industrialisés. Une réponse cardio-métabolique inflammatoire à un changement aigu initié par une modification du métabolisme énergétique du cœur ischémique est accentuée après que l’apport en oxygène ait été rétabli. Parmi les altérations délétères dans le myocarde qui en résultent, sont inclus l’accumulation d’acides gras non estérifiés (AGNE) ainsi que leur oxydation au détriment de l’utilisation du glucose, ce qui amplifie la génération d’espèces réactives de l’oxygène (ROS). Les tissus en périphérie du cœur tel que le tissu adipeux peuvent affecter l’étendue des blessures au myocarde par la relâche en circulation de substances bioactives comme les AGNE et l’adiponectine. Le CD36 est le principal facilitateur de l’entrée d’AGNE dans le cœur et les adipocytes et constitue une importante cible métabolique spécialement lors d’un stress d’ischémie-reperfusion (I/R). Il a été rapporté précédemment par notre groupe qu’un ligand synthétique et sélectif envers le CD36 exerce un effet protecteur puissant sur le système vasculaire. Cependant, aucune étude in vivo n’a rapporté d’effet cardioprotecteur de ligands sélectifs envers le CD36. Ainsi, ce projet visait à évaluer le rôle et possiblement l’effet cardioprotecteur de ligands sélectifs du récepteur CD36 sur la blessure au myocarde en I/R. Des souris CD36+/+ et CD36-/- ont été traitées quotidiennement avec le EP 80317, le CP-3(iv) ou le véhicule pendant 14 jours avant de subir la ligature temporaire de l’artère coronaire antérieure descendante gauche (LAD). Notre première étude a montré que le EP 80317 exerce un effet cardioprotecteur puissant tel que montré par la réduction de la surface des lésions et l’amélioration de la fonction cardiaque in vivo suivant la blessure au myocarde en I/R. De plus, le EP 80317 a réduit l’internalisation totale d’AGNE dans le myocarde, mesurée in vivo par l’imagerie métabolique cardiaque, en accord avec la diminution du niveau circulant d’AGNE. Une réduction de la lipolyse révélée par une perfusion de radiotraceur de palmitate et une augmentation du niveau d’expression de gènes adipogéniques et anti-lipolytiques appuient davantage l’effet du EP 80317 dans la prévention de la mobilisation délétère d’acides gras du tissu adipeux. Notre deuxième étude a investigué le mécanisme cardioprotecteur d’une nouvelle génération de ligands dotés d’une plus grande affinité de liaison envers le CD36. Cette étude a montré que le CP-3(iv) est aussi pourvu d’un puissant effet cardioprotecteur comme le montre la réduction de la taille de l’infarctus et l’amélioration de la fonction cardiaque post-I/R du myocarde qui est fonction d’une signalisation métabolique et anti-oxydante de l’adiponectine. En effet, l’augmentation des principales voies de signalisation régulant la sécrétion de l’adiponectine et des gènes antioxydants a été démontrée dans le tissu adipeux suivant l’I/R du myocarde et un traitement avec le CP-3(iv). L’activation de la protéine kinase B ou Akt dans le myocarde avec la diminution de la génération de ROS et de la signalisation de mort cellulaire appuient davantage le rôle cardioprotecteur du CP-3(iv) dans l’I/R du myocarde. En conclusion, le travail présenté dans cette thèse soutient qu’une signalisation du CD36 par le EP 80317 et le CP-3(iv) pourrait s’avérer être une nouvelle approche thérapeutique dans le traitement de la maladie cardiaque ischémique. Ces ligands synthétiques sélectifs envers le CD36 provoquent un effet salutaire sur le myocarde ischémique par le biais d’une amélioration du profil métabolique dans les premières heures de la reperfusion. Le EP 80317 réduit le niveau délétère d’AGNE et leur internalisation dans le cœur en situation d’excès, tandis que le CP-3(iv) augmente le niveau bénéfique d’adiponectine et son effet cardioprotecteur.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
Introduction : L’inconfort causé par les appareils orthodontiques peut significativement affecter la coopération des patients dans leur traitement. La douleur, ainsi que la détérioration de la fonction (mastication, élocution) sont reconnus comme les déterminants majeurs de la coopération des patients traités par appareils amovibles. Invisalign® se positionne comme une alternative esthétique aux multiples inconforts observés lors des traitements fixes avec boîtiers. À ce jour, peu d’études ont cherché à comparer la douleur (quantitativement et qualitativement) perçue entre cette technique et celle avec boîtiers fixes sur une longue période. Objectif : L’objectif de la présente étude est d’évaluer la douleur ressentie par les patients qui suivent un traitement orthodontique avec coquilles correctrices Invisalign® et de la comparer avec celle des patients qui suivent un traitement orthodontique conventionnel avec des boîtiers fixes. Matériels et Méthodes: L’étude compte 70 patients (29 garçons, 41 filles), moyenne d’âge de 16 ans [11 à 30]. Les trois sous-groupes sont Invisalign® (n=31), boîtiers Damon (n=19) et boîtiers Speed (n=20). Les groupes avec boîtiers (Damon et Speed) sont les 2 groupes de l’étude menée au sein de la clinique d’Orthodontie de l’Université de Montréal en 2011 qui comparait la perception de la douleur durant le traitement orthodontique entre boîtiers auto-ligaturants passifs et actifs. L’étude a été organisée en 4 phases correspondant à l’insertion des 4 premiers fils pour les groupes avec boîtiers (Phase 1: 0,016" Supercable, Phase 2: 0,016" CuNiTi, Phase 3: 0,016"x0,022" CuNiTi, Phase 4: 0,019"x0,025" CuNiTi) et à l’insertion des coquilles 1, 4, 7 et 10 pour le groupe Invisalign®. À l’aide d’un questionnaire, l’étude évalue pour chaque phase l’ampleur (grâce à une échelle visuelle analogue EVA), la durée et la localisation de la douleur à 6 différents points (T1: immédiatement après l’insertion, T2: 5h après, T3: 24h après, T4: 3 jours après, T5: une semaine après, T6: 2 semaines après). Résultats: À T1Ph3 le pourcentage de patients rapportant de la douleur était plus élevé avec Damon qu’avec Invisalign® (p=0,032) (Damon=55,6% ; Invisalign®=23,3%) mais il n’y avait pas de différence avec le groupe Speed (p=0,114). Les patients avec Invisalign® rapportaient significativement moins d’irritation des tissus mous (muqueuses, gencives) que les patients avec des boîtiers. Pour les résultats des EVA, les différences étaient statistiquement significatives à 2 temps : T3Ph1 (Médiane Invisalign®=33,31, Médiane Speed=49,47; p=0,025) et T3Ph4 (Médiane Invisalign®=13,15, Médiane Damon=27,28; p=0,014). Pour la majorité des patients la douleur ne nécessitait pas la prise de médicament et il n’y avait pas de différence significative entre les groupes sur ce point. La qualité de vie était légèrement affectée lors de la première phase et moindrement pour le groupe Invisalign® que pour les groupes avec boîtiers. Pour les patients Invisalign®, la douleur atteignait son niveau le plus élevé entre 5 et 24 heures après l’insertion de la première coquille, et diminuait en intensité et en durée à chaque phase. Conclusion: La perception de la douleur lors d’un traitement orthodontique avec Invisalign® est inférieure à celle ressentie lors d’un traitement avec des boîtiers fixes. Cette méthode de traitement est donc une thérapie attirante pour les patients désirant un traitement esthétique et relativement confortable.
Resumo:
Nous proposons une approche qui génère des scénarios de visualisation à partir des descriptions de tâches d'analyse de code. La dérivation de scénario est considérée comme un processus d'optimisation. Dans ce contexte, nous évaluons différentes possibilités d'utilisation d'un outil de visualisation donnée pour effectuer la tâche d'analyse, et sélectionnons le scénario qui nécessite le moins d'effort d'analyste. Notre approche a été appliquée avec succès à diverses tâches d'analyse telles que la détection des défauts de conception.
Resumo:
L'exécution des pièces jointes au corpus a été rendue possible grâce à la générosité des ensembles qui en font l'interprétation. Les partitions ont été réalisées avec le logiciel FINALE 2011.
Resumo:
La prévalence des allergies alimentaires IgE-médiées aurait triplé au cours de la dernière décennie avec des études Nord-Américaines atteignant les 8% chez les enfants. Quoiqu’il n’y ait à ce jour aucun traitement curatif pour les allergies alimentaires, l’immunothérapie oral (OIT) constitue une nouvelle approche expérimentale prometteuse. Cette dernière consiste en l’administration de doses progressive d’allergènes par voie orale sur une période prolongée dans le but d’instaurer un état de désensibilisation et possiblement une tolérance orale soutenue. Cette approche a été démontrée sécuritaire et permettrait la désensibilisation à haute dose de plus de 80% des participants allergiques aux arachides, lait ou œufs. Dans cette thèse, nous présentons 2 études de phase 1 portant sur des protocoles d’OIT, destinés à optimiser l’efficience du traitement chez les sujets avec allergies alimentaires multiples. Près de 30% des enfants avec allergie alimentaire sont allergiques à plus d’un aliment, une proportion qui augmente à 70% lorsqu’on considère les cas les plus sévères. Ces enfants sont à risque augmenté de réactions accidentelles et souffrent d’un impact plus grand sur leur qualité de vie. Dans la première étude, en créant un mélange individualisé avec un ratio stochiométrique 1:1 entre les protéines des aliments allergiques de l’enfant, nous démontrons qu’il est possible de désensibiliser jusqu’à 5 aliments simultanément avec un profil d’innocuité similaire à une monothérapie. Dans la seconde étude, nous utilisons un traitement à l’omalizumab, un anticorps monoclonal anti-IgE, pour permettre une désensibilisation orale multi-allergénique fortement accélérée. Lorsque comparé à l’approche sans omalizumab, ce protocole s’associe à une nette diminution du temps requis pour atteindre les doses d’entretien, passant d’une médiane de 21 à 4 mois, sans affecter le profil d’innocuité. Alors que ces études fournissent des approches cliniques raisonnables pour désensibiliser la population multi-allergique, plusieurs questions persistent, notamment en ce qui a trait à l’induction de tolérance permanente. Une barrière majeure à cet égard réside dans notre piètre compréhension des mécanismes sous-jacents à l’immunothérapie. Prenant avantage d’échantillons cliniques bien caractérisés provenant des essais cliniques ci-haut mentionnés, nous utilisons les nouvelles technologies de séquençage TCR pour suivre la distribution clonale des lymphocytes T spécifiques aux arachides durant une immunothérapie orale. Nous démontrons que l’OIT s’associe à des changements significatifs dans les fréquences des clones spécifiques, suggérant un processus d’épuisement clonal et de remplacement. Nous démontrons par ailleurs que le test de prolifération lymphocytaire, traditionnellement utilisé pour évaluer la réponse cellulaire allergique, est dominé par une distribution polyclonale hautement non-spécifique. Cette observation a des implications majeures considérant que la plupart de la littérature actuelle sur la réponse T se base sur cette technique. En somme, cette thèse jette les bases pour des programmes de recherche translationnelle pour optimiser et personnaliser les protocoles cliniques actuels et développer de nouvelles avenues d’investigation et de traitement pour améliorer la prise en charge des sujets avec allergies alimentaires.
Resumo:
OBJECTIF : Déterminer les principales solutions qui facilitent la pratique optimale des médecins dans le traitement de l’asthme, incluant la prescription d’un médicament de contrôle à long terme et l’utilisation de plans d’action écrits. MÉTHODOLOGIE: Des entrevues individuelles semi-structurées ont été menées avec des médecins de différentes spécialités (médecins de famille, pédiatres, urgentologues, pneumologues et allergologues). Ces entrevues ont été transcrites puis analysées qualitativement de manière indépendante par deux chercheures qualifiées. RÉSULTATS : Quarante-deux médecins ont été interviewés. Un total de 867 facilitateurs et solutions ont été exprimés, répondant à trois de leurs besoins: (1) avoir du soutien dans la prestation de soins optimaux, (2) être habileté à aider et motiver les patients à suivre leurs recommandations et (3) avoir l’opportunité d’offrir des services efficients. À partir de ces données, une taxonomie de facilitateurs et de solutions comprenant dix catégories a également été développée. CONCLUSION : Les médecins ont proposé une multitude de facilitateurs et de solutions pour soutenir la pratique optimale. Ils varient essentiellement selon la spécialité et le comportement visé (prescription de médicaments de contrôle à long terme, utilisation de plans d’autogestion écrits et la gestion générale de l’asthme). Cela fait ressortir l’importance d’effectuer le choix des interventions en étroite collaboration avec les utilisateurs de connaissances afin d’obtenir des solutions qui soient perçues comme faisables et applicables, ayant ainsi potentiellement plus de chances de mener à un changement de pratique. La nouvelle taxonomie offre la possibilité d’utiliser un langage commun pour classifier les facilitateurs et les solutions.
Resumo:
L’objectif général de ma recherche doctorale est d’analyser le contexte sociojuridique de la régulation du port de signes religieux dans les établissements publics en France et au Québec. À partir d’une comparaison entre la Loi française n°2004-228 du 15 mars 2004 encadrant, en application du principe de laïcité, le port de signes ou de tenues manifestant une appartenance religieuse dans les écoles, collèges et lycées publics et l’arrêt canadien Multani c. Commission scolaire Marguerite-Bourgeoys (2006), l’analyse s’intéresse d’abord au « sous-texte » de ces décisions (les fondements philosophico-politiques que sont la laïcité et le multiculturalisme) et à la « mise en oeuvre contextuelle » de celles-ci (la place des représentations sociales et le rôle social attribué au droit dans la production et la réception de ces décisions). Ces deux niveaux d’analyse sociojuridique, le sous-texte et la mise en oeuvre contextuelle du droit, permettent d’expliquer ces réponses opposées à une problématique similaire.
Resumo:
Dans ce mémoire de recherche-création, j’aborde la question du stéréotype en insistant sur le potentiel créatif des figures doxiques et en démontrant leur rapport avec la littérarité et le pouvoir (en terme foucaldien) au moyen d’une création et d’un essai : L’expérience du torse est un court roman (dont la fin est ici absente) qui relate les premiers jours liés à l’affaire Magnotta en jouant avec les conventions du romanesque traditionnel ; l’essai L’expérience du texte démontre pour sa part comment la reprise du stéréotype rassure et crée un univers stable dans le roman Je m’en vais de Jean Échenoz, alors que sa déformation déjoue les attentes du lecteur en dénonçant le préfabriqué et en proposant un dépassement poétique. Autant ma création que mon essai s’appliquent à démontrer que le langage est pouvoir et qu’il agit sur le pouvoir.
Resumo:
Rapport de stage présenté en vue de l’obtention du grade de Maître ès sciences (M.Sc.) En criminologie option stage – profil intervention clinique
Resumo:
Toutes les photographies présentes à l'intérieur de ce mémoire ont été prises par l'auteur de ce dernier.
Resumo:
Toxicomanie et criminalité sont des comportements fréquemment associés. Dans un objectif de réduction de la récidive, le traitement des toxicomanes apparaît dans la littérature américaine comme une solution plus efficace que l'incarcération et beaucoup moins dispendieuse. Qu'en est-il au Québec ? Pour répondre à cette question, 20 intervenants de la région de Montréal et de Trois-Rivières œuvrant dans le domaine de la justice, de la sécurité publique et de la santé et des services sociaux ont été rencontrés dans le cadre de groupes de discussion. Les résultats de la consultation montrent que si le traitement des toxicomanes judiciarisés est une idée intéressante en soi, plusieurs difficultés surgissent dans son application en raison notamment de la différence de culture des milieux impliqués. Cependant, une bonne communication, le respect des expertises de chacun, et une certaine tolérance vis-à-vis des objectifs de ses partenaires constituent des conditions qui rendraient possible, du moins sur papier, les expériences de déjudiciarisation en matière de toxicomanie.
Resumo:
Le déficit de mémoire de travail est une des caractéristiques centrales de la schizophrénie et est associé aux problèmes de fonctionnement quotidien des patients. Parmi les différents processus sous-tendus par la mémoire de travail, nous nous intéressons au binding. Le binding est un processus qui permet d’associer plusieurs informations (par exemple, associer le nom d’une personne avec son adresse). En mémoire de travail, les patients schizophrènes ne présentent pas de déficit de binding lorsque les informations sont associées involontairement. Ce type de binding est appelé binding automatique. Cependant, les informations peuvent aussi être associées sous le contrôle volontaire et attentionnel des participants, nous parlons alors de binding contrôlé. À l’heure actuelle, aucune étude n’a été effectuée sur le binding contrôlé en schizophrénie. Notre objectif est de déterminer s'il existe un déficit spécifique de binding contrôlé dans la schizophrénie, et de décrire les substrats neuronaux qui le sous-tendent. Dix-neuf patients schizophrènes et 18 sujets témoins ont effectué une tâche de binding en mémoire de travail dans un scanner IRM. Celle-ci consistait à mémoriser des mots et des positions spatiales dont l’association variait selon deux conditions. Dans la condition de binding contrôlé, les mots et les positions spatiales étaient présentés séparément et les participants devaient faire l’association entre les deux informations eux-mêmes. Dans la condition de binding automatique, les mots étaient d’emblée associés aux positions spatiales. Nos résultats suggèrent que les patients schizophrènes n’auraient pas de déficit de binding automatique alors qu’ils auraient un déficit de binding contrôlé par rapport aux sujets témoins. Le déficit de binding contrôlé serait sous-tendu par des niveaux d’activation plus faibles du cortex préfrontal dorsolatéral. Les processus contrôlés seraient altérés alors que les processus automatiques seraient préservés dans la schizophrénie.