282 resultados para Traitement des langues naturelles


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’asthme et la maladie pulmonaire obstructive chronique (MPOC) se classent au premier rang parmi les maladies respiratoires les plus fréquentes au Québec. Une mauvaise maîtrise de l’asthme et de la MPOC entraîne d’importantes répercussions sur la santé et la qualité de vie des patients et sur les coûts associés au système de santé canadien, dues à de fréquentes consultations médicales, des visites à l’urgence, des hospitalisations et des décès précoces. Il est donc très important d’évaluer l’usage optimal des médicaments dans le traitement de ces maladies afin de réduire la morbidité et la mortalité Cette thèse vise à comparer dans un premier temps l’efficacité des médicaments en situation réelle dans le traitement de la MPOC sur le taux d’exacerbations et la mortalité puisque les études observationnelles publiées à ce sujet comportaient des biais majeurs dus à une mauvaise mesure de l’exposition au traitement. Ainsi, dans le cadre de cette thèse, deux banques de données administratives québécoises ont été appariées pour créer une cohorte de 36 492 patients âgés de 50 ans ou plus atteints de MPOC (1995-1999) Dans cette cohorte, la théophylline diminuait davantage les exacerbations que les β2-agonistes à longue durée d’action (BALA, RR = 0,89; IC 95 % : 0,84-0,95), mais elle était moins efficace en situation réelle que les corticostéroïdes inhalés (CSI, RR = 1,07; IC 95 % : 1,04-1,10). Un devis cas-témoins niché dans cette cohorte a permis de vérifier que les CSI seuls ou combinés avec un BALA étaient plus efficients pour réduire la mortalité comparativement aux BALA seuls (RR = 0,69; IC 95 % : 0,53-0,88 et RR = 0,73; IC 95 % : 0,56-0,96, respectivement). L’efficacité des CSI dans le traitement de l’asthme pour réduire les exacerbations et la mortalité n’est plus à prouver, cependant la non-adhésion et la non-persistance aux CSI sont grandement problématiques. À notre connaissance, aucune étude n’a évalué l’impact du type d’assurance médicaments sur l'adhésion et la persistance des Québécois aux CSI en raison de l’absence des personnes qui ont une assurance médicaments privée dans la banque de données des services pharmaceutiques de la Régie de l’assurance maladie du Québec. Afin de combler ce manque, une des parties intégrantes de cette thèse a été de développer le registre reMed. Par la suite, une cohorte d’utilisateurs de CSI âgés de 20 à 64 ans a été sélectionnée à partir de reMed (2008-2010) et ces sujets ont été appariés à des utilisateurs de CSI sélectionnés à partir de la banque de données des services pharmaceutiques de la Régie de l’assurance maladie du Québec (RAMQ). Les résultats de cette dernière étude indiquent que même si l’adhésion était faible dans les deux cohortes, les patients ayant une assurance médicaments privée étaient moins adhérant que les patients couverts par l’assurance médicaments publique de la RAMQ (différence moyenne d’adhésion de -9,7 %; IC 95 % : -13,2 % à -6,5 %). De plus, ces patients couverts par une assurance médicaments privée étaient aussi 52 % plus susceptibles d'arrêter leur traitement de CSI au cours d’une année (HR = 1,52; IC 95 % : 1,16-2,00). En conclusion, selon les travaux de cette thèse, la théophylline peut être considérée comme une thérapie efficace en situation réelle pour prévenir les exacerbations aiguës de la MPOC d’autant plus qu’elle est moins dispendieuse que les traitements en inhalations et que sa formulation orale procurerait, selon la littérature, une meilleure adhésion que les médicaments en inhalation. Quant aux CSI, ils ont un rôle important dans le traitement de l’asthme, mais aussi dans le traitement de la MPOC, puisque selon les résultats de cette thèse, ils procureraient une plus grande diminution du risque d’exacerbations aiguës de la MPOC et de la mortalité par rapport aux autres traitements. Par contre, il a aussi été démontré que l'adhésion et la persistance aux CSI étaient très faibles, particulièrement dans le traitement de l’asthme. Le type d’assurance médicaments serait un facteur déterminant de l’adhésion et de la persistance aux CSI. D’autres études seront nécessaires pour évaluer si les différences d’adhésion et de persistance observées dans cette étude se traduisent par des différences sur l’utilisation et les coûts des soins de santé. De plus, il sera nécessaire d’étudier si les différences observées se limitent aux CSI ou si le type d’assurance médicaments a impact sur la prise d’autres médicaments indiqués dans le traitement des maladies chroniques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Déterminer si quelqu’un est digne de confiance constitue, tout au long de notre vie, une décision à la base de nos interactions sociales quotidiennes. Des études récentes chez les jeunes adultes ont proposé que le jugement de confiance basé sur un visage constituerait une extension des processus de reconnaissance des expressions faciales, particulièrement de la colère et de la joie (Todorov, 2008). Bien que le jugement de confiance soit d’une grande importance tout au long de notre vie, à notre connaissance, aucune étude n’a tenté d’explorer l’évolution de ce processus au cours du vieillissement. Pourtant, sachant que les personnes âgées saines sont moins efficaces que les jeunes adultes pour reconnaître les expressions faciales émotionnelles (Ruffman et al., 2008; Calder et al., 2003), des différences pourraient exister dans les capacités de ces deux groupes d’âge à poser un jugement de confiance. Le présent travail a permis d’explorer, pour une première fois, les processus perceptifs sous-jacents au jugement de confiance chez une population âgée saine ainsi que chez une population présentant une démence fronto-temporale. Les résultats démontrent que les représentations de colère, de joie et de confiance sont similaires chez les jeunes et les âgés sains et suggèrent qu’il existe bel et bien un lien entre le jugement de confiance et les jugements de joie et de colère. De plus, ils révèlent que ce lien persiste au cours vieillissement, mais que les adultes âgés sains se fient davantage à leur représentation de la colère que les jeunes adultes pour déterminer si un visage est digne de confiance ou non. Enfin, les patients présentant une démence fronto-temporale possèdent des représentations différentes des âgés sains en ce qui concerne la colère, la joie et la confiance, et ils semblent se fier davantage à leur représentation de la joie que les âgés sains pour déterminer le niveau de confiance d’un visage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maitrise en criminologie, option intervention

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prévalence des allergies alimentaires IgE-médiées aurait triplé au cours de la dernière décennie avec des études Nord-Américaines atteignant les 8% chez les enfants. Quoiqu’il n’y ait à ce jour aucun traitement curatif pour les allergies alimentaires, l’immunothérapie oral (OIT) constitue une nouvelle approche expérimentale prometteuse. Cette dernière consiste en l’administration de doses progressive d’allergènes par voie orale sur une période prolongée dans le but d’instaurer un état de désensibilisation et possiblement une tolérance orale soutenue. Cette approche a été démontrée sécuritaire et permettrait la désensibilisation à haute dose de plus de 80% des participants allergiques aux arachides, lait ou œufs. Dans cette thèse, nous présentons 2 études de phase 1 portant sur des protocoles d’OIT, destinés à optimiser l’efficience du traitement chez les sujets avec allergies alimentaires multiples. Près de 30% des enfants avec allergie alimentaire sont allergiques à plus d’un aliment, une proportion qui augmente à 70% lorsqu’on considère les cas les plus sévères. Ces enfants sont à risque augmenté de réactions accidentelles et souffrent d’un impact plus grand sur leur qualité de vie. Dans la première étude, en créant un mélange individualisé avec un ratio stochiométrique 1:1 entre les protéines des aliments allergiques de l’enfant, nous démontrons qu’il est possible de désensibiliser jusqu’à 5 aliments simultanément avec un profil d’innocuité similaire à une monothérapie. Dans la seconde étude, nous utilisons un traitement à l’omalizumab, un anticorps monoclonal anti-IgE, pour permettre une désensibilisation orale multi-allergénique fortement accélérée. Lorsque comparé à l’approche sans omalizumab, ce protocole s’associe à une nette diminution du temps requis pour atteindre les doses d’entretien, passant d’une médiane de 21 à 4 mois, sans affecter le profil d’innocuité. Alors que ces études fournissent des approches cliniques raisonnables pour désensibiliser la population multi-allergique, plusieurs questions persistent, notamment en ce qui a trait à l’induction de tolérance permanente. Une barrière majeure à cet égard réside dans notre piètre compréhension des mécanismes sous-jacents à l’immunothérapie. Prenant avantage d’échantillons cliniques bien caractérisés provenant des essais cliniques ci-haut mentionnés, nous utilisons les nouvelles technologies de séquençage TCR pour suivre la distribution clonale des lymphocytes T spécifiques aux arachides durant une immunothérapie orale. Nous démontrons que l’OIT s’associe à des changements significatifs dans les fréquences des clones spécifiques, suggérant un processus d’épuisement clonal et de remplacement. Nous démontrons par ailleurs que le test de prolifération lymphocytaire, traditionnellement utilisé pour évaluer la réponse cellulaire allergique, est dominé par une distribution polyclonale hautement non-spécifique. Cette observation a des implications majeures considérant que la plupart de la littérature actuelle sur la réponse T se base sur cette technique. En somme, cette thèse jette les bases pour des programmes de recherche translationnelle pour optimiser et personnaliser les protocoles cliniques actuels et développer de nouvelles avenues d’investigation et de traitement pour améliorer la prise en charge des sujets avec allergies alimentaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le traitement des émotions joue un rôle essentiel dans les relations interpersonnelles. Des déficits dans la reconnaissance des émotions évoquées par les expressions faciales et vocales ont été démontrés à la suite d’un traumatisme craniocérébral (TCC). Toutefois, la majorité des études n’ont pas différencié les participants selon le niveau de gravité du TCC et n’ont pas évalué certains préalables essentiels au traitement émotionnel, tels que la capacité à percevoir les caractéristiques faciales et vocales, et par le fait même, la capacité à y porter attention. Aucune étude ne s’est intéressée au traitement des émotions évoquées par les expressions musicales, alors que la musique est utilisée comme méthode d’intervention afin de répondre à des besoins de prise en charge comportementale, cognitive ou affective chez des personnes présentant des atteintes neurologiques. Ainsi, on ignore si les effets positifs de l’intervention musicale sont basés sur la préservation de la reconnaissance de certaines catégories d’émotions évoquées par les expressions musicales à la suite d’un TCC. La première étude de cette thèse a évalué la reconnaissance des émotions de base (joie, tristesse, peur) évoquées par les expressions faciales, vocales et musicales chez quarante et un adultes (10 TCC modéré-sévère, 9 TCC léger complexe, 11 TCC léger simple et 11 témoins), à partir de tâches expérimentales et de tâches perceptuelles contrôles. Les résultats suggèrent un déficit de la reconnaissance de la peur évoquée par les expressions faciales à la suite d’un TCC modéré-sévère et d’un TCC léger complexe, comparativement aux personnes avec un TCC léger simple et sans TCC. Le déficit n’est pas expliqué par un trouble perceptuel sous-jacent. Les résultats montrent de plus une préservation de la reconnaissance des émotions évoquées par les expressions vocales et musicales à la suite d’un TCC, indépendamment du niveau de gravité. Enfin, malgré une dissociation observée entre les performances aux tâches de reconnaissance des émotions évoquées par les modalités visuelle et auditive, aucune corrélation n’a été trouvée entre les expressions vocales et musicales. La deuxième étude a mesuré les ondes cérébrales précoces (N1, N170) et plus tardives (N2) de vingt-cinq adultes (10 TCC léger simple, 1 TCC léger complexe, 3 TCC modéré-sévère et 11 témoins), pendant la présentation d’expressions faciales évoquant la peur, la neutralité et la joie. Les résultats suggèrent des altérations dans le traitement attentionnel précoce à la suite d’un TCC, qui amenuisent le traitement ultérieur de la peur évoquée par les expressions faciales. En somme, les conclusions de cette thèse affinent notre compréhension du traitement des émotions évoquées par les expressions faciales, vocales et musicales à la suite d’un TCC selon le niveau de gravité. Les résultats permettent également de mieux saisir les origines des déficits du traitement des émotions évoquées par les expressions faciales à la suite d’un TCC, lesquels semblent secondaires à des altérations attentionnelles précoces. Cette thèse pourrait contribuer au développement éventuel d’interventions axées sur les émotions à la suite d’un TCC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le Bade-Wurtemberg, land du sud-ouest de l’Allemagne limitrophe à la France, on enseigne une langue étrangère dans toutes les écoles primaires dès la 1re année depuis l’année scolaire 2003-2004. Certaines communes composant un corridor d’une trentaine de kilomètres de large longeant la frontière française se sont vu imposer le français, et non l’anglais comme ailleurs dans le land. Pour cette raison, le règlement a été dénoncé par des opposants lorsqu’il fut rendu public en 2001. La recherche a pour objectif dans une première étape de reconstituer, à l’aide de protocoles parlementaires du land, de publications ministérielles et de jugements de la Cour administrative, les événements entourant l’élaboration, l’implantation et la réception de cette politique éducative entre 1998 et 2011. La question qui nous intéresse dans une deuxième étape se rapporte aux causes des tensions entre le ministère de l’Éducation et les citoyens. La recherche mettra en évidence le fait que les citoyens n’étaient pas seulement contre l’enseignement du français plutôt que de l’anglais, mais aussi contre l’imposition de l’objet d’enseignement. Pour ce faire, un corpus d’articles de journaux dressera le portrait des opinions saillantes de la population, et les positions du débat pourront être systématisées. Une troisième étape proposera une analyse à l’aide de théories de l’évolution des modes de gouvernance en politique de l’éducation et proposera de nouvelles pistes de réflexion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La littérature de l’Acadie du Sud-Est émerge dans un contexte lui-même déjà hétérolingue (Grutman). Le chiac porte d’ailleurs les traces de cette cohabitation linguistique puisque son caractère hybride traduit la forte interaction entre les communautés de la région. Or, son usage suscite-t-il une réflexion inquiète sur la situation diglossique du français acadien ou est-il strictement créatif ? Le présent mémoire porte sur le rapport à la langue dans les romans récents de France Daigle, soit Pas pire (1998), Un fin passage (2001), Petites difficultés d’existence (2002) et Pour sûr (2011), en mettant au jour les particularités sociolinguistiques et la façon dont le texte « parle la langue » (Gauvin). Bien qu’il mette à distance les présupposés idéologiques, l’œuvre de Daigle demeure extrêmement sensible au contexte socioculturel d’où il émerge. Ainsi, si l’œuvre s’affranchit d’un réalisme sociolinguistique, c’est afin de créer une « fiction linguistique » (Baetens Beardsmore) qui reconfigure l’imaginaire social de Moncton tout en intégrant certaines inquiétudes bien « réelles ». Qui plus est, la prise en compte de la polyphonie structurelle de l’œuvre permet de s’affranchir de la lecture ethnographique. 

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans la sémantique des cadres de Fillmore, les mots prennent leur sens par rapport au contexte événementiel ou situationnel dans lequel ils s’inscrivent. FrameNet, une ressource lexicale pour l’anglais, définit environ 1000 cadres conceptuels, couvrant l’essentiel des contextes possibles. Dans un cadre conceptuel, un prédicat appelle des arguments pour remplir les différents rôles sémantiques associés au cadre (par exemple : Victime, Manière, Receveur, Locuteur). Nous cherchons à annoter automatiquement ces rôles sémantiques, étant donné le cadre sémantique et le prédicat. Pour cela, nous entrainons un algorithme d’apprentissage machine sur des arguments dont le rôle est connu, pour généraliser aux arguments dont le rôle est inconnu. On utilisera notamment des propriétés lexicales de proximité sémantique des mots les plus représentatifs des arguments, en particulier en utilisant des représentations vectorielles des mots du lexique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le recours aux technologies de l’information et de la communication dans tous les domaines de la vie politique, économique et sociale doit s’accompagner d’une réflexion quant à la pertinence ou non de compléter, de réviser en tout ou en partie l’encadrement juridique applicable à un secteur donné. Cette orientation est particulièrement importante lorsqu’il s’agit d’informatiser le traitement des données relatives à la santé. Pour appréhender les éléments cruciaux de cette problématique, les auteurs s’intéressent à l’encadrement actuel et à certains enjeux inhérents à cette « nouvelle » façon d’envisager la gestion de ces données et ce dans une perspective europeo-canadienne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.