1000 resultados para Amélioration des performances


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’accès financier limité aux soins de santé a suscité l’instauration de politiques sanitaires de subvention des soins en Afrique. Au Burkina Faso, une ONG, en complémentarité avec la politique sanitaire nationale subventionne à 100% depuis septembre 2008 les soins et les médicaments pour les enfants de moins de cinq ans dans le district sanitaire de Dori. L’intervention regroupe formation du personnel soignant, supervisions et suppression de paiement des soins et des médicaments. L’objectif de l’étude est d’analyser l’effet de cette intervention sur l’adéquation des prescriptions médicales. Neuf centres de santé ont été pris en compte. Au total 14956 ordonnances d’enfants de moins de cinq ans ciblés par l’intervention ont été sélectionnées par échantillonnage systématique à partir des registres de consultation un an avant et un an après l’instauration de l’intervention. Quatorze prescripteurs ont été interviewés. Les prescriptions ont été analysées par comparaison au référentiel de l’OMS ainsi qu’au référentiel national. Le discours des prescripteurs a été analysé en vue de comprendre leur perception de leur changement de pratiques depuis de début de la subvention. L’intervention a eu pour effet de diminuer l’utilisation des injections (Rapport de cote (RC) =0,28; p<0,005) dans le cas des infections respiratoires aiguës (IRA). Elle a entraîné une diminution de l’utilisation inappropriée des antibiotiques dans les cas de paludisme seul (RC=0,48; p<0,0005). Le nombre moyen de médicaments par ordonnance a également diminué de 14% dans les cas d’IRA (p<0,0005). Les prescripteurs ont affirmé pour la plupart que leurs pratiques se sont soit maintenues soit améliorées. L’intervention a entrainé une amélioration de l’adéquation des prescriptions médicales dans certains cas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé - Les données concernant la prise en charge chirurgicale de la maladie tricuspidienne reposent sur des études de cohortes à petite échelle et peu d’entre elles se sont intéressées aux résultats échocardiographiques et aux facteurs de risque de mortalité et de morbidité. Une étude de cohorte rétrospective descriptive et analytique fut effectuée pour analyser l’expérience de l’Institut de Cardiologie de Montréal concernant la chirurgie de la VT. Les données ont été récoltées à l’aide des dossiers médicaux. Durant la période 1977-2008, 792 PVT et 134 RVT furent effectués (âge médian : 62 ans). La mortalité opératoire était de 13,8%. Les taux de survie actuarielle à 5, à 10 et à 15 ans étaient respectivement de 67±2%, de 47±2% et de 29±2%. Au dernier suivi, de l’IT ≥3/4 était présente chez 31% des patients du groupe PVT et chez 12% des patients du groupe RVT (p<0,001). La classe fonctionnelle NYHA s’est améliorée significativement au dernier suivi par rapport à la période pré-opératoire (p<0,001). L’analyse de propension montre que par rapport à une PVT, un RVT est associé significativement à des taux de mortalité opératoire et tardive accrus, mais à moins d’IT ≥2/4 ou ≥3/4 lors du suivi. Cette étude montre que malgré le risque chirurgical substantiel associé à la chirurgie de la VT, les patients bénéficient d’une amélioration fonctionnelle significative. Les facteurs de risque de mortalité et de morbidité sont décrits et des études de sous-groupes sur la chirurgie tri-valvulaire et la chirurgie isolée de la VT sont exposées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’hypertrophie du ventricule gauche (HVG) est un processus adaptif et compensatoire qui se développe conséquemment à l’hypertension artérielle pour s’opposer à l’élévation chronique de la pression artérielle. L’HVG est caractérisée par une hypertrophie des cardiomyocytes suite à l’augmentation de la synthèse d’ADN, une prolifération des fibroblastes, une augmentation du dépôt de collagène et une altération de la matrice extracellulaire (MEC). Ces changements génèrent des troubles de relaxation et mènent au dysfonctionnement diastolique, ce qui diminue la performance cardiaque. La suractivité du système nerveux sympathique (SNS) joue un rôle essentiel dans le développement de l’hypertension artérielle et de l’HVG à cause de la libération excessive des catécholamines et de leurs effets sur la sécrétion des cytokines pro-inflammatoires et sur les différentes voies de signalisation hypertrophiques et prolifératives. Le traitement antihypertenseur avec de la moxonidine, un composé sympatholytique d’action centrale, permet une régression de l’HVG suite à une réduction soutenue de la synthèse d'ADN et d’une stimulation transitoire de la fragmentation de l'ADN qui se produit au début du traitement. En raison de l’interaction entre l’HVG, les cytokines inflammatoires, le SNS et leurs effets sur les protéines de signalisation hypertrophiques, l’objectif de cette étude est de détecter dans un modèle animal d’hypertension artérielle et d’HVG, les différentes voies de signalisation associées à la régression de l’HVG et à la performance cardiaque. Des rats spontanément hypertendus (SHR, 12 semaines) ont reçu de la moxonidine à 0, 100 et 400 µg/kg/h, pour une période de 1 et 4 semaines, via des mini-pompes osmotiques implantées d’une façon sous-cutanée. Après 4 semaines de traitement, la performance cardiaque a été mesurée par écho-doppler. Les rats ont ensuite été euthanasiés, le sang a été recueilli pour mesurer les concentrations des cytokines plasmatiques et les cœurs ont été prélevés pour la détermination histologique du dépôt de collagène et de l'expression des protéines de signalisation dans le ventricule gauche. Le traitement de 4 semaines n’a eu aucun effet sur les paramètres systoliques mais a permis d’améliorer les paramètres diastoliques ainsi que la performance cardiaque globale. Par rapport au véhicule, la moxonidine (400 µg/kg/h) a permis d’augmenter transitoirement la concentration plasmatique de l’IL-1β après une semaine et de réduire la masse ventriculaire gauche. De même, on a observé une diminution du dépôt de collagène et des concentrations plasmatiques des cytokines IL-6 et TNF-α, ainsi qu’une diminution de la phosphorylation de p38 et d’Akt dans le ventricule gauche après 1 et 4 semaines de traitement, et cela avec une réduction de la pression artérielle et de la fréquence cardiaque. Fait intéressant, les effets anti-hypertrophiques, anti-fibrotiques et anti-inflammatoires de la moxonidine ont pu être observés avec la dose sous-hypotensive (100 µg/kg/h). Ces résultats suggèrent des effets cardiovasculaires bénéfiques de la moxonidine associés à une amélioration de la performance cardiaque, une régulation de l'inflammation en diminuant les niveaux plasmatiques des cytokines pro-inflammatoires ainsi qu’en inhibant la MAPK p38 et Akt, et nous permettent de suggérer que, outre l'inhibition du SNS, moxonidine peut agir sur des sites périphériques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Notre contexte pratique — nous enseignons à des élèves doués de cinquième année suivant le programme international — a grandement influencé la présente recherche. En effet, le Programme primaire international (Organisation du Baccalauréat International, 2007) propose un enseignement par thèmes transdisciplinaires, dont un s’intitulant Où nous nous situons dans l’espace et le temps. Aussi, nos élèves sont tenus de suivre le Programme de formation de l’école québécoise (MÉLS Ministère de l'Éducation du Loisir et du Sport, 2001) avec le développement, notamment, de la compétence Résoudre une situation-problème et l’introduction d’une nouveauté : les repères culturels. Après une revue de la littérature, l’histoire des mathématiques nous semble tout indiquée. Toutefois, il existe peu de ressources pédagogiques pour les enseignants du primaire. Nous proposons donc d’en créer, nous appuyant sur l’approche constructiviste, approche prônée par nos deux programmes d’études (OBI et MÉLS). Nous relevons donc les avantages à intégrer l’histoire des mathématiques pour les élèves (intérêt et motivation accrus, changement dans leur façon de percevoir les mathématiques et amélioration de leurs apprentissages et de leur compréhension des mathématiques). Nous soulignons également les difficultés à introduire une approche historique à l’enseignement des mathématiques et proposons diverses façons de le faire. Puis, les concepts mathématiques à l’étude, à savoir l’arithmétique, et la numération, sont définis et nous voyons leur importance dans le programme de mathématiques du primaire. Nous décrivons ensuite les six systèmes de numération retenus (sumérien, égyptien, babylonien, chinois, romain et maya) ainsi que notre système actuel : le système indo-arabe. Enfin, nous abordons les difficultés que certaines pratiques des enseignants ou des manuels scolaires posent aux élèves en numération. Nous situons ensuite notre étude au sein de la recherche en sciences de l’éducation en nous attardant à la recherche appliquée ou dite pédagogique et plus particulièrement aux apports des recherches menées par des praticiens (un rapprochement entre la recherche et la pratique, une amélioration de l’enseignement et/ou de l’apprentissage, une réflexion de l’intérieur sur la pratique enseignante et une meilleure connaissance du milieu). Aussi, nous exposons les risques de biais qu’il est possible de rencontrer dans une recherche pédagogique, et ce, pour mieux les éviter. Nous enchaînons avec une description de nos outils de collecte de données et rappelons les exigences de la rigueur scientifique. Ce n’est qu’ensuite que nous décrivons notre séquence d’enseignement/apprentissage en détaillant chacune des activités. Ces activités consistent notamment à découvrir comment différents systèmes de numération fonctionnent (à l’aide de feuilles de travail et de notations anciennes), puis comment ces mêmes peuples effectuaient leurs additions et leurs soustractions et finalement, comment ils effectuaient les multiplications et les divisions. Enfin, nous analysons nos données à partir de notre journal de bord quotidien bonifié par les enregistrements vidéo, les affiches des élèves, les réponses aux tests de compréhension et au questionnaire d’appréciation. Notre étude nous amène à conclure à la pertinence de cette séquence pour notre milieu : l’intérêt et la motivation suscités, la perception des mathématiques et les apprentissages réalisés. Nous revenons également sur le constructivisme et une dimension non prévue : le développement de la communication mathématique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude s’attache à analyser deux performances symboliques ayant cours sur les îles de Pitcairn et de Norfolk dans le Pacifique Sud. Les habitants de ces deux îles séparées par 6000km de distance partagent tout d’abord un événement historique ayant eu lieu en 1789, la révolte du Bounty, rendue célèbre par des réalisations cinématographiques hollywoodiennes et de nombreux ouvrages ; et également un rattachement à cette histoire et à leur filiation avec ces mutins qui prennent forme dans une performance annuellement répétée qu’ils nomment : le Bounty Day. Ici, nous verrons comment l’identité émerge de la manipulation de faits historiques, pour saisir non seulement l’importance du processus de construction identitaire, mais comment cette macro-identité influence certains aspects du micro-vécu. « L’histoire », dans l’analyse qui sera proposée, est un domaine rhétorique et un ensemble de valeurs qui lient les individus non seulement à un monde oublié mais à un monde invisible, à l’Autre lointain, inconnu et donc potentiellement menaçant.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les nanoparticules polymériques biodégradable (NPs) sont apparues ces dernières années comme des systèmes prometteurs pour le ciblage et la libération contrôlée de médicaments. La première partie de cette étude visait à développer des NPs biodégradables préparées à partir de copolymères fonctionnalisés de l’acide lactique (poly (D,L)lactide ou PLA). Les polymères ont été étudiés comme systèmes de libération de médicaments dans le but d'améliorer les performances des NPs de PLA conventionnelles. L'effet de la fonctionnalisation du PLA par insertion de groupements chimiques dans la chaîne du polymère sur les propriétés physico-chimiques des NPs a été étudié. En outre, l'effet de l'architecture du polymère (mode d'organisation des chaînes de polymère dans le copolymère obtenu) sur divers aspects de l’administration de médicament a également été étudié. Pour atteindre ces objectifs, divers copolymères à base de PLA ont été synthétisés. Plus précisément il s’agit de 1) copolymères du poly (éthylène glycol) (PEG) greffées sur la chaîne de PLA à 2.5% et 7% mol. / mol. de monomères d'acide lactique (PEG2.5%-g-PLA et PEG7%-g-PLA, respectivement), 2) des groupements d’acide palmitique greffés sur le squelette de PLA à une densité de greffage de 2,5% (palmitique acid2.5%-g-PLA), 3) de copolymère « multibloc » de PLA et de PEG, (PLA-PEG-PLA)n. Dans la deuxième partie, l'effet des différentes densités de greffage sur les propriétés des NPs de PEG-g-PLA (propriétés physico-chimiques et biologiques) a été étudié pour déterminer la densité optimale de greffage PEG nécessaire pour développer la furtivité (« long circulating NPs »). Enfin, les copolymères de PLA fonctionnalisé avec du PEG ayant montré les résultats les plus satisfaisants en regard des divers aspects d’administration de médicaments, (tels que taille et de distribution de taille, charge de surface, chargement de drogue, libération contrôlée de médicaments) ont été sélectionnés pour l'encapsulation de l'itraconazole (ITZ). Le but est dans ce cas d’améliorer sa solubilité dans l'eau, sa biodisponibilité et donc son activité antifongique. Les NPs ont d'abord été préparées à partir de copolymères fonctionnalisés de PLA, puis ensuite analysés pour leurs paramètres physico-chimiques majeurs tels que l'efficacité d'encapsulation, la taille et distribution de taille, la charge de surface, les propriétés thermiques, la chimie de surface, le pourcentage de poly (alcool vinylique) (PVA) adsorbé à la surface, et le profil de libération de médicament. L'analyse de la chimie de surface par la spectroscopie de photoélectrons rayon X (XPS) et la microscopie à force atomique (AFM) ont été utilisés pour étudier l'organisation des chaînes de copolymère dans la formulation des NPs. De manière générale, les copolymères de PLA fonctionnalisés avec le PEG ont montré une amélioration du comportement de libération de médicaments en termes de taille et distribution de taille étroite, d’amélioration de l'efficacité de chargement, de diminution de l'adsorption des protéines plasmatiques sur leurs surfaces, de diminution de l’internalisation par les cellules de type macrophages, et enfin une meilleure activité antifongique des NPs chargées avec ITZ. En ce qui concerne l'analyse de la chimie de surface, l'imagerie de phase en AFM et les résultats de l’XPS ont montré la possibilité de la présence de davantage de chaînes de PEG à la surface des NPs faites de PEG-g-PLA que de NPS faites à partie de (PLA-PEG-PLA)n. Nos résultats démontrent que les propriétés des NPs peuvent être modifiées à la fois par le choix approprié de la composition en polymère mais aussi par l'architecture de ceux-ci. Les résultats suggèrent également que les copolymères de PEG-g-PLA pourraient être utilisés efficacement pour préparer des transporteurs nanométriques améliorant les propriétés de certains médicaments,notamment la solubilité, la stabilité et la biodisponibilité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte Les troubles liés à l’utilisation de substances psychoactives (TUS) sont associés à une variété de troubles psychiatriques entre autre une instabilité comportementale et affective. Plusieurs études suggèrent que les antipsychotiques atypiques peuvent être utiles dans le traitement de la toxicomanie. L’objectif principal de la présente étude à devis ouvert est d’évaluer l’efficacité de la quétiapine sur les variables reliés à la toxicomanie chez des poly-toxicomanes sans psychose comorbide entrant en désintoxication. Méthodes Dans le cadre d’une étude pharmacologique à devis ouvert d’une durée de 12 semaines, trente-trois polytoxicomanes entrant en désintoxication et répondant à un ou plusieurs critères d’abus/dépendance à une substance du DSM-IV ont été recrutés. Les patients présentant un autre trouble comorbide à l’Axe I ont été exclus. Les envies de consommer, les quantités consommées, les jours de consommation ainsi que la sévérité de la toxicomanie ont été évalués au point de départ (semaine 0) et à la fin de l’étude (semaine 12). Les symptômes psychiatriques et dépressifs furent aussi évalués. Résultats 26 des 33 patients complétèrent plus de 9 semaines de traitement. Les résultats relatifs à la dernière observation reportée (LOCF) ont montré une amélioration significative des envies de consommer, des quantités consommées, des jours de consommation, de la sévérité de la toxicomanie et des symptômes psychiatriques et dépressifs. Conclusions Nos résultats ne peuvent être attribués en soi aux effets pharmacologiques de la quétiapine, et ce compte tenu d’abord du type d’étude à devis ouvert à laquelle nous avons procédée, ainsi que le petit nombre de sujets impliqués et enfin le fait que les participants étaient impliqués dans une thérapie intensive. Ceci dit, nos résultats suggèrent quand même que la quétiapine peut être bénéfique dans le traitement des toxicomanes entrant en désintoxication. Des études randomisées sont de mises pour déterminer la pertinence de ces résultats.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’implant cochléaire devient une ressource importante pour contrer la surdité alors qu’il a été démontré qu’une privation auditive précoce ou tardive affecte le développement des systèmes auditif et visuel. Le but des études présentées dans cette thèse est d’évaluer l’impact développemental d’une privation auditive sur les systèmes auditif et visuel. En premier lieu, l’étude du développement chez une population entendante a montré que les systèmes auditif et visuel se développent à des rythmes distincts et qu’ils atteignent leur maturité respective à des âges différents. Ces conclusions suggèrent que les mécanismes qui sous-tendent ces deux systèmes sont différents et que leur développement respectif est indépendant. Aussi, tel qu’observé par une mesure comportementale et électrophysiologique, la discrimination fréquentielle auditive chez les personnes porteuses d’un implant cochléaire est altérée et corrélée aux performances de perception de la parole. Ces deux études suggèrent que suite à une privation auditive, le traitement auditif diffère d’une personne malentendante à une autre, et que ces différences touchent les processus de bas-niveaux, tel que suggéré par la disparité présente dans les performances de discrimination fréquentielle. La dernière étude observe qu’une privation auditive affecte aussi le développement de la modalité visuelle, tel qu’indiqué par une diminution des capacités de discrimination visuelle observée chez des malentendants. Cette indication appuie l’hypothèse qu’un développement normal de chacun des sens est requis pour un développement optimal des autres sens. Globalement, les résultats présentés dans cette thèse suggèrent que les systèmes auditif et visuel se développent de façon distincte, mais demeurent toutefois interreliés. En effet, une privation auditive affecte non seulement le développement des habiletés auditives, mais aussi celui des habiletés visuelles, suggérant une interdépendance entre les deux systèmes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est avant-tout question, dans ce mémoire, de la modélisation du timbre grâce à des algorithmes d'apprentissage machine. Plus précisément, nous avons essayé de construire un espace de timbre en extrayant des caractéristiques du son à l'aide de machines de Boltzmann convolutionnelles profondes. Nous présentons d'abord un survol de l'apprentissage machine, avec emphase sur les machines de Boltzmann convolutionelles ainsi que les modèles dont elles sont dérivées. Nous présentons aussi un aperçu de la littérature concernant les espaces de timbre, et mettons en évidence quelque-unes de leurs limitations, dont le nombre limité de sons utilisés pour les construire. Pour pallier à ce problème, nous avons mis en place un outil nous permettant de générer des sons à volonté. Le système utilise à sa base des plug-ins qu'on peut combiner et dont on peut changer les paramètres pour créer une gamme virtuellement infinie de sons. Nous l'utilisons pour créer une gigantesque base de donnée de timbres générés aléatoirement constituée de vrais instruments et d'instruments synthétiques. Nous entrainons ensuite les machines de Boltzmann convolutionnelles profondes de façon non-supervisée sur ces timbres, et utilisons l'espace des caractéristiques produites comme espace de timbre. L'espace de timbre ainsi obtenu est meilleur qu'un espace semblable construit à l'aide de MFCC. Il est meilleur dans le sens où la distance entre deux timbres dans cet espace est plus semblable à celle perçue par un humain. Cependant, nous sommes encore loin d'atteindre les mêmes capacités qu'un humain. Nous proposons d'ailleurs quelques pistes d'amélioration pour s'en approcher.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.