972 resultados para Méthode de partage des coûts


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’hypothèse de cette thèse est qu’une pratique collaborative médecins de famille-pharmaciens communautaires (PCMP) où le pharmacien fournit des soins pharmaceutiques avancés avec ajustement posologique d’une statine permettrait aux patients avec une dyslipidémie une réduction plus importante de leur LDL et augmenterait le nombre de patients atteignant leurs cibles lipidiques. Dans une étude clinique contrôlée et randomisée en grappe visant à évaluer une PCMP pour des patients ayant une dyslipidémie (l’étude TEAM), une journée de formation basée sur un protocole de traitement et des outils cliniques a été offerte aux pharmaciens PCMP pour les préparer à fournir des soins pharmaceutiques avancés. Les connaissances des pharmaciens sur les dyslipidémies étaient faibles avant la formation mais se sont améliorées après (moyenne de 45,8% à 88,2%; p < 0,0001). Après la formation, les pharmaciens avaient un haut niveau d’habiletés cliniques théoriques et pratiques. Bref, une journée de formation basée sur un protocole de traitement et des outils cliniques était nécessaire et adéquate pour préparer les pharmaciens à fournir des soins pharmaceutiques avancés à des patients ayant une dyslipidémie dans le contexte d’une étude clinique. Dans l’étude TEAM, 15 grappes dedecins et de pharmaciens (PCMP : 8; soins habituels (SH) : 7) ont suivi pendant un an, 225 patients (PCMP : 108; SH : 117) à risque modéré ou élevé de maladie coronarienne qui débutaient ou étaient déjà traités par une monothérapie avec une statine mais qui n’avaient pas atteint les cibles lipidiques. Au départ, par rapport aux patients SH, les patients PCMP avaient un niveau de LDL plus élevé (3,5 mmol/L vs 3,2 mmol/L) et recevaient moins de statine à puissance élevée (11,1 % vs 39,7 %). Après 12 mois, la différence moyenne du changement de LDL entre les groupes était égale à -0,2 mmol/L (IC95%: -0,3 à -0,1) et -0,04 (IC95%: -0,3 à 0,2), sans ajustement et avec ajustement, respectivement. Le risque relatif d’atteindre les cibles lipidiques était 1,10 (IC95%: 0,95 à 1,26) et 1,16 (1,01 à 1,32), sans ajustement et avec ajustement, respectivement. Les patients PCMP ont eu plus de visites avec un professionnel de la santé et d’analyses de laboratoire et étaient plus enclins à rapporter des changements de style de vie. La PCMP a amélioré l’adhésion aux lignes directrices en augmentant la proportion de patients aux cibles lipidiques. Les données intérimaires de l’étude TEAM (PCMP : 100 patients; SH : 67 patients) ont permis d’évaluer les coûts directs annuels du suivi du pharmacien du groupe PCMP (formation, visites, laboratoire), du médecin (visites, laboratoire) et du traitement hypolipémiant. Le suivi du pharmacien a coûté 404,07$/patient, incluant 320,67$ pour former les pharmaciens. Le coût global incrémental était 421,01$/patient. Une pratique collaborative pour des patients ayant une dyslipidémie engendre un coût raisonnable.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse rapporte l’étude des propriétés physicochimiques des nanoparticles polymériques et leur impact sur l’interaction avec les cellules vivantes. Nous nous sommes tout spécialement attachés à étudier l’effet des propriétés adhésives et mécaniques des nanoparticules sur leur capacité de pénétration de la membrane cellulaire. Pour ce faire, nous avons tout d’abord utilisé des nanoparticules d’acide polylactique (PLA) fonctionnalisées en surface avec un ligand des sélectines E et P. Le greffage du ligand sur la particule s’est fait par une nouvelle méthode expérimentale garantissant la présence du ligand à la surface de la particule durant toute sa durée de vie. Cette méthode consiste à mélanger un polymère fonctionnalisé avec le ligand avec un autre polymère non fonctionnalisé. La présence du ligand à la surface des nanoparticules formées à partir de ce mélange de polymères a été confirmée par analyse ToF SIMS. Nous avons pu prouver que les particules possédant le ligand greffé à leur surface démontraient une capacité adhésive supérieure à leurs homologues non fonctionnalisés sur des cellules endothéliales HUVEC activées par différentes drogues. De plus, le captage des particules par les cellules HUVEC est modulé par le niveau d’expression des récepteurs selectine E et P et aussi par la quantité de ligand libre. Ces résultats montrent clairement que le greffage du ligand confère aux particules des propriétés adhésives accrues et spécifiques ce qui permet leur usage postérieure comme vecteur pharmaceutique capable de cibler un récepteur particulier à la surface d’une cellule. Nous avons aussi démontré que l’interaction entre les nanoparticules et la membrane cellulaire peut aussi être contrôlée aussi bien par les propriétés mécaniques de la cellule que de la nanoparticule. Dans une première étape, nous avons mesuré à l’aide de l’appareil de forces de surface l’élasticité de cellules macrophagiques déposées sur différents substrats. En contrôlant l’interaction entre la cellule et le substrat sur lequel elle repose nous avons montré qu’il était possible de modifier à ii volonté les propriétés mécaniques cellulaire. Une augmentation de l’élasticité cellulaire s’accompagne d’une augmentation systématique de l’internalisation de nanoparticules de PLA non fonctionnalisées. Ceci suggère un rôle prépondérant des propriétés mécaniques du cortex cellulaire dans le captage des nanoparticules de PLA. Dans une seconde étape, nous avons étudié l’effet des propriétés mécaniques des nanoparticules sur leur capacité de pénétration cellulaire. Pour ce faire, nous avons synthétisé des particules d’hydrogel dont l’élasticité était contrôlée par le degré d’agent réticulant inclus dans leur formulation. Le contrôle des propriétés mécaniques des nanoparticules a été confirmé par la mesure du module de Young des particules par microscopie de force atomique. L’impact des propriétés mécaniques de ces particules sur leur capacité de pénétration dans les cellules vivantes a été étudié sur des cellules macrophagiques de souris. Les résultats ont montré que la cinétique d’internalisation, la quantité de particules internalisées et le mécanisme d’internalisation dépendent tous du module de Young des nanoparticules. Aucune différence dans le trajet intracellulaire des particules n’a pu être observée malgré le fait que différentes voies d’internalisation aient été observées. Ce dernier résultat peut s’expliquer par le fait que les nanoparticules sont internalisées par plusieurs voie simultanément ce qui facilite leur accumulation dans les organelles digestives intracellulaires. Un modèle simple permettant d’expliquer ces résultats a été proposé et discuté.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis plusieurs années, la définition des soins palliatifs a été élargie pour inclure toutes les maladies ayant un pronostic réservé. Le Québec s’est doté d’une politique de soins palliatifs dont l’un des principes directeurs est de maintenir les patients dans leur milieu de vie naturel. Alors que présentement environ 10 % de la population nécessitant des soins palliatifs en reçoit, on peut s’attendre à une augmentation des demandes de soins palliatifs à domicile dans les CSSS du Québec. La présente étude a pour but de décrire et comprendre l’expérience de dispenser des soins palliatifs à domicile pour des infirmières travaillant dans un contexte non spécialisé. Une étude qualitative ayant comme perspective disciplinaire la théorie de l’humain-en-devenir de Parse a été réalisée. Des entrevues ont été effectuées auprès de huit infirmières travaillant au maintien à domicile d’un CSSS de la région de Montréal qui font des soins palliatifs dans un contexte non spécialisé. L’analyse des données a été effectuée selon la méthode d’analyse phénoménologique de Giorgi (1997). Les résultats s’articulent autour de trois thèmes qui décrivent l’expérience de dispenser des soins palliatifs à domicile pour des infirmières qui travaillent dans un contexte non spécialisé. Elles accompagnent les patients et leur famille, en s’engageant à donner des soins humains, et développant une relation d’accompagnement avec le patient et ses proches. Elles doivent composer avec les réactions du patient et de sa famille et doivent parfois informer le patient de la progression de son état de santé. De plus, elles se préoccupent de donner des soins de qualité en composant avec la complexité des soins palliatifs à domicile tout en s’assurant de soulager les symptômes des patients et de tenter de développer leur expertise. Finalement, le fait d’être confrontée à la mort permet de cheminer. Ainsi, les infirmières vivent des émotions, reçoivent du soutien, sont touchées personnellement par la mort, éprouvent de la satisfaction envers les soins qu’elles donnent et apprennent personnellement de leur expérience. L’essence du phénomène à l’étude est que lorsque les infirmières font un véritable accompagnement du patient et de sa famille en s’efforçant de donner des soins de qualité, cela crée des conditions permettant qu’un cheminement personnel et professionnel sur la vie et la mort soit effectué par les infirmières.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La capture contingente de l’attention est un phénomène dans lequel les mécanismes d’orientation endogène et exogène de l’attention interagissent, de sorte qu’une propriété qui est pertinente à la tâche en cours, et donc qui fait l’objet de contrôles attentionnels descendants, endogènes, capture l’attention de façon involontaire, exogène, vers sa position spatiale. Dans cette thèse, trois aspects de ce phénomène ont été étudiés. Premièrement, en explorant le décours temporel de la capture contingente de l’attention et la réponse électrophysiologique à des distracteurs capturant ainsi l’attention, il a été établi que le déficit comportemental symptomatique de cette forme de capture était lié à un déploiement de l’attention visuospatiale vers la position du distracteur, et que ce traitement spatialement sélectif pouvait être modulé par le partage d’autres propriétés entre le distracteur et la cible. Deuxièmement, l’utilisation des potentiels liés aux événements a permis de dissocier l’hypothèse de capture contingente de l’attention et l’hypothèse de capture pure de l’attention. Selon cette interprétation, un stimulus ne peut capturer l’attention aux stades préattentifs de traitement que s’il présente le plus fort signal ascendant parmi tous les stimuli présents. Les contrôles attentionnels descendants ne serviraient donc qu’à désengager l’attention d’un tel stimulus. Les résultats présentés ici vont à l’encontre d’une telle interprétation, puisqu’un déploiement de l’attention visuospatiale, indexé par la présence d’une N2pc, n’a été observé que lorsqu’un distracteur périphérique possédait une caractéristique pertinente à la tâche en cours, même lorsque ses propriétés de bas niveau n’étaient pas plus saillantes que celles des autres items présents. Finalement, en utilisant un paradigme où la cible était définie en fonction de son appartenance à une catégorie alphanumérique, il a été démontré que des contrôles attentionnels en faveur d’un attribut conceptuel pouvaient guider l’attention visuospatiale de façon involontaire, rejetant une nouvelle fois l’hypothèse de la capture pure de l’attention.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

INTRODUCTION Des réponses thérapeutiques variables aux glucocorticoïdes (GCs) sont observées parmi les patients atteints de la leucémie lymphoblastique aiguë (LLA). Les protéines Bax et Bim ont déjà montré un rôle important dans l’apoptose des cellules leucémiques. L’expression de Bax était plus basse chez les patients leucémiques résistants au médicament, de même une sensibilité diminuée aux GCs a été associée avec une expression réduite de Bim. La différence dans l’expression pourrait être due à des polymorphismes présents dans ces gènes et donc être associés avec la résistance aux GCs. MÉTHODE Dix-huit polymorphismes en régions régulatrices, 2 polymorphismes exoniques et 7 polymorphismes en région 3’UTR de ces gènes ont été analysés chez les témoins (n=50) et ont permis de déterminer un nombre minimal de polymorphismes suffisants pour définir les haplotypes (tagSNPs). Ces 8 polymorphismes ont ensuite été génotypés chez 286 enfants atteints de la LLA et ont été testés pour l’issue de la maladie par l’analyse de survie. RÉSULTATS Une survie sans évènement et une survie sans rechute diminuées ont été observées pour l’haplotype 3 (p=0,03 et p=0,02). Une survie globale diminuée a été associée avec l’homozygotie pour l’allèle exonique T298C>T (p=0,03), de même que pour les haplotypes 1 et 4 (p=0,04 et p=0,02) du gène Bim. CONCLUSION Les polymorphismes ont été associés avec une survie diminuée chez des enfants atteints de LLA. Il reste à tester d’autres polymorphismes présents dans ces deux gènes ainsi qu’à définir leurs fonctions afin de comprendre leurs rôles dans la réponse aux GCs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude a pour but de tester si l’ajout de variables biomécaniques, telles que celles associées à la morphologie, la posture et l’équilibre, permet d’améliorer l’efficacité à dissocier 29 sujets ayant une scoliose progressive de 45 sujets ayant une scoliose non progressive. Dans une étude rétrospective, un groupe d’apprentissage (Cobb: 27,1±10,6°) a été utilisé avec cinq modèles faisant intervenir des variables cliniques, morphologiques, posturales et d’équilibre et la progression de la scoliose. Un groupe test (Cobb: 14,2±8,3°) a ensuite servit à évaluer les modèles dans une étude prospective. Afin d’établir l’efficacité de l’ajout de variables biomécaniques, le modèle de Lonstein et Carlson (1984) a été utilisé à titre d’étalon de mesures. Le groupe d’apprentissage a été utilisé pour développer quatre modèles de classification. Le modèle sans réduction fut composé de 35 variables tirées de la littérature. Dans le modèle avec réduction, une ANCOVA a servit de méthode de réduction pour passer de 35 à 8 variables et l’analyse par composantes principales a été utilisée pour passer de 35 à 7 variables. Le modèle expert fut composé de huit variables sélectionnées d’après l’expérience clinque. L’analyse discriminante, la régression logistique et l’analyse par composantes principales ont été appliquées afin de classer les sujets comme progressifs ou non progressifs. La régression logistique utilisée avec le modèle sans réduction a présenté l’efficience la plus élevée (0,94), tandis que l’analyse discriminante utilisée avec le modèle expert a montré l’efficience la plus faible (0,87). Ces résultats montrent un lien direct entre un ensemble de paramètres cliniques et biomécaniques et la progression de la scoliose idiopathique. Le groupe test a été utilisé pour appliquer les modèles développés à partir du groupe d’apprentissage. L’efficience la plus élevée (0,89) fut obtenue en utilisant l’analyse discriminante et la régression logistique avec le modèle sans réduction, alors que la plus faible (0,78) fut obtenue en utilisant le modèle de Lonstein et Carlson (1984). Ces valeurs permettent d’avancer que l’ajout de variables biomécaniques aux données cliniques améliore l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Afin de vérifier la précision des modèles, les aires sous les courbes ROC ont été calculées. L’aire sous la courbe ROC la plus importante (0,93) fut obtenue avec l’analyse discriminante utilisée avec le modèle sans réduction, tandis que la plus faible (0,63) fut obtenue avec le modèle de Lonstein et Carlson (1984). Le modèle de Lonstein et Carlson (1984) n’a pu séparer les cas positifs des cas négatifs avec autant de précision que les modèles biomécaniques. L’ajout de variables biomécaniques aux données cliniques a permit d’améliorer l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Ces résultats permettent d’avancer qu’il existe d’autres facteurs que les paramètres cliniques pour identifier les patients à risque de progresser. Une approche basée sur plusieurs types de paramètres tient compte de la nature multifactorielle de la scoliose idiopathique et s’avère probablement mieux adaptée pour en prédire la progression.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec la faculté de droit de l'Université d'Orléans en France.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les discussions sur l’éthique de la santé mentale se concentrent généralement sur des sujets comme la confidentialité ou les conflits d’intérêt. Certaines formes de thérapie donnent cependant lieu à des situations plus particulières. C’est le cas de la thérapie psychodynamique et des considérations éthiques soulevées par les processus de transfert et de contre-transfert. En raison du peu de recherche sur ce sujet, l’approche de l’analyse documentaire critique, une méthode qualitative, fut sélectionnée. Ce projet vise à établir l’apport de la médecine narrative et plus spécifiquement du concept de représentation pour analyser les aspects éthiques du transfert et du contre-transfert. À cette fin, ces processus sont étudiés en détail et les diverses stratégies proposées aux thérapeutes pour maintenir une relation éthique avec leurs patients sont recensées. Popularisés principalement par Rita Charon, la médecine narrative et ses principaux composants, dont la représentation, sont ensuite présentés. De plus, la mimèsis étant à la base de la représentation, les travaux de Paul Ricœur sur le sujet sont discutés. Le dernier chapitre de ce mémoire, qui constitue la partie analytique du projet, prend la forme d’un exercice inductif évaluant l’apport de la médecine narrative pour analyser les aspects éthiques du transfert et du contre-transfert.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les innovations technologiques pullulent dans le milieu policier depuis quelques années. Devant cette abondance de choix technologiques, et dans une conjoncture de ralentissement économique, la police doit s’assurer de faire une sélection favorisant le meilleur retour sur investissement. L’évaluation des technologies est la meilleure méthode permettant d’atteindre cet objectif. Ce projet de recherche analyse les différentes stratégies d’évaluation des technologies des corps policiers fédéraux et provinciaux du Canada en se basant sur le domaine baromètre de l’identité judiciaire. Cette étude s’appuie sur plusieurs données qualitatives : 1) observation participative à la Sûreté du Québec; 2) entrevues semi-directives (n=11) avec des membres de l’Ontario Provincial Police et de la Gendarmerie Royale du Canada. L’analyse intégrée des données colligées permet de mieux comprendre la dynamique de l’évaluation technologique dans la police. Même si une évolution est perceptible, certaines améliorations pourraient accroître l’efficacité du mini-PTA (Police Technology Assessment) dans un contexte où l’opérationnel et le théorique doivent cohabiter en parfaite harmonie afin de faciliter le travail des utilisateurs. Le mini-PTA est un outil facilitant l’adaptation de l’évaluation des technologies aux réalités régionales, mais ne peut en aucun cas remplacer unilatéralement le PTA fait par les grosses organisations d’évaluation des technologies policières.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le dévoilement de sa séropositivité représente une préoccupation quotidienne des femmes vivant avec le VIH, complexifié par la stigmatisation. L'état des connaissances demeure très fragmenté : les études révèlent des patterns (à qui les femmes dévoilent et à quelle fréquence), les raisons pour dévoiler ou non, les conséquences positives et négatives ainsi que les facteurs liés au dévoilement, limitant une compréhension globale du phénomène. Inspirée de la toile de fond de Parse (1998, 2003), cette présente étude visait à décrire et à mieux comprendre l'expérience du dévoilement, telle que perçue par des femmes vivant avec le VIH nées au Québec. La méthode phénoménologique a été privilégiée afin de recueillir des données auprès de sept participantes, par la tenue d’une entrevue semi structurée. L’analyse des données a reposé sur deux activités de recherche proposées par van Manen (1997), soit la réflexion et l’écriture, permettant d’identifier les sept thèmes suivants : 1) Se respecter tout en considérant les confidents ; 2) Ressentir l’appréhension; 3) Exercer un contrôle pour assurer une protection; 4) S’engager délibérément dans une démarche de révélation-dissimulation; 5) S’exposer au contexte social stigmatisant empreint d’exclusion; 6) Souffrir intérieurement; 7) Bénéficier des retombées positives de sa décision. Ces thèmes ont contribué à la formulation de l’essence du phénomène étudié soit : vivre l’ambivalence d’une démarche paradoxale de révélation-dissimulation, au cœur d’une souffrance profonde intensifiée par la stigmatisation, tout en s’enrichissant des bienfaits recueillis. Il est permis de croire que ces résultats puissent avoir des retombées positives pour guider la pratique infirmière autour du soutien aux femmes dans leur expérience de dévoilement.