996 resultados para Observation en direct


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Salmonella enterica sérovar Typhi (Typhi) est une bactérie pathogène spécifique à l’homme. Typhi est l’agent étiologique de la fièvre typhoïde chez l’humain, causant plus de 16 millions de nouveaux cas par année et plus de 600 000 morts. Il a été démontré que pour causer une infection systémique, Salmonella doit nécessairement survivre dans les macrophages de l'hôte. Paradoxalement, S. enterica sérovar Typhimurium, très apparenté à Typhi (près de 90 % d’homologie), n’a pas la capacité de se disséminer dans l’organisme humain et peut infecter plusieurs espèces animales. Nous avons antérieurement identifié 36 gènes uniques à Typhi (absents chez Typhimurium) situés sur 15 régions différentes et exprimés sélectivement lors de l’infection de macrophages humains. Ainsi, l’une de ces régions a suscité notre attention, soit la région sty4217-4222 et plus particulièrement le produit du gène sty4221, une aminotransférase hypothétique. Ce dernier gène est d’intérêt dû à l’homologie qu’il détient avec une hémolysine connue (Hly) produite par Treponema denticola, possédant elle-même une activité d’aminotransférase. Chez T. denticola, Hly dégrade la cystéine et produit du H2S qui est toxique pour l’hôte. Notre hypothèse est que la spécificité d’hôte et la capacité de produire une infection systémique de Typhi sont dues à l’expression de gènes qui ne se retrouvent pas chez d’autres salmonelles. Le but de cette étude était donc de caractériser le gène sty4221 quant à son activité hémolytique, cytotoxique et tenter de déterminer son rôle dans la virulence de cette bactérie. Le gène sty4221 a été cloné sous le contrôle d’un promoteur inductible à l’arabinose et exprimé par E. coli. L’activité hémolytique du clone a été déterminée par simple observation sur gélose sang. Ce clone a également permis d’observer l’effet cytotoxique du surnageant de culture sur différentes lignées cellulaires, par quantification de la relâche de LDH. Le gène sty4221 a été muté chez la souche sauvage de Typhi, ISP1820, l’implication pathogénique du gène a ainsi pu être étudiée. Des tests de phagocytose, d’invasion et de survie dans des macrophages humains ont été effectués, ainsi que des tests d’adhésion et d’invasion sur des cellules HeLa. Par ailleurs, une première tentative de purification de la protéine a été entreprise. En somme, nous savons maintenant que STY4221 a des propriétés hémolytiques, augmentées par la présence de cystéine. De plus, STY4221 a un effet cytotoxique sur les macrophages THP-I, mais aucun effet sur les HeLa. Or, sty4221 ne semble pas impliqué dans les étapes d’adhésion, d’invasion, de phagocytose ou de survie. La caractérisation de sty4221 permettra sans doute d’approfondir nos connaissances sur les toxines trouvées uniquement chez Typhi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le sang provenant d’un cordon ombilical (SCO) représente une bonne source de cellules souches hématopoïétiques (CSH) pour des transplantations. Cependant, le nombre de cellules souches contenues dans ce sang est souvent insuffisant pour greffer un adulte. Le mécanisme intervenant dans la domiciliation de ces cellules au sein de la moelle osseuse (MO) est encore mal compris. On sait que l’interaction entre la chimiokine SDF-1 et le récepteur CXCR4, présent sur les cellules CD34+ de SCO, mène à la migration de ces cellules en direction de la MO. Nous pensons que l’augmentation de la proportion de cellules qui réussit à se greffer pourra pallier au problème du nombre. Les produits de dégradation, C3a et le C3desarg,, issus du système du complément, sont connus pour favoriser la réponse de cellules exprimant CXCR4 vers SDF-1. Nous avons analysé l’effet du C3adesarg, molécule non anaphylatoxique, sur la migration cellulaire vers SDF-1, de même que sur la prise de greffe des cellules CD34+ issues de SCO suite à une transplantation sur des souris NOD/SCIDyC-. Nos expériences ont démontré que le C3a ainsi que le C3adesarg augmentaient tous les deux la réponse des cellules CD34+ vers SDF-1. Toutefois, nous n’avons pas pu démontrer que ces molécules liaient directement le récepteur CXCR4. Par contre, le composé C3adesarg favorise la prise de greffe des cellules CD34+ de SCO. Il serait donc un bon candidat pour poursuivre une optimisation de ses propriétés. Nous avons également constaté que suite à une transplantation chez la souris, les cellules CD34+ de SCO subissent une hausse d’expression transitoire de leur CXCR4 environ quatre jours après la greffe. Cette hausse d’expression coïncide avec la multiplication des cellules CD34+ dans la MO. Nous avons également confirmé qu’une cellule CD34+ avec une forte expression de CXCR4 était dans un état prolifératif. Nos données suggèrent que l’interaction directe avec les cellules stromales soit responsable de cette hausse d’expression de CXCR4.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous avons mené une étude prospective randomisée dans le but de comparer l'effet de l'irrigation du cathéter de type PICC avec deux types d'anticoagulants: Héparine standard et Tinzaparine, une héparine de faible poids moléculaire. Notre étude s'adresse aux patients de la clinique externe d'oncologie de l'hôpital Maisonneuve-Rosemont. Entre début Mai 2005 et Mars 2008, nous avons recruté 131 patients dont 70 ont été randomisés. Parmi les 61 patients exclus, 23 n'ont pas rencontré les critères d'inclusion, 30 ont refusé de participer et 8 ne sont pas inclus pour d'autres raisons. Sur les 70, 36 sujets sont randomisés dans le groupe Héparine standard et 34 dans le groupe Tinzaparine. La population en intention de traiter comprend 65 sujets dont 32 dans le groupe Héparine standard et 33 dans le groupe Tinzaparine. Le médicament a été administré pendant un mombre maximal de 30 jours et les sujets ont été suivis pendant 90 jours. La thrombose veineuse associée au cathéter (TVAC) a été objectivée par une phlébographie ou une échographie-Doppler à la fin de la période de 30 jours suivant l'installation du cathéter. L'incidence de la TVAC sur 30 jours est de 14,39 par 1000 cathéter-jours (IC à 95%:[9,0;19,79]/1000 cathéter-jours ou 41,5% (27/65). L'incidence de la thrombose veineuse profonde (TVP) symptômatique du membre supérieur sur la période de suivi de 90 jours est de 0,41 par 1000 cathéter-jours (IC à 95%:[0,08;0,81]/1000 cathéter-jours ou 3% (2/65). Nous n'avons observé aucune différence entre les deux groupes par rapport à la fréquence de la TVAC ni de la TVP. Nous ne pouvons conclure à une différence dans l'efficacité de la Tinzaparine par rapport à l'Héparine standard dans la prévention de la TVAC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les anticorps anti-phospholipides (aPL), tels que les anticoagulants lupiques (LAC), sont associés au développement récurrent de thromboses chez les patients atteints du lupus érythémateux disséminé (LED). Il a été observé que des titres élevés d’auto-anticorps antilamine B1 (anti-LB1), chez des patients porteurs de LAC, diminuent le risque de ces manifestations thrombotiques. Toutefois, la relation existant entre la lamine B1 (LB1), les anti-LB1 et la thromboprotection n’est toujours pas expliquée. Dans cette étude, nous avons donc cherché à comprendre comment la LB1 et les anti-LB1 induisent cette thromboprotection. Nous avons testé les effets d'anti-LB1 purifiés et de LB1 recombinante sur l'activation des cellules endothéliales et des plaquettes. Nous avons été en mesure de déterminer que la LB1, contrairement aux anti-LB1, possède une activité anti-plaquettaire. En effet, la LB1 réduit l’activation et l’agrégation plaquettaires in vitro et in vivo. Cette activité est due à une liaison directe de la LB1 aux plaquettes, suivie par une internalisation rapide dans des vésicules de clathrine. Par co-immunoprécipitation, nous avons découvert que la LB1 interagit avec le récepteur de l’insuline situé sur la membrane plaquettaire. La liaison de la LB1 à ce récepteur entraîne vraisemblablement son internalisation et l'inhibition d'une des cascades de signalisation normalement induite par le récepteur de l’insuline, menant éventuellement à l’inhibition des fonctions plaquettaires. L’ajout d’anti-LB1 purifiés dans nos expériences a permis d'augmenter de façon significative la persistance de la LB1 dans les plaquettes, une observation confirmée par la détection de LB1 uniquement dans les lysats de plaquettes prélevées chez des patients anti-LB1 positifs. iv Nos résultats suggèrent que la LB1 prend part aux mécanismes régulateurs des processus d’hémostase chez des sujets sains et que la présence d’anti-LB1, chez les patients lupiques, prolonge la persistance de cet auto-antigène dans les plaquettes, les empêchant ainsi de s’activer. Ce mécanisme expliquerait la diminution du risque de thrombose chez les patients LAC positifs porteurs d’anti-LB1 circulants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

« La grande majorité des accidents demeure liée aux comportements dangereux des usagers de la route ». Cet énoncé, lapidaire, fait aujourd’hui figure d’évidence au sein de la communauté des intervenants en sécurité routière. Il repose pourtant sur des prémisses discutables. Le problème le plus fondamental réside dans le fait que la recherche des dernières décennies s’est presque toute entière vouée à l’analyse des seuls aspects défaillants de la conduite (l’accident, les infractions, les erreurs et les fautes de conduite, les conducteurs à risque ou dysfonctionnels, les attitudes et traits de caractère incitant à la conduite dangereuse, etc.). Ce faisant, on a fini par oublier qu’il nous restait encore beaucoup de choses à apprendre sur le fonctionnement usuel de la conduite automobile. Comment, en effet, peut-on escompter élucider tous les rouages de la dynamique accidentelle sans avoir au préalable cerné, et bien compris, les mécanismes de la conduite « ordinaire » ? Comment peut-on parvenir à approfondir notre compréhension des comportements de conduite si l’on fait totalement abstraction de toutes les activités courantes, « normales », auxquelles se livrent les conducteurs lorsqu’ils sont au volant de leur véhicule ? C’est dans la perspective de mieux comprendre les comportements de conduite, dans leur complexité et dans leur diversité, que la présente thèse a été réalisée. Y a plus spécifiquement été examinée la question des habitudes en raison de leur prédominance dans l’activité de la conduite, mais également en raison de leur résistance, des obstacles bien concrets qu’elles sont susceptibles d’opposer à tous ceux qui tentent de modifier les comportements individuels de conduite. Des entrevues en profondeur, menées auprès de trente conducteurs et conductrices âgé(e)s de 17 à 54 ans, devaient permettre de répondre, entre autres, aux questions suivantes : De quoi sont constituées les différentes habitudes en matière de conduite automobile ? Quelle place occupent-elles dans la conduite des individus ? En quoi constituent-elles un frein au changement, à la modification des pratiques adoptées ? Quelles sont les dimensions qui participent à leur installation ? Les résultats de l’analyse ont permis de jeter les bases d’un modèle des comportements de conduite où les sensations corporelles se voient conférer un rôle des plus centraux, et où l’habitude – bien davantage caractérisée par la notion de confort que par celles d’automatisme ou de répétition – concourt non seulement à la pérennité, mais également à la régulation des conduites adoptées sur la route.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’hypothèse de cette thèse est qu’une pratique collaborative médecins de famille-pharmaciens communautaires (PCMP) où le pharmacien fournit des soins pharmaceutiques avancés avec ajustement posologique d’une statine permettrait aux patients avec une dyslipidémie une réduction plus importante de leur LDL et augmenterait le nombre de patients atteignant leurs cibles lipidiques. Dans une étude clinique contrôlée et randomisée en grappe visant à évaluer une PCMP pour des patients ayant une dyslipidémie (l’étude TEAM), une journée de formation basée sur un protocole de traitement et des outils cliniques a été offerte aux pharmaciens PCMP pour les préparer à fournir des soins pharmaceutiques avancés. Les connaissances des pharmaciens sur les dyslipidémies étaient faibles avant la formation mais se sont améliorées après (moyenne de 45,8% à 88,2%; p < 0,0001). Après la formation, les pharmaciens avaient un haut niveau d’habiletés cliniques théoriques et pratiques. Bref, une journée de formation basée sur un protocole de traitement et des outils cliniques était nécessaire et adéquate pour préparer les pharmaciens à fournir des soins pharmaceutiques avancés à des patients ayant une dyslipidémie dans le contexte d’une étude clinique. Dans l’étude TEAM, 15 grappes de médecins et de pharmaciens (PCMP : 8; soins habituels (SH) : 7) ont suivi pendant un an, 225 patients (PCMP : 108; SH : 117) à risque modéré ou élevé de maladie coronarienne qui débutaient ou étaient déjà traités par une monothérapie avec une statine mais qui n’avaient pas atteint les cibles lipidiques. Au départ, par rapport aux patients SH, les patients PCMP avaient un niveau de LDL plus élevé (3,5 mmol/L vs 3,2 mmol/L) et recevaient moins de statine à puissance élevée (11,1 % vs 39,7 %). Après 12 mois, la différence moyenne du changement de LDL entre les groupes était égale à -0,2 mmol/L (IC95%: -0,3 à -0,1) et -0,04 (IC95%: -0,3 à 0,2), sans ajustement et avec ajustement, respectivement. Le risque relatif d’atteindre les cibles lipidiques était 1,10 (IC95%: 0,95 à 1,26) et 1,16 (1,01 à 1,32), sans ajustement et avec ajustement, respectivement. Les patients PCMP ont eu plus de visites avec un professionnel de la santé et d’analyses de laboratoire et étaient plus enclins à rapporter des changements de style de vie. La PCMP a amélioré l’adhésion aux lignes directrices en augmentant la proportion de patients aux cibles lipidiques. Les données intérimaires de l’étude TEAM (PCMP : 100 patients; SH : 67 patients) ont permis d’évaluer les coûts directs annuels du suivi du pharmacien du groupe PCMP (formation, visites, laboratoire), du médecin (visites, laboratoire) et du traitement hypolipémiant. Le suivi du pharmacien a coûté 404,07$/patient, incluant 320,67$ pour former les pharmaciens. Le coût global incrémental était 421,01$/patient. Une pratique collaborative pour des patients ayant une dyslipidémie engendre un coût raisonnable.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans les centres d’hébergement et de soins de longue durée (CHSLD), jusqu’à 80 % des personnes admises vivent avec une démence (Conseil des aînés, 2007). Parmi ces personnes âgées, plusieurs crient. Ce comportement a fait l’objet de quelques études, mais ces études ne fournissent pas une compréhension des sens de ces cris qui pourrait orienter le choix d’interventions face à ces personnes et leur entourage. À l’aide de la perspective infirmière de Leininger (2001) et de la théorie de la communication et des interactions à l’intérieur de triades d’Adams et Gardiner (2005), le but de cette étude était de décrire les sens des cris de personnes âgées vivant avec une démence et les facteurs les influençant en tenant compte de la perspective des personnes âgées, de leurs aidants familiaux et de leurs soignants. Pour atteindre ce but, l’ethnographie critique a été choisie comme méthode. L’étude s’est découlée dans un CHSLD au sein duquel sept triades, composées de personnes âgées vivant avec une démence qui crient, d’aidants familiaux principaux et de soignants, ont été recrutées selon un échantillonnage théorique. Diverses méthodes de collecte des données ont été utilisées dont l’observation des personnes âgées et du milieu et des entrevues semi-dirigées auprès des aidants et soignants. L’analyse des données a été effectuée à l’aide des quatre approches proposées par Spradley (1979) soit l’analyse : des domaines, taxonomique, componentielle et thématique. Les résultats ont permis d’identifier des thèmes sur les sens des cris et sur les facteurs influençant ceux-ci. Les cris peuvent avoir pour sens la vulnérabilité, la souffrance et la perte de sens vécues par la personne âgée. Ce comportement peut aussi indiquer diverses finalités, par exemple l’expression d’insatisfactions ou d’émotions. Ces finalités peuvent être distinguées à partir de critères de modulation tels que la prévisibilité des cris ou un faciès émotif. Par ailleurs, divers aspects rendent les sens des cris singuliers. La stabilité et la flexibilité dans la façon d’organiser les soins ainsi que l’effet réciproque entre les personnes âgées qui crient et les autres personnes dans le CHSLD se sont dégagées comme étant des facteurs qui influencent les sens des cris. Il s’est aussi révélé que les cris de chaque personne âgée peuvent être considérés comme un langage unique que les aidants et les soignants sont en mesure d’apprendre et qui influence l’interprétation des sens des cris. L’accompagnement de la personne âgée, en tenant compte de ses volontés, ses besoins et de sa personnalité, les fluctuations dans les relations de pouvoir au sein des triades personnes âgées-aidants-soignants et les sentiments d’impuissance et de culpabilité des aidants et des soignants sont d’autres facteurs qui influencent les cris. Les connaissances découlant de cette étude augmentent la compréhension sur les sens des cris des personnes âgées vivant avec une démence. Elles ont des implications pour les divers champs d’activités des infirmières et qui pourront contribuer à offrir des soins culturellement cohérents et caring pour les personnes âgées vivant avec une démence et leur entourage.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le domaine des relations industrielles, on a vu apparaître, ces dernières années, différents changements au niveau des relations du travail, notamment en matière de négociation collective. En effet, de nouvelles formes de négociation ont vu le jour en réponse aux changements qui se sont produits sur le marché du travail. De façon plus précise, les théoriciens se sont penchés, d’une part, sur des méthodes de négociation moins conflictuelles et les acteurs concernés par la négociation collective ont su les mettre en pratique, d’autre part. Cependant, bien que certains aient tenté de substituer ces méthodes plus coopératives à la négociation traditionnelle de façon intégrale, les théoriciens et praticiens se sont aperçus qu’il était plutôt difficile de les adopter à l’état pur et ce, de façon alternative à la négociation traditionnelle. Afin d’optimiser les gains mutuels lors de la négociation d’une entente, les négociateurs vont plutôt opter pour un usage combiné des méthodes plus traditionnelles et des nouvelles formes dites plus coopératives; on parle alors de négociation mixte. Toutefois, peu d’études portant sur la négociation mixte ont été conduites. Nous croyons néanmoins que cette forme de négociation est plus appropriée, notamment en raison de la nature des enjeux traités à l’occasion d’une négociation collective. S’insérant dans ce contexte, l’objet de notre recherche est donc l’étude, par l’entremise d’un cas particulier, de la négociation mixte. De façon plus précise, nous cherchons à évaluer la méthode de négociation adoptée lors de la négociation collective ayant eu lieu entre le Centre de la petite enfance Pomme Soleil (CPE) et le Syndicat des intervenantes en petite enfance de Montréal (SIPEM) – CSQ en 2005. Afin d’y parvenir, nous avons vérifié les propositions et hypothèses suivantes : (1) la nature du climat des négociations précédentes a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (2) la nature du climat des relations industrielles a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (3) le passage du temps a un effet de transition sur la méthode de négociation de type mixte qui manifeste une dominante intégrative dans les étapes initiales de la négociation et une dominante distributive dans les étapes finales, (4) les négociateurs ayant reçu une formation à la négociation basée sur la résolution de problèmes ou basée sur les intérêts adoptent une méthode de négociation de type mixte à dominante intégrative, (5) l’expérience des négociateurs patronal et syndical a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (6) la stratégie de négociation initiale adoptée par les parties a une influence sur la méthode de négociation de type mixte au cours de la négociation de la convention collective et (7) la négociation des clauses à incidence pécuniaire donne lieu à une méthode de négociation de type mixte à dominante distributive. Grâce aux résultats que nous avons recueillis par l’entremise de l’observation de la négociation collective entre le CPE Pomme Soleil et le SIPEM, mais principalement par le biais des entrevues, nous sommes en mesure d’affirmer que, conformément à notre question de recherche, la négociation fut mixte, à dominante intégrative. Cependant, la question salariale, bien qu’elle ne fut pas abordée à la table de négociation mais avec le gouvernement provincial, prit une tangente distributive. En ce sens, nous pouvons dire que la négociation fut mixte et ce, de façon séquentielle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Élaborée à partir d’une étude de cas extensive focalisant sur les perspectives multiples et concurrentes ayant émergé lors des négociations sur la gouvernance de l’Internet, thématique ayant dominé l’agenda politique du Sommet mondial sur la société de l’information (SMSI), cette thèse examine les manières avec lesquelles les débats mondiaux sur la gouvernance de l’Internet influencent la notion d’intérêt public en communication. Établie sur la base d’une observation participante extensive, d’entrevues semi-structurées et de l’analyse d’une documentation formelle et informelle associée au SMSI, cette thèse fait état de l’émergence des enjeux associés à la gouvernance de l’Internet au SMSI et présente une analyse approfondie des négociations ayant porté sur cet enjeu. Le cadre théorique développé par Lawrence Lessig au travers duquel « le code est la loi » est appliqué afin d’expliquer comment les différents acteurs ont débattu et ultimement atteint un consensus sur les frontières venant séparer les enjeux normatifs de politique publique et les questions techniques de régulation et de gestion du réseau. Cette thèse discute également de l’évolution des débats autour de la gouvernance mondiale de l’Internet ayant pris place à la suite de la conclusion du SMSI. Sur la base de cette étude de cas, un ensemble de conclusions sont formulées sur les acteurs et les caractéristiques institutionnelles ayant influencé les négociations sur la gouvernance de l’internet. Il est également suggéré que le SMSI a redéfini une discussion étroite sur la gestion d’un ensemble de fonctions techniques de l’Internet en un domaine de politique publique plus large de gouvernance mondiale de l’Internet. Il est également défendu que la notion d’intérêt public dans la gouvernance mondiale de l’Internet est conceptualisée autour des processus de participation et d’intégration des différentes parties prenantes au processus politique. Les implications directes et indirectes qui découlent de ce constat pour comprendre plus largement la notion d’intérêt public dans le domaine de la communication sont également présentées et discutées. En conclusion, cette thèse s’interroge sur les implications programmatiques des éléments ayant été précédemment soulevées pour la recherche médiatique et communicationnelle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’encéphalopathie hépatique (EH) se développe chez les patients atteints d’une maladie du foie et se caractérise par de nombreuses anomalies neuropsychiatriques. L’insuffisance hépatique aiguë (IHA) se caractérise par une perte progressive de l’état de conscience, par une augmentation rapide de l’œdème cérébral et une augmentation de la pression intracrânienne entraînant une herniation cérébrale et la mort. Plusieurs facteurs sont responsables du développement de l’EH mais depuis une centaine d’années, l’hyperammonémie qui peut atteindre des concentrations de l’ordre de plusieurs millimolaires chez les patients atteints d’IHA aux stades de coma est considérée comme un facteur crucial dans la pathogenèse de l’EH. La présente thèse comprend 4 articles suggérant l’implication de nouveaux mécanismes pathogéniques dans le développement de l’EH et de l’œdème cérébral associés à l’IHA et tente d’expliquer l’effet thérapeutique de l’hypothermie et de la minocycline dans la prévention de l’EH et de l’œdème cérébral: 1. L’IHA induite par dévascularisation hépatique chez le rat se caractérise par une augmentation de la production de cytokines pro-inflammatoires cérébrales (IL-6, IL-1, TNF-). Cette observation constitue la première évidence directe que des mécanismes neuro-inflammatoires jouent une rôle dans la pathogenèse de l’EH et de l’œdème cérébral associés à l’IHA (Chapitre 2.1, articles 1 et 2). 2. L’activation de la microglie telle que mesurée par l’expression de marqueurs spécifiques (OX42, OX-6) coïncide avec le développement de l’encéphalopathie (stade coma) et de l’œdème cérébral et s’accompagne d’une production accrue de cytokines pro-inflammatoires cérébrales (Chapitre 2.1, article 1 et 2). 3. Un stress oxydatif/nitrosatif causé par une augmentation de l’expression de l’oxyde nitrique synthétase et une augmentation de la synthèse d’oxyde nitrique cérébral participe à la pathogénèse des complications neurologiques de l’IHA (Chapitre 2.3, articles 3 et 4). 4. Des traitements anti-inflammatoires tels que l’hypothermie et la minocycline peuvent constituer de nouvelles approches thérapeutiques chez les patients atteints d’IHA (Chapitre 2.1, article 1; Chapitre 2.2, article 2). 5. Les effets bénéfiques de l’hypothermie et de la minocycline sur les complications neurologiques de l’IHA expérimentale s’expliquent, en partie, par une diminution du stress oxydatif/nitrosatif (Chapitre 2.3, article 3; Chapitre 2.4, article 4).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La libéralisation des échanges a fait augmenter les richesses, mais en réalité, elles se sont concentrées dans les pays développés. La question de la distribution plus équitable des richesses s'est rapidement posée. Le système GATT/OMC a joué un rôle décisif dans la libéralisation des échanges et dans l'articulation des rapports entre les pays développés et les pays en développement (PED). L'émergence et l'incarnation juridique dans le système GATT/OMC d'un principe de justice distributive passe par l'évolution du traitement spécial et différencié (TSD). Sous le GATT, le TSD s'est d'abord manifesté par l'article XVIII et la Partie IV du GATT de 1947, la Clause d'habilitation et le Système de préférences de 1971. Le TSD ainsi proposé appartenait essentiellement à la sof law et a échoué dans sa tentative d'intégrer les PED au système SCM. Sous l'OMC, le TSD a changé de paradigme et de mandat. Le TSD est passé d'un outil voué à mettre au développement des PED à un mécanisme employé à aider les PED à mettre en œuvre les nouvelles politiques de libéralisation découlant des accords de l'OMC. Les dispositions TSD seront alors dispersées dans l'ensemble des accords de l'OMC, mais sans jamais transcender la forme «soft law» qui les caractérisait sous le GATT. L'échec de la Conférence de Seattle, en 1999, engendrera le «Programme de Doha pour le développement», en 2001. La Déclaration de Doha était alors perçue comme l'incarnation de la transformation de l'OMC en organisation qui se préoccupe désormais de justice distributive. En observant de près le texte de la Déclaration de Doha et en analysant sa valeur juridique, on ne constate pas de progrès significatifs. Encore une fois, les mesures proposées le sont sous forme de déclarations d'intention et de promesses, voire d'engagement à négocier. Actuellement, le Cycle de Doha tarde à aboutir et tout nous porte à croire que l'avènement de l'OMC n'a pas concrétisé la volonté des PED d'une répartition plus équitable des richesses.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de notre recherche est l’exploration et l’étude de la question de l’instrumentation informatique des projets de reconstitution archéologiques en architecture monumentale dans le but de proposer de nouveaux moyens. La recherche a pour point de départ une question, à savoir : « Comment, et avec quels moyens informatiques, les projets de reconstitution architecturale pourraient-ils être menés en archéologie? ». Cette question a nécessité, en premier lieu, une étude des différentes approches de restitution qui ont été mises à contribution pour des projets de reconstitution archéologiques, et ceci, à ses différentes phases. Il s’agit de comprendre l’évolution des différentes méthodologies d’approche (épistémologiquement) que les acteurs de ce domaine ont adoptées afin de mettre à contribution les technologies d’information et de communication (TIC) dans le domaine du patrimoine bâti. Cette étude nous a permis de dégager deux principales avenues: une première qui vise exclusivement la « représentation » des résultats des projets et une seconde qui vise la modélisation de ce processus dans le but d’assister l’archéologue dans les différentes phases du projet. Nous démontrons que c’est la deuxième approche qui permet la combinaison et met à la disposition des archéologues une meilleure exploitation des possibilités que l’outil informatique peut et pourra présenter. Cette partie permet de démontrer la nature systémique et complexe de la mise à contribution des TICs dans le domaine de la restitution archéologique. La multitude des acteurs, des conditions techniques, culturelles et autres, des moyens utilisés ainsi que la variété des objectifs envisagés dans les projets de reconstitution archéologiques poussent à explorer une nouvelle approche qui tient compte de cette complexité. Pour atteindre notre objectif de recherche, la poursuite de l’étude de la nature de la démarche archéologique s’impose. Il s’agit de comprendre les liens et les interrelations qui s’établissent entre les différentes unités techniques et intellectuelles en jeu ainsi que les différents modes de réflexions présents dans les projets de reconstitution archéologique du patrimoine bâti. Cette étude met en évidence le rapport direct entre le caractère subjectif de la démarche avec la grande variabilité des approches et des raisonnements mis en œuvre. La recherche est alors exploratoire et propositionnelle pour confronter notamment le caractère systémique et complexe de l’expérience concrète et à travers les publications savantes, les éléments de la réalité connaissable. L’étude des raisonnements archéologiques à travers les publications savantes nous permet de proposer une première typologie de raisonnements étudiés. Chacune de ces typologies reflète une méthodologie d’approche basée sur une organisation d’actions qui peut être consignée dans un ensemble de modules de raisonnements. Cette recherche fait ressortir, des phénomènes et des processus observés, un modèle qui représente les interrelations et les interactions ainsi que les produits spécifiques de ces liaisons complexes. Ce modèle témoigne d’un processus récursif, par essais et erreurs, au cours duquel l’acteur « expérimente » successivement, en fonction des objectifs de l’entreprise et à travers des modules de raisonnements choisis, plusieurs réponses aux questions qui se posent à lui, au titre de la définition du corpus, de la description, de la structuration, de l’interprétation et de la validation des résultats, jusqu’à ce que cette dernière lui paraisse satisfaire aux objectifs de départ. Le modèle établi est validé à travers l’étude de cas du VIIème pylône du temple de Karnak en Égypte. Les résultats obtenus montrent que les modules de raisonnements représentent une solution intéressante pour assister les archéologues dans les projets de reconstitution archéologiques. Ces modules offrent une multiplicité de combinaisons des actions et avantagent ainsi une diversité d’approches et de raisonnements pouvant être mis à contribution pour ces projets tout en maintenant la nature évolutive du système global.