413 resultados para Qualité relationnelle
Resumo:
l'imagerie par résonance magnétique (IRMC) est une technologie utilisée depuis les aimées quatre¬-vingts dans le monde de la cardiologie. Cette technique d'imagerie non-invasive permet d'acquérir Ses images du coeur en trois dimensions, dans n'importe quel, plan, sans application de radiation, et en haute résolution. Actuellement, cette technique est devenue un référence dans l'évaluation et 'l'investigation de différentes pathologies cardiaques. La morphologie cardiaque, la fonction des ventricules ainsi que leur contraction, la perfusion tissulaire ainsi que la viabilité tissulaire peuvent être caractérisés en utilisant différentes séquences d'imagerie. Cependant, cette technologie repose sur des principes physiques complexes et la mise en pratique de cette technique se heurte à la difficulté d'évaluer un organe en mouvement permanent. L'IRM cardiaque est donc sujette à différents artefacts qui perturbent l'interprétation des examens et peuvent diminuer la précision diagnostique de cette technique. A notre connaissance, la plupart des images d'IRMC sont analysées et interprétées sans évaluation rigoureuse de la qualité intrinsèque de l'examen. Jusqu'à présent, et à notre connaissance, aucun critère d'évaluation de la qualité des examens d'IRMC n'a été clairement déterminé. L'équipe d'IRMC du CHUV, dirigée par le Prof J. Schwitter, a recensé une liste de 35 critères qualitatifs et 12 critères quantitatifs évaluant la qualité d'un examen d'IRMC et les a introduit dans une grille d'évaluation. L'objet de cette étude est de décrire et de valider la reproductibilité des critères figurant dans cette grille d'évaluation, par l'interprétation simultanée d'examens IRMC par différents observateurs (cardiologues spécialisés en IRM, étudiant en médecine, infirmière spécialisée). Notre étude a permis de démontrer que les critères définis pour l'évaluation des examens d'IRMC sont robustes, et permettent une bonne reproductibilité intra- et inter-observateurs. Cette étude valide ainsi l'utilisation de ces critères de qualité dans le cadre de l'imagerie par résonance magnétique cardiaque. D'autres études sont encore nécessaires afin de déterminer l'impact de la qualité de l'image sur la précision diagnostique de cette technique. Les critères standardisés que nous avons validés seront utilisés pour évaluer la qualité des images dans le cadre d'une étude à échelle européenne relative à l'IRMC : "l'EuroCMR registry". Parmi les autres utilités visées par ces critères de qualité, citons notamment la possibilité d'avoir une référence d'évaluation de la qualité d'examen pour toutes les futures études cliniques utilisant la technologie d'IRMC, de permettre aux centres d'IRMC de quantifier leur niveau de qualité, voire de créer un certificat de standard de qualité pour ces centres, d'évaluer la reproductibilité de l'évaluation des images par différents observateurs d'un même centre, ou encore d'évaluer précisément la qualité des séquences développées à l'avenir dans le monde de l'IRMC.
Resumo:
Contexte et cadre: L'Institut universitaire de médecine sociale et préventive (IUMSP) de Lausanne a été mandaté par la Fondation Leenaards pour élaborer un cadre pour l'évaluation de l'impact d'un processus communautaire sur la santé des aînés dans la ville d'Yverdon, appelé "Quartiers solidaires". "Quartiers solidaires" est une méthodologie de développement communautaire, créée par l'unité de travail social communautaire de Pro Senectute Vaud. Elle a pour but d'améliorer la qualité de vie actuelle et future des personnes âgées au sein de leur quartier. Pour atteindre cet objectif, les habitants, et en particulier les aînés, sont invités à devenir auteurs et acteurs de leurs propres projets en créant une communauté locale. Le projet "Quartiers solidaires" à Yverdon s'inscrit par ailleurs dans le cadre d'un projet communal de politique d'action sociale de la ville, Qualité de vie, s'appliquant au niveau de la ville et impliquant divers acteurs et instances. L'IUMSP propose, pour l'élaboration de ce cadre, d'utiliser un outil : le "modèle de catégorisation des résultats". Cet outil, appelé aussi SMOC (Swiss Model for Outcome Classification), permet à tous les partenaires impliqués dans le projet Quartiers solidaires d'établir ensemble un état de situation à laquelle ils sont confrontés (c'est à dire une analyse des problèmes auxquels ils doivent faire face), ainsi qu'une théorie d'action (c'est à dire un schéma qui structure les activités, en cours et planifiées, selon les divers objectifs visés). Cet outil, caractérisé par sa démarche participative, a été utilisé dans le cadre d'ateliers réunissant les différentes parties prenantes du projet. [...] Le modèle est basé sur la santé dans sa définition la plus large (telle que définie par l'OMS), englobant donc la qualité de vie, et est en adéquation avec l'approche écologique, qui repose sur une vision élargie des déterminants de la santé. [Auteurs, p. 7-8]
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Erythrocyte concentrates (ECs) are the major labile blood product being transfused worldwide, aiming at curing anemia of diverse origins. In Switzerland, ECs are stored at 4 °C up to 42 days in saline-adenine-glucose-mannitol (SAGM). Such storage induces cellular lesions, altering red blood cells (RBCs) metabolism, protein content and rheological properties. A hot debate exists regarding the impact of the storage lesions, thus the age of ECs on transfusion-related clinical adverse outcomes. Several studies tend to show that poorer outcomes occur in patients receiving older blood products. However, no clear association was demonstrated up to date. While metabolism and early rheological changes are reversible through transfusion of the blood units, oxidized proteins cannot be repaired, and it is likely such irreversible damages would affect the quality of the blood product and the efficiency of the transfusion. In vivo, RBCs are constantly exposed to oxygen fluxes, and are thus well equipped to deal with oxidative challenges. Moreover, functional 20S proteasome complexes allow for recognition and proteolysis of fairly oxidized protein, and some proteins can be eliminated from RBCs by the release of microvesicles. The present PhD thesis is involved in a global research project which goal is to characterize the effect of processing and storage on the quality of ECs. Assessing protein oxidative damages during RBC storage is of major importance to understand the mechanisms of aging of stored RBCs. To this purpose, redox proteomic-based investigations were conducted here. In a first part, cysteine oxidation and protein carbonylation were addressed via 2D-DIGE and derivatization-driven immunodetection approaches, respectively. Then, the oxidized sub- proteomes were characterized through LC-MS/MS identification of proteins in spots of interest (cysteine oxidation) or affinity-purified carbonylated proteins. Gene ontology annotation allowed classifying targets of oxidation according to their molecular functions. In a third part, the P20S activity was evaluated throughout the storage period of ECs, and its susceptibility to highly oxidized environment was investigated. The potential defensive role of microvesiculation was also addressed through the quantification of eliminated carbonylated proteins. We highlighted distinct protein groups differentially affected by cysteine oxidation, either reversibly or irreversibly. In addition, soluble extracts showed a decrease in carbonylation at the beginning of the storage and membrane extracts revealed increasing carbonylation after 4 weeks of storage. Engaged molecular functions revealed that antioxidant (AO) are rather reversibly oxidized at their cysteine residue(s), but are irreversibly oxidized through carbonylation. In the meantime, the 20S proteasome activity is decreased by around 40 % at the end of the storage period. Incubation of fresh RBCs extracts with exogenous oxidized proteins showed a dose-dependent and protein-dependent inhibitory effect. Finally, we proved that the release of microvesicles allows the elimination of increasing quantities of carbonylated proteins. Taken together, these results revealed an oxidative pathway model of RBCs storage, on which further investigation towards improved storage conditions will be based. -- Les concentrés érythrocytaires (CE) sont le produit sanguin le plus délivré au monde, permettant de traiter différentes formes d'anémies. En Suisse, les CE sont stocké à 4 °C pendant 42 jours dans une solution saline d'adénine, glucose et mannitol (SAGM). Une telle conservation induit des lésions de stockage qui altèrent le métabolisme, les protéines et les propriétés rhéologique du globule rouge (GR). Un débat important concerne l'impact du temps de stockage des CE sur les risques de réaction transfusionnelles, certaines études tentant de démontrer que des transfusions de sang vieux réduiraient l'espérance de vie des patients. Cependant, aucune association concrète n'a été prouvée à ce jour. Alors que les modifications du métabolisme et changement précoces des propriétés rhéologiques sont réversibles suite à la transfusion du CE, les protéines oxydées ne peuvent être réparées, et il est probable que de telles lésions affectent la qualité et l'efficacité des produits sanguins. In vivo, les GR sont constamment exposés à l'oxygène, et sont donc bien équipés pour résister aux lésions oxydatives. De plus, les complexes fonctionnels de proteasome 20S reconnaissent et dégradent les protéines modérément oxydées, et certaines protéines peuvent être éliminées par les microparticules. Cette thèse de doctorat est imbriquée dans un projet de recherche global ayant pour objectif la caractérisation des effets de la préparation et du stockage sur la qualité des GR. Evaluer les dommages oxydatifs du GR pendant le stockage est primordial pour comprendre les mécanismes de vieillissement des produits sanguin. Dans ce but, des recherches orientées redoxomique ont été conduites. Dans une première partie, l'oxydation des cystéines et la carbonylation des protéines sont évaluées par électrophorèse bidimensionnelle différentielle et par immunodétection de protéines dérivatisées. Ensuite, les protéines d'intérêt ainsi que les protéines carbonylées, purifiées par affinité, sont identifiées par spectrométrie de masse en tandem. Les protéines cibles de l'oxydation sont classées selon leur fonction moléculaire. Dans une troisième partie, l'activité protéolytique du protéasome 20S est suivie durant la période de stockage. L'impact du stress oxydant sur cette activité a été évalué en utilisant des protéines exogènes oxydées in vitro. Le potentiel rôle défensif de la microvesiculation a également été étudié par la quantification des protéines carbonylées éliminées. Dans ce travail, nous avons observé que différents groupes de protéines sont affectés par l'oxydation réversible ou irréversible de leurs cystéines. De plus, une diminution de la carbonylation en début de stockage dans les extraits solubles et une augmentation de la carbonylation après 4 semaines dans les extraits membranaires ont été montrées. Les fonctions moléculaires engagées par les protéines altérées montrent que les défenses antioxydantes sont oxydées de façon réversible sur leurs résidus cystéines, mais sont également irréversiblement carbonylées. Pendant ce temps, l'activité protéolytique du protéasome 20S décroit de 40 % en fin de stockage. L'incubation d'extraits de GR en début de stockage avec des protéines oxydées exogènes montre un effet inhibiteur « dose-dépendant » et « protéine-dépendant ». Enfin, les microvésicules s'avèrent éliminer des quantités croissantes de protéines carbonylées. La synthèse de ces résultats permet de modéliser une voie oxydative du stockage des GRs, à partir de laquelle de futures recherches seront menées avec pour but l'amélioration des conditions de stockage.
Resumo:
Résumé de la thèseLe présent travail analyse la notion d'autonomie en éthique biomédicale et en propose unecompréhension à partir des théories de la délibération éthique. La thèse s'articule en deux parties.La première partie consiste en l'examen de la conception de l'autonomie développée en éthiquebiomédicale. Notamment, on retrace les origines de la notion de l'autonomie du patient dans lecontexte états-unien, on analyse l'élaboration de l'autonomie sous la forme de principe éthique, etl'on considère les critiques qui lui ont été adressées. Cette première partie débouche sur la thèsesuivante: en éthique biomédicale, l'autonomie est pensée comme un outil pour la légitimation deschoix, des pratiques, ou des politiques de santé, non pas comme réflexion critique sur les raisonspour agir ou sur les conditions des choix. Le risque est que l'autonomie se réduise à un dispositif dereproduction des normes et des conditions de l'interaction, sans pour autant remettre en discussionla rationalité médicale qui prédispose les options de choix et qui justifie les pratiques et lespolitiques dans le contexte du soin. Cette conception de l'autonomie présuppose une théorie de ladélibération éthique «en troisième personne». Selon cette théorie, la délibération consiste en uneprise de distance du point de vue subjectif de l'agent, pour assumer un point de vue plus objectif: lepoint de vue d'un «spectateur» impartial. Ainsi, le but de la délibération éthique est l'élaboration deraisons morales objectives, partageables par toute personne raisonnable, pouvant générer unconsensus sur la justification des actions. Cette théorie de la délibération a une implicationimportante pour la conception de l'autonomie en éthique biomédicale: l'autonomie est représentéecomme un principe moral partageable, comme le résultat d'un processus d'abstraction réflexive.Selon une théorie de la délibération éthique différente, que l'on appelle «en première personne», onpeut apprécier la valeur de l'autonomie seulement du point de vue de l'«agent». Ainsi, l'autonomieest la véritable modalité de la délibération éthique, dont le but est la constitution de soi-même, deson intégrité et identité morale. Dans ce travail, on s'est donc demandé si et comment cette manièrede concevoir la délibération du point de vue de l'agent peut apporter quelque chose à lacompréhension de la valeur de l'autonomie personnelle en éthique biomédicale.La deuxième partie de la thèse explore deux modèles de l'autonomie en première personnedéveloppés dans le débat philosophique plus récent: le modèle «hiérarchique» et le modèle«constructiviste kantien». Les deux modèles débouchent sur une compréhension «monologique» del'autonomie, qui est centrée sur l'agent et qui ne tient pas suffisamment compte du contexterelationnel du soin. Pour apprécier la valeur de l'autonomie dans les relations intersubjectives il fautadopter une perspective différente, que l'on appelle «en deuxième personne». Selon cette théorie, ladélibération est un dialogue entre les agents et l'autonomie est issue d'une relation de respect etreconnaissance réciproque. Comme l'autonomie est toujours issue d'une relation de réciprocité,comme elle est essentiellement relationnelle, elle n'est pas une entreprise simplement singulièremais toujours et inévitablement plurielle, collective. Ainsi, l'autonomie peut représenter un idéalnon seulement personnel mais aussi public. Il s'agit d'un idéal qu'on peut adopter dans nos relationsréciproques, un idéal normatif qui nous demande d'interroger la praticabilité de l'autonomie, c'est-àdired'identifier les sources de sa vulnérabilité. Cette vulnérabilité se situe à trois niveaux: au niveaudes relations interpersonnelles, au niveau des pratiques et des institutions, et au niveau des liensd'appartenance à des communautés culturelles ou à des groupes sociaux, qui contribuent à définirles relations réciproques et donc l'exercice de l'autonomie. Ces trois sources de vulnérabilité del'autonomie se retrouvent, toutes les trois, dans le contexte du soin. Selon cette conception del'autonomie, le but de la délibération n'est ni l'élaboration des raisons objectives, ni simplement laconstitution de sa propre identité ou intégrité, quant plutôt la construction de notre monde social.Ainsi, l'autonomie est quelque chose dont on est responsables, quelque chose qui nous engage àentrer en dialogue avec l'autre comme interlocuteurs dans une communauté morale.
Resumo:
Le taux de retour au travail après greffe est généralement bas. Or, on sait que le retour au travail après greffe améliore la qualité de vie des transplantés. Le but de notre étude était donc de comprendre les raisons possibles à ce faible taux en montrant les facteurs professionnels, individuels ou médicaux pouvant l'influencer. Parmi les 61 greffés rénaux ou hépatiques suivis au centre de transplantation d'organe (CTO) du CHUV, 39% ont repris le travail après greffe. Trois facteurs étaient significatifs de retour au travail après greffe, à savoir «travail avant greffe», «diplôme» et «âge < 45 ans». Ainsi, il est utile pour la pratique médicale de connaître les facteurs potentiels influençant le retour au travail car cela permet d'évaluer, au stade prégreffe, les chances de retour au travail et si besoin de proposer des mesures spécifiques le favorisant.
Resumo:
Evaluer l'efficacité d'une thérapie ne devrait pas se limiter à en étudier l'impact sur différentes dimensions pertinentes. En effet, la recherche en psychothérapie insiste sur l'importance de développer des manuels thérapeutiques, afin de décrire ce que les thérapeutes font et donc comprendre ce qui est efficace, ainsi que des protocoles d'adhérence à ces manuels, afin de pouvoir évaluer si les intervenants font effectivement ce qu'ils prétendent faire. Cet article présente le manuel thérapeutique de l'Intervention systémique brève (ISB), un modèle d'intervention en six séances, utilisé dans une consultation pour couples et familles au Département de psychiatrie du CHUV à Lausanne. Ce modèle fait l'objet d'une recherche visant à évaluer son efficacité à court et moyen termes, au moyen de questionnaires remplis par les patients, évaluant différents niveaux : 1) les symptômes individuels, 2) la satisfaction conjugale, 3) la qualité des relations parentales, 4) la qualité des relations coparentales et 5) les relations familiales. L'ISB est un modèle intégratif des principales écoles de thérapie familiale systémique. Pour élaborer le manuel de l'ISB, nous nous sommes basés sur certains principes généraux communs aux différentes approches systémiques. La difficulté d'élaborer un tel manuel thérapeutique intégratif systémique sera discutée.
Resumo:
Métier de service, féminin, dévalorisé, peu qualifié et mal payé, voici le registre le plus fréquent sur lequel est évoqué le travail de service en restauration. Sans aucun doute, ces éléments caractérisent en partie l'activité professionnelle des serveuses et des serveurs de restaurant, mais ils ne suffisent pas à en cerner la spécificité et ne rendent que partiellement compte des différentes facettes du métier et du travail réalisé. La présente étude s'applique à repérer les ressorts de cette « entreprise humaine organisée » (Freidson, 1986) qu'est le métier de serveur/serveuse en restauration traditionnelle, mais dont l'organisation n'apparaît pas d'emblée, tant elle est peu formelle et formalisée. À partir d'une démarche empirique, et en croisant différentes approches - sociologie du travail, sociologie des groupes professionnels, sociologie des services et études genre -, elle donne à comprendre ce qui fait le métier de serveur et de serveuse en restauration commerciale traditionnelle et la spécificité du travail effectué par ces petites mains du service. La première partie de l'analyse cerne les multiples facettes du contenu du travail des serveuses et des serveurs en restauration et la particularité des relations de service entre la clientèle et le personnel. La seconde traite plus spécifiquement des relations sociales dans l'entreprise, tant horizontales - avec les collègues -, que verticales - avec le patron. Enfin la troisième partie met en évidence les principaux mécanismes de différenciation de la main-d'oeuvre, par l'analyse de la répartition des horaires de travail et l'examen des parcours professionnels des personnes interviewées. Au final, cette thèse dresse le profil sociologique d'un métier qui a, jusqu'ici, peu retenu l'attention des chercheur?e?s. Elle cerne finement la profonde ambivalence qui caractérise le métier de serveur/serveuse, tant au plan du travail effectué, des relations de travail, du rapport au client, des parcours professionnels et du rapport subjectif que les personnes entretiennent à l'égard de leur travail. Service marchand marqué par la combinaison d'une domesticité ancillaire et d'une forme de domesticité familiale ; activité manuelle et relationnelle, individuelle et collective, physique et psychique ; combinaison de routine et d'événement ; travail dont il faut effacer le caractère laborieux ; personnalisation de relations entre anonymes, sont un aperçu des résultats qui concourent à montrer que le métier de serveur/serveuse recouvre des réalités contrastées et combine des logiques qui peuvent apparaître comme fort éloignées, voire contradictoires. En réalité, ce métier est à l'interface entre l'univers salarial, artisanal et domestique et présente simultanément des caractéristiques propres aux différentes formes de mise au travail que sont le salariat, l'artisanat et le travail domestique. En étayant ce résultat, ma recherche plaide pour la nécessité d'une approche transversale et globalisante qui ne fonctionne pas sur des catégories d'analyse figées et hermétiques, définies a priori en fonction de l'objet étudié, mais reste ouverte pour permettre de saisir la complexité et l'hybridation des logiques à l'oeuvre dans toute activité professionnelle. Ainsi, outre la contribution qu'apporte cette recherche aux connaissances existantes sur un segment professionnel peu investigué jusqu'ici, elle contribue aussi à enrichir les analyses contemporaines du travail en suscitant une réflexion de plus large portée sur les approches et les conceptualisations possibles pour appréhender les activités de service.
Resumo:
RESUME L'objectif de cette étude est d'évaluer comment de jeunes médecins en formation perçoivent le risque cardiovasculaire de leurs patients hypertendus en se basant sur les recommandations médicales (« guidelines ») et sur leur jugement clinique. Il s'agit d'une étude transversale observationnelle effectuée à la Policlinique Médicale Universitaire de Lausanne (PMU). 200 patients hypertendus ont été inclus dans l'étude ainsi qu'un groupe contrôle de 50 patients non hypertendus présentant au moins un facteur de risque cardiovasculaire. Nous avons comparé le risque cardiovasculaire à 10 ans calculé par un programme informatique basé sur l'équation de Framingham. L'équation a été adaptée pour les médecins par l'OMS-ISH au risque perçu, estimé cliniquement par les médecins. Les résultats de notre étude ont montrés que les médecins sous-estiment le risque cardiovasculaire à 10 ans de leurs patients, comparé au risque calculé selon l'équation de Framingham. La concordance entre les deux méthodes était de 39% pour les patients hypertendus et de 30% pour le groupe contrôle de patients non hypertendus. La sous-estimation du risque. cardiovasculaire pour les patients hypertendus était corrélée au fait qu'ils avaient une tension artérielle systolique stabilisée inférieure a 140 mmHg (OR=2.1 [1.1 ;4.1]). En conclusion, les résultats de cette étude montrent que les jeunes médecins en formation ont souvent une perception incorrecte du risque cardiovasculaire de leurs patients, avec une tendance à sous-estimer ce risque. Toutefois le risque calculé pourrait aussi être légèrement surestimé lorsqu'on applique l'équation de Framingham à la population suisse. Pour mettre en pratique une évaluation systématique des facteurs de risque en médecine de premier recours, un accent plus grand devrait être mis sur l'enseignement de l'évaluation du risque cardiovasculaire ainsi que sur la mise en oeuvre de programme pour l'amélioration de la qualité.
Resumo:
On the efficiency of recursive evaluations with applications to risk theoryCette thèse est composée de trois essais qui portent sur l'efficacité des évaluations récursives de la distribution du montant total des sinistres d'un portefeuille de polices d'assurance au cours d'un période donnée. Le calcul de sa fonction de probabilité ou de quantités liées à cette distribution apparaît fréquemment dans la plupart des domaines de la pratique actuarielle.C'est le cas notamment pour le calcul du capital de solvabilité en Suisse ou pour modéliser la perte d'une assurance vie au cours d'une année. Le principal problème des évaluations récursives est que la propagation des erreurs provenant de la représentation des nombres réels par l'ordinateur peut être désastreuse. Mais, le gain de temps qu'elles procurent en réduisant le nombre d'opérations arithmétiques est substantiel par rapport à d'autres méthodes.Dans le premier essai, nous utilisons certaines propriétés d'un outil informatique performant afin d'optimiser le temps de calcul tout en garantissant une certaine qualité dans les résultats par rapport à la propagation de ces erreurs au cours de l'évaluation.Dans le second essai, nous dérivons des expressions exactes et des bornes pour les erreurs qui se produisent dans les fonctions de distribution cumulatives d'un ordre donné lorsque celles-ci sont évaluées récursivement à partir d'une approximation de la transformée de De Pril associée. Ces fonctions cumulatives permettent de calculer directement certaines quantités essentielles comme les primes stop-loss.Finalement, dans le troisième essai, nous étudions la stabilité des évaluations récursives de ces fonctions cumulatives par rapport à la propagation des erreurs citées ci-dessus et déterminons la précision nécessaire dans la représentation des nombres réels afin de garantir des résultats satisfaisants. Cette précision dépend en grande partie de la transformée de De Pril associée.
Resumo:
Deux ans après la création du poste d'infirmier au sein du Service de psychiatrie de liaison du Centre hospitalier universitaire de Lausanne (CHUV), nous rendons compte ici de cette nouvelle pratique. En portant un regard extérieur sur les équipes infirmières, il s'agit de définir l'implication des difficultés relationnelles qu'elles peuvent rencontrer auprès d'un malade. Ce vécu difficile peut être influencé par des facteurs de stress liés au contexte des soins somatiques aigus, ceux-ci pouvant se surajouter à une problématique relationnelle ou psychiatrique. Nous postulons que l'infirmier en psychiatrie de liaison, de par sa position particulière (tiers extérieur, thérapeute, médiateur-traducteur) que nous définissons dans cet article, permet d'offrir des espaces intermédiaires de réflexions quant à une recherche de compréhension d'une relation soignant-soigné et de proposer des outils spécifiques aux équipes infirmières.
Resumo:
Plusieurs études ont souligné que la qualité de l'attachement aurait un rôle à jouer dans les répercussions psychologiques d'événements potentiellement traumatiques, tels que l'abus sexuel. Cette étude se propose d'investiguer le rôle médiateur de l'attachement sur l'association entre abus sexuel, survenu dans l'enfance et/ou l'adolescence, et expériences dissociatives chez des femmes adultes. Deux groupes ont été comparés, l'un de 28 femmes ayant vécu des expériences d'abus sexuel dans l'enfance et l'autre composé de 15 femmes témoin qui n'ont pas connu ce type d'expérience. Les femmes qui ont vécu des abus sexuels pendant l'enfance obtiennent des scores significativement plus élevés de dissociation, en comparaison à des femmes témoin. Les femmes abusées ont des scores plus élevés d'attachement « insécure » et plus particulièrement « craintif» tels que définis dans le modèle de Bartholomew et Horowitz (1991). Finalement, les analyses de médiation, utilisant la procédure de Baron et Kenny (1986), indiquent que l'attachement « craintif» a un effet médiateur sur le lien entre abus sexuel et dissociation. Cette forme d'attachement représenterait ainsi un facteur de vulnérabilité pour des troubles dissociatifs chez des individus confrontés à des événements potentiellement traumatisants.
Resumo:
La mort subite d'origine cardiaque chez les sportifs : les Recommandations de Lausanne Résumé Objectifs : Cette étude collecte les données de la littérature scientifique concernant la mort subite d'origine cardiaque chez les sportifs et a pour but d'aboutir à un protocole d'investigation de préparticipation globalement acceptable, approuvé par la conférence de consensus du Comité International Olympique(CIO), et recommandé par ce dernier. Données cliniques : La mort subite chez les athlètes de moins de 35 ans, engagés dans des sports de compétition,. est un évènement bien connu, dont l'incidence est plus élevée (~2/100000/an) que chez les non-athlètes (2,5 :1). La cause est cardiovasculaire dans plus de 90% des cas. Méthodes : Une revue systématique de la littérature a mis en évidence les causes de mort subite d'origine cardiaque, le sexe, l'âge, les maladies cardiaques sous-jacentes et le type de sport, ainsi que les protocoles d'investigation de préparticipation utilisés. Les méthodes nécessaires pour détecter des anomalies cardiaques préexistantes sont discutées pour formuler un protocole d'investigation de préparticipation pour la commission médicale du CIO. (http://www.olympic.org/uk/organisation/commissions/medical/full_ story_ uk.asp?id=1182) Résultats: 1101 cas de mort subite d'origine cardiaque ont été rapportés (1966-2004) chez des athlètes de moins de 35 ans, 50% présentant des anomalies cardiaques congénitales et des cardiomyopathies et 10% une athérosclérose à début précoce. 40% des athlètes avaient moins de 18 ans, 33% moins de 16 ans ; le rapport femme/homme était de 1/9. La mort subite d'origine cardiaque était reportée dans presque tous les sports ; ceux impliqués le plus fréquemment étaient le football(30%), le basketball(25%), et la course à pied(15%). Les tests de préparticipation étaient de qualité et de contenu variables. La conférence de consensus du CIO a accepté les «Recommandations de Lausanne » proposées, basées sur cette recherche et des opinions d'experts. (http://multimedia.olympic.org/pdf/en_report_886.pdf) Conclusions : La mort subite d'origine cardiaque touche plus souvent qu'attendu les jeunes athlètes et est principalement due à des anomalies cardiaques congénitales préexistantes. Les atteintes athérosclérotiques précoces forment une autre cause importante de décès chez les jeunes adultes. L'acceptation par le CIO de «Recommandations de Lausanne » a permis d'aboutir à un protocole d'investigation de préparticipation globalement acceptable .
Resumo:
Enjeux et contexte : Dans les questions de santé mentale, internet constitue de plus en plus une source d'information pour les personnes souffrant de troubles psychiatriques ainsi que de leurs proches. D'autre part, le trouble obsessionnel compulsif revêt une importance grandissante et bénéficie d'un intérêt croissant en raison de sa fréquence et de la charge qu'il représente pour le patient et pour la société. Les patients souffrant de trouble obsessionnel compulsif, qu'ils soient diagnostiqués ou non, ainsi que leurs proches peuvent être amenés à rechercher une information de bonne qualité sur net sur le sujet. Cette étude vise à évaluer la qualité de l'information issue de l'internet concernant les sites anglophones traitant du trouble obsessionnel compulsif et de comparer les résultats des requêtes en utilisant un moteur de recherche général (Google) à celles obtenues avec un moteur de recherche spécialisé (Omni Medical Search). Des mots-clés relatifs au trouble obsessionnel compulsif ont été introduits dans Google et Omni Medical Search. Les sites retenus ont été évalués selon leur responsabilité, interactivité, lisibilité et la qualité de leur contenu. Le Label HON et la version brève de l'échelle DISCERN ont été utilisés comme indicateurs possibles de la qualité du contenu. Sur les 235 adresses retrouvées, 53 sites retenus ont été analysés. Résultats : La qualité du contenu des sites examinés est relativement bonne. L'utilisation d'un moteur de recherche spécialisé ne constitue pas un avantage par comparaison au moteur général utilisé par la grande majorité des internautes. Un score > 16 de la version brève du DISCERN est associé à une meilleure qualité du contenu. En conclusion : cette étude montre que le contenu des sites web concernant le trouble obsessionnel compulsif est acceptable. L'utilisation d'un moteur de recherche spécialisé n'offre pas d'avantage par rapport à Google. Comme implications pratiques : internet renferme des sites de haute qualité sur le trouble obsessionnel compulsif. L'accès à ces sites ne nécessite pas l'utilisation d'un moteur de recherche spécialisé. En revanche, une discussion entre le patient et le soignant à propos de l'information disponible sur internet demeure indispensable Perspectives : en dépit des limitations de notre étude, on peut dire que l'information contenue dans le web concernant le trouble obsessionnel compulsif est acceptable. Le contenu et la présentation de cette information pourraient être améliorés. Quant à l'internaute qui cherche une information de qualité, il pourrait être guidé par deux éléments : le HON et la version brève du DISCERN.
Resumo:
Le Programme de dépistage du cancer du sein BEJUNE a démarré en mai 2005 dans le canton du Jura, s'est étendu au canton de Neuchâtel en mai 2007 et englobe le Jura bernois depuis janvier 2009. Ses buts sont de promouvoir, organiser, gérer et mener à bien une action de dépistage auprès de la population féminine dans la tranche d'âge de 50 à 69 ans révolus (environ 42'000 femmes). [...] Ce rapport constitue, après 5 ans et demi d'activité, la première évaluation épidémiologique du Programme de dépistage du cancer du sein BEJUNE. Cette évaluation a été réalisée par l'Unité d'épidémiologie du cancer (UEC) de l'Institut universitaire de médecine sociale et préventive de Lausanne (IUMSP) qui jouit d'une longue expérience dans le domaine. Dans ce rapport, on analyse le fonctionnement, la participation, la qualité et l'efficacité précoce du programme. Les indicateurs de performance retenus suivent les recommandations européennes et les directives émises par la Fédération suisse des programmes de dépistage du cancer du sein. Entre mai 2005 et novembre 2010, plus de 37'000 mammographies ont été réalisées dans 11 Centres/Instituts de radiologie. Les 6750 examens effectués annuellement correspondent à un volume de 420 mammographies par radiologue: 380 pour les 1e lecteurs et 1300 pour les 2e lecteurs (auxquels s'ajoutent les lectures réalisées dans le cadre d'un autre programme cantonal). [...] [Auteurs, p. 5]