460 resultados para Évaluation des soins intégrés


Relevância:

100.00% 100.00%

Publicador:

Resumo:

l'imagerie par résonance magnétique (IRMC) est une technologie utilisée depuis les aimées quatre¬-vingts dans le monde de la cardiologie. Cette technique d'imagerie non-invasive permet d'acquérir Ses images du coeur en trois dimensions, dans n'importe quel, plan, sans application de radiation, et en haute résolution. Actuellement, cette technique est devenue un référence dans l'évaluation et 'l'investigation de différentes pathologies cardiaques. La morphologie cardiaque, la fonction des ventricules ainsi que leur contraction, la perfusion tissulaire ainsi que la viabilité tissulaire peuvent être caractérisés en utilisant différentes séquences d'imagerie. Cependant, cette technologie repose sur des principes physiques complexes et la mise en pratique de cette technique se heurte à la difficulté d'évaluer un organe en mouvement permanent. L'IRM cardiaque est donc sujette à différents artefacts qui perturbent l'interprétation des examens et peuvent diminuer la précision diagnostique de cette technique. A notre connaissance, la plupart des images d'IRMC sont analysées et interprétées sans évaluation rigoureuse de la qualité intrinsèque de l'examen. Jusqu'à présent, et à notre connaissance, aucun critère d'évaluation de la qualité des examens d'IRMC n'a été clairement déterminé. L'équipe d'IRMC du CHUV, dirigée par le Prof J. Schwitter, a recensé une liste de 35 critères qualitatifs et 12 critères quantitatifs évaluant la qualité d'un examen d'IRMC et les a introduit dans une grille d'évaluation. L'objet de cette étude est de décrire et de valider la reproductibilité des critères figurant dans cette grille d'évaluation, par l'interprétation simultanée d'examens IRMC par différents observateurs (cardiologues spécialisés en IRM, étudiant en médecine, infirmière spécialisée). Notre étude a permis de démontrer que les critères définis pour l'évaluation des examens d'IRMC sont robustes, et permettent une bonne reproductibilité intra- et inter-observateurs. Cette étude valide ainsi l'utilisation de ces critères de qualité dans le cadre de l'imagerie par résonance magnétique cardiaque. D'autres études sont encore nécessaires afin de déterminer l'impact de la qualité de l'image sur la précision diagnostique de cette technique. Les critères standardisés que nous avons validés seront utilisés pour évaluer la qualité des images dans le cadre d'une étude à échelle européenne relative à l'IRMC : "l'EuroCMR registry". Parmi les autres utilités visées par ces critères de qualité, citons notamment la possibilité d'avoir une référence d'évaluation de la qualité d'examen pour toutes les futures études cliniques utilisant la technologie d'IRMC, de permettre aux centres d'IRMC de quantifier leur niveau de qualité, voire de créer un certificat de standard de qualité pour ces centres, d'évaluer la reproductibilité de l'évaluation des images par différents observateurs d'un même centre, ou encore d'évaluer précisément la qualité des séquences développées à l'avenir dans le monde de l'IRMC.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article présente les risques liés aux transitians de soins et en particulier hospitalo-ambulatoires, qui, sans mesure d'accompagnement proactive, menacent le processus de rétablissement des personnes souffrant de troubles psychiatriques. En effet, les risques de rupture des soins et de réadmission sont davantage liés aux caractéristiques du système sociosanitaire qu'à celles du patient ou de la maladie. Des mesures d'accompagnement simples ne sont pas systématiques dans le domaine de la psychiatrie, alors même que ces patients sont particulièrement vulnérables dans les périodes de post-hospitalisation souvent synonymes de barrières au traitement. Le modèle de case management de transition développé à Lausanne est brièvement présenté et illustré au moyen d'une vignette clinique. Ses particularités sont notamment le recours systématique à certains outils soutenant le rétablissement et l'implication active du patient et de son entourage depuis l'hospitalisation jusqu'au retour dans la communauté.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de synthèse : La présence de trois canaux d'eau, appelés aquaporines AQP1, AQP4 et AQP9, a été observée dans le cerveau sain ainsi que dans plusieurs modèles des pathologies cérébrales des rongeurs. Peu est connu sur la distribution des AQP dans le cerveau des primates. Cette connaissance sera utile pour des futurs essaies médicamenteux qui visent à prévenir la formation des oedèmes cérébraux. Nous avons étudié l'expression et la distribution cellulaire des AQP1, 4 et 9 dans le cerveau primate non-humain. La distribution des AQP4 dans le cerveau primate non-humain a été observée dans des astrocytes périvasculaires, comparable à l'observation faite dans le cerveau du rongeur. Contrairement à ce qui a été décrit chez le rongeur, l'AQPI chez le primate est exprimée dans les processus et dans les prolongations périvasculaires d'un sous-type d'astrocytes, qui est avant tout localisé dans la matière blanche et dans la glia limitans et qui est peut-être impliqué dans l'homéostasie de l'eau. L'AQPI a aussi été observée dans les neurones qui innervent des vaisseaux sanguins de la pie-mère, suggérant un rôle possible dans la régularisation de la vascularisation cérébrale. Comme décrit chez le rongeur, le mRNA et les protéines de l'AQP9 ont été détectés dans des astrocytes et dans des neurones catécholaminergiques. Chez le primate, des localisations supplémentaires ont été observées dans des populations de neurones placées dans certaines zones corticales. Cet article décrit une étude détaillée sur la distribution des AQP1, 4 et 9 dans le cerveau primate non-humain. Les observations faites s'additionnent aux data déjà publié sur le cerveau du rongeur. Ces importantes différences entre les espèces doivent être considérées dans l'évaluation des médicaments qui agiront potentiellement sur des AQP des primates non-humains avant d'entrer dans la phase des essais cliniques sur des humains.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article vise à montrer comment chercheurs et cliniciens peuvent collaborer et s'enrichir mutuellement en utilisant la «consultation systémique», en deux séances, dont le but est l'évaluation des interactions familiales, avec mise en lumière des ressources comme des difficultés de la famille. Lors d'une première rencontre, les questions qui motivent les parents et/ou le(s) thérapeute(s) à consulter sont formulées et la famille est invitée à faire des jeux familiaux semi-standardisés qui sont filmés. Lors d'une deuxième rencontre réunissant les mêmes personnes, un visionnement d'extraits des films sert de base aux réponses des chercheurs et à une discussion commune. Une vignette clinique, concernant des violences intrafamiliales, illustrera la richesse et l'utilité de ces consultations et montrera qu'une collaboration entre chercheurs et cliniciens est fructueuse pour toutes les parties concernées.

Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Dans la maladie de Crohn, le clinicien ne dispose pas toujours d'études prospectives randomisées ou autres preuves solides sur lesquelles appuyer sa décision thérapeutique. Pour pallier ce manque, la méthode RAND, qui combine une revue détaillée de la littérature et une synthèse méthodique de l'opinion d'experts, a été utilisée pour développer des critères détaillés d'adéquation de traitements pour les différentes présentations cliniques de la maladie de Crohn. La présente étude a eu pour but d'examiner la faisabilité d'une utilisation rétrospective de ces critères dans une cohorte de patients souffrant de maladie de Crohn. Les dossiers médicaux des patients ayant consulté leur spécialiste au moins une fois dans les 6 mois précédents ont été revus à la recherche des éléments établis par les experts. Pour les dossiers contenant tous les éléments nécessaires, l'adéquation des divers traitements a été évaluée. Les dossiers médicaux de 260 patients suivis par 22 gastro-entérologues ont été examinés. 116 patients ont été exclus pour absence de consultation dans les 6 mois précédents. 136 patients (53%) représentant 148 consultations ont été retenus. Dans plus de 90% des cas, les éléments nécessaires à l'évaluation de l'adéquation du traitement étaient disponibles, cette proportion variant quelque peu selon la catégorie de la maladie. En appliquant les critères lorsque les éléments nécessaires étaient présents dans le dossier médical, 18% des indications aux traitements étaient appropriées, 29% inappropriées et pour 38% l'indication était incertaine. Pour 15% des cas, la situation clinique rencontrée n'avait pas été explicitement évaluée par les experts. Les informations nécessaires à l'évaluation des indications aux divers traitements de la maladie de Crohn sont disponibles dans la très grande majorité des dossiers médicaux, permettant ainsi l'évaluation de l'adéquation des traitements. Cette étude ouvre la voie à l'utilisation prospective de ces critères.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUME BUT Cette étude a été menée sur le suivi de patients traités pour un glioblastome nouvellement diagnostiqué. Son objectif a été de déterminer l'impact des séquences de perfusion et de diffusion en imagerie par résonance magnétique (IRM). Un intérêt particulier a été porté au potentiel de ces nouvelles techniques d'imagerie dans l'anticipation de la progression de la maladie. En effet, l'intervalle de temps libre de progression est une mesure alternative de pronostic fréquemment utilisée. MATERIEL ET METHODE L'étude a porté sur 41 patients participant à un essai clinique de phase II de traitement par temozolomide. Leur suivi radiologique a comporté un examen IRM dans les 21 à 28 jours après radiochimiothérapie et tous les 2 mois par la suite. L'évaluation des images s'est faite sur la base de l'évaluation de l'effet de masse ainsi que de la mesure de la taille de la lésion sur les images suivantes : T1 avec produit de contraste, T2, diffusion, perfusion. Afin de déterminer la date de progression de la maladie, les critères classiques de variation de taille adjoints aux critères cliniques habituels ont été utilisés. RESULAT 311 examens IRM ont été revus. Au moment de la progression (32 patients), une régression multivariée selon Cox a permis de déterminer deux paramètres de survie : diamètre maximal en T1 (p>0.02) et variation de taille en T2 (p<0.05). L'impact de la perfusion et de la diffusion n'a pas été démontré de manière statistiquement significative. CONCLUSION Les techniques de perfusion et de diffusion ne peuvent pas être utilisées pour anticiper la progression tumorale. Alors que la prise de décision au niveau thérapeutique est critique au moment de la progression de la maladie, l'IRM classique en T1 et en T2 reste la méthode d'imagerie de choix. De manière plus spécifique, une prise de contraste en T1 supérieure à 3 cm dans son plus grand diamètre associée à un hypersignal T2 en augmentation forment un marqueur de mauvais pronostic.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il a été montré que l'adhérence à un traitement antidépresseur varie entre 30 et 70%. Le but de cette étude était de comparer, dans un groupe de 144 patients ambulatoires avec un trouble de l'humeur et/ou un trouble anxieux traités avec des antidépresseurs, l'auto- estimation de l'adhérence avec l'estimation de l'adhérence par le médecin, ainsi qu'avec l'alliance thérapeutique. Les scores d'adhérence estimés par les patients et par les médecins étaient significativement différents, les médecins sous-estimant l'adhérence dans 29% des cas et la surestimant dans 31% des cas en comparaison avec l'évaluation des patients. L'adhérence mesurée par les taux plasmatiques des médicaments, malgré qu'elle soit plus élevée que prévue si on se réfère à des études publiées précédemment, était en accord avec les scores auto-estimés par les patients mais pas avec les scores estimés par les médecins. Finalement les scores d'alliance thérapeutique estimés par les patients et par les médecins n'étaient pas liés à l'auto-déclaration d'adhérence.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de synthèse : La satisfaction des patients concernant leur prise en charge fait maintenant partie intégrante de la qualité des soins. Elle a été évaluée à maintes reprises chez des patients adultes ou pédiatriques, mais rarement chez des patients adolescents. Les attentes des adolescents par rapport aux services de soins ont par contre été souvent étudiées et certains facteurs semblent particulièrement importants. Parmi ceux-ci, citons la confidentialité, le respect, l'honnêteté, l'écoute, l'accès aux soins ou le fait d'avoir des informations compréhensibles. L'Organisation Mondiale de la Santé a développé le concept de 'Youth-friendly health services' pour répondre aux besoins et attentes particuliers des adolescents. Il est basé sur sept principes : l'accessibilité, l'équité, l'efficience, l'efficacité, le fait d'être approprié et compréhensible. Notre objectif était d'évaluer la satisfaction des adolescentes consultant dans une clinique multidisciplinaire pour adolescents basée sur le modèle 'Youth-friendly health services' et de déterminer les facteurs qui y sont associés. Nous avons fait une enquête transversale dans une clinique pour adolescents à Lausanne entre mars et mai 2008 moyennant un questionnaire anonyme auto-administré. Tous les patients qui avaient consulté au moins une fois auparavant étaient éligibles. Nous avons ensuite éliminé les garçons, en très petit nombre et donc de faible valeur statistique. Trois cents onze patientes âgées de 12 à 22 ans ont été inclues dans l'étude. Nous avons effectué des analyses bivariées pour comparer les patientes satisfaites et non satisfaites puis avons construit un modèle log- linéaire afin de déterminer les facteurs directement ou indirectement liés à la satisfaction des patientes. Nonante-quatre pourcent des patientes étaient satisfaites. Les facteurs significativement associés à la satisfaction des adolescentes étaient les suivants : Les jeunes filles se sentaient plus écoutées en ce qui concerne leurs plaintes, et avaient plus l'impression que le soignant les comprenait. Elles avaient aussi moins changé de soignant durant le suivi, avaient plus l'impression d'avoir bénéficié du traitement adéquat et pensaient avoir plus suivi les conseils du soignant. Le modèle log-linéaire que nous avons effectué a mis en avant quatre facteurs directement liés à la satisfaction des patientes, qui sont la continuité des soins, le résultat de la prise en charge, l'adhérence au traitement et le sentiment d'être comprise par le soignant. Ces résultats mettent en avant l'importance de la relation interpersonnelle entre le soignant et le patient, mais rendent aussi attentif à des aspects qui pourraient être améliorés, en ce qui concerne par exemple la continuité des soins. En effet, une clinique comme la nôtre fait partie d'un hôpital de formation et le tournus fréquent des soignants est inévitable. Les changements de médecins et autres soignants devraient alors être préparés et expliqués aux patients avec la plus grande attention. L'adhérence au traitement semble être fortement liée à la satisfaction des patients, mais la nature de notre étude ne permet pas de conclure à une relation de cause à effet. Nous pouvons tout de même supposer qu'elle est une conséquence de la satisfaction des patients. Enfin, la confidentialité et l'accès aux soins souvent cités comme essentiels à la satisfaction des patients dans la littérature étaient secondaires dans notre étude. En conclusion, la satisfaction des adolescentes était principalement basée sur une relation de confiance de longue durée avec leurs soignants. Les pédiatres occupent une place privilégiée pour répondre à ces besoins parce qu'ils connaissent leurs patients depuis l'enfance. Ils devraient cependant garder à l'esprit que la relation avec le patient change au moment de l'adolescence et que les jeunes sont très sensibles à la relation de confiance interpersonnelle qu'ils ont avec leur médecin.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A la demande d'une quarantaine de médecins du travail préoccupés par les conditions de travail dans les centres d'appels téléphoniques (CT) et la santé des téléopérateurs (TO), une enquête épidémiologique a été conduite par l'INRS.Il s'agit d'étudier, chez des TO, les relations entre, d'une part des contraintes de travail perçues et des marqueurs de santé et d'autre part, des facteurs organisationnels (FO) déclarés par les responsables de plateaux et des contraintes au travail perçues par les TO. Il s'agissait donc de mettre en évidence les caractéristiques organisationnelles qui ont des conséquences, via les contraintes, sur la santé en tenant compte des principaux facteurs de confusion.Quatorze FO ont été identifiés comme étant les plus souvent associés aux contraintes. Par ailleurs cette étude met en évidence que les relations entre FO et marqueurs de santé ne sont pas directes et passent le plus souvent par la perception des contraintes.Malgré son caractère transversal, cette étude permet de conclure sur le rôle de certains FO et l'implication de certaines contraintes dans l'apparition de problèmes de santé ouvrant des perspectives de prévention primaire et secondaire tant individuelle (dépistage, surveillance...) que collective (évaluation des conditions de travail et de la santé).Le questionnaire sur les caractéristiques organisationnelles, spécialement élaboré, sera bientôt accessible, et pourra être un instrument utile pour les évaluations de terrain. [Auteurs]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prévalence du diabète peut être estimée entre 20 et 30% parmi les patients en hôpital aigu. Il a été démontré que l'hyperglycémie, même modérée, est associée à une augmentation de la morbi-mortalité hospitalière, tandis que le contrôle glycémique efficace a un impact favorable sur celle-ci. La prise en charge de l'hyperglycémie demeure pourtant largement inefficace hors des soins intensifs, en raison de la persistance d'une pratique inadaptée. Nous développons actuellement un projet de soins destiné à faire changer les pratiques. Pour un contrôle glycémique efficace, une formation des soignants à une gestion basée sur le concept de couverture des besoins en insuline du patient est nécessaire. La démarche doit être intégrée à une approche de type systémique, prenant en compte le contexte dans lequel les soignants évoluent. The hospital inpatient prevalence of diabetes mellitus can be estimated between 20 and 30%. Even moderate hyperglycemia is associated with increased morbidity and mortality in the acute care setting, whereas efficient glycemic control has been shown to improve both of them significantly. Glycemic control however remains largely inefficient outside of the intensive care unit due to the persistance of an inadequate glycemic management practice. We are currently developing a clinical care project aimed at changing this practice. For an efficient glycemic control, a training programme for health care professionals based on the concept of covering the insulin needs of the patient is mandatory. This programme needs to be integrated in a systemic approach, which takes the professionals' context in account.