513 resultados para mesure ordinale
Resumo:
Le développement de méthodes de mesure de la qualité des soins et les actions visant à son amélioration font partie intégrante de la pratique quotidienne. Les infections nosocomiales représentent un Indicateur Incontournable et leur prévention apparaît comme un champ d'action privilégié du concept de l'amélioration continue de la qualité des soins. Dans ce domaine, de nombreuses mesures ont fait l'objet d'études répondant à des critères méthodologiques de qualité élevée, dont les résultats sont hautement significatifs au plan statistique. Les interventions complexes concernant par exemple l'ensemble des patients d'un service ou d'une institution ne permettent que difficilement de satisfaire à ces exigences méthodologiques. Sous certaines conditions, elle peuvent cependant avoir un impact réel et parfois durable sur la qualité des soins. A titre d'exemple, nous discutons deux interventions complexes dans le domaine de la prévention des infections nosocomiales, résultant de démarches visant à une amélioration globale et durable de la qualité des soins. L'utilisation d'outils épidémiologiques adaptés permet également d'estimer le bénéfice des Interventions en milieu hospitalier conformément à ce que la communauté scientifique reconnaît comme étant une recherche clinique de qualité.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.
Resumo:
Rapport de synthèse: Les rendez-vous manqués représentent un problème important, tant du point de vue de la santé des patients que du point de vue économique. Pourtant peu d'études se sont penchées sur le sujet, particulièrement dans une population d'adolescents. Les buts de cette étude étaient de caractériser les adolescents qui sont à risque de manquer ou d'annuler leurs rendez-vous dans une clinique ambulatoire de santé pour adolescents, de comparer les taux des rendez-vous manqués et annulés entre les différents intervenants et d'estimer l'efficacité d'une politique de taxation des rendez-vous manqués non excusés. Finalement, un modèle multi-niveau markovien a été utilisé afin de prédire le risque de manquer un rendez-vous. Ce modèle tient compte du passé de l'adolescent en matière de rendez-vous manqués et d'autres covariables et permet de grouper les individus ayant un comportement semblable. On peut ensuite prédire pour chaque groupe le risque de manquer ou annuler et les covariables influençant significativement ce risque. Entre 1999 et 2006, 32816 rendez-vous fixés pour 3577 patients âgés de 12 à 20 ans ont été analysés. Le taux de rendez-vous manqués était de 11.8%, alors que 10.9% avaient été annulés. Soixante pour cent des patients n'ont pas manqué un seul de leur rendezvous et 14% en ont manqué plus de 25%. Nous avons pu mettre en évidence plusieurs variables associées de manière statistiquement significative avec les taux de rendez-vous manqués et d'annulations (genre, âge, heure, jour de la semaine, intervenant thérapeutique). Le comportement des filles peut être catégorisé en 2 groupes. Le premier groupe inclut les diagnostiques psychiatriques et de trouble du comportement alimentaire, le risque de manquer dans ce groupe étant faible et associé au fait d'avoir précédemment manqué un rendez-vous et au délai du rendez-vous. Les autres diagnostiques chez les filles sont associés à un second groupe qui montre un risque plus élevé de manquer un rendez-vous et qui est associé à l'intervenant, au fait d'avoir précédemment manqué ou annulé le dernier rendez-vous et au délai du rendez-vous. Les garçons ont tous globalement un comportement similaire concernant les rendez-vous manqués. Le diagnostic au sein de ce groupe influence le risque de manquer, tout comme le fait d'avoir précédemment manqué ou annulé un rendez-vous, le délai du rendez-vous et l'âge du patient. L'introduction de la politique de taxation des rendez-vous non excusés n'a pas montré de différence significative des tàux de rendez-vous manqués, cependant cette mesure a permis une augmentation du taux d'annulations. En conclusion, les taux de présence des adolescents à leurs rendez-vous sont dépendants de facteurs divers. Et, même si les adolescents sont une population à risque concernant les rendez-vous manqués, la majorité d'entre eux ne manquent aucun de leurs rendez-vous, ceci étant vrai pour les deux sexes. Etudier les rendez-vous manqués et les adolescents qui sont à risque de rater leur rendez-vous est un pas nécessaire vers le contrôle de ce phénomène. Par ailleurs, les moyens de contrôle concernant les rendez-vous manqués devraient cibler les patients ayant déjà manqué un rendez-vous. La taxation des rendez-vous manqués permet d'augmenter les rendez-vous annulés, ce qui a l'avantage de permettre de fixer un nouveau rendez-vous et, de ce fait, d'améliorer la continuité des soins.
Resumo:
Objectifs: Comprendre les principes physique de la diffusion. Comprendre le principe de mesure de la diffusion par IRM. Ccomprendre la relation entre la diffusion de l'eau en milieu biologique et l'organisation de la matière blanche. Comprendre comment cartographier la connectivité cérébrale par irm de diffusion. Messages à retenir: Les propriétés de diffusion du tissu cérébral sont conditionnées par l'architecture axonale. La mesure de la diffusion par IRM permet de cartographier les trajectoires de fibres nerveuses et donc la connectivité cérébrale. La connectivité cérébrale peut être mesurés de manière non-invasive. Résumé: La "connectomique" est un domaine émergeant et prometteur des neurosciences qui utilise l'IRM de diffusion en combinaison avec des traitements algorithmiques avancés afin de mesurer les trajectoires de faisceaux de fibres et la connectivité cérébrale permettant d'étudier l'organisation de la structure du réseau neuronal cérébral dans son ensemble. Lors de ce cours nous reverrons les méthodes rendant cette cartographie possible et exposerons les techniques d'analyse utilisées pour obtenir de nouvelles informations sur l'architecture cérébrale. Nous reverrons également un certains nombre d'exemple d'applications où la connectomique offre une nouvelle manière d'analyser et de comprendre le fonctionnement du cerveau normal ou malade.
Resumo:
Résumé de la thèse en français Titre : Différence entre hommes et femmes dans la réponse à un inhibiteur de l'enzyme de conversion de l'angiotensine et un diurétique chez des patients hypertendus d'origine Africaine. Introduction: L'efficacité des inhibiteurs de l'enzyme de conversion de l'angiotensine (ACEI) dans le traitement de l'hypertension artérielle chez les patients africains est controversée. Objectif: Nous avons examiné la baisse de la tension artérielle ambulatoire (ABP) en réponse à un diurétique et un ACEI chez des patients hypertendus d'origine africaine et nous avons évalué les différentes caractéristiques déterminant l'efficacité du traitement. Méthodes: Etude en simple-aveugle randomisée, en crossover AB/BA. Arrangement Familles hypertendues d'origine africaine de la population générale des Seychelles. Participants : 52 patients (29 hommes et 23 femmes) sur 62 patients hypertendus éligibles ont été inclus. Le principal résultat était la mesure de la réponse de l'ABP à 20 mg de lisinopril (LIS) ou 25 mg d'hydrochlorothiazide (HCT) quotidiennement pendant quatre semaines. Résultats: Le jour, la réponse systolique/diastolique de l'ABP sous HCT était de 4.9 (95% intervalle de confiance (IC) 1.2-8.6)/3.6 (1.0-6.2) mm Hg pour les hommes et 12.9 (9.216.6)/6.3 (3.7-8.8) mm Hg pour les femmes. Sous LIS, la réponse était de 18.8 (15.022.5)/14.6 (12.0-17.1) mm Hg pour les hommes et de 12.4 (8.7-16.2)/7.7 (5.1-10.2) mm Hg pour les femmes. La nuit, la réponse systolique/diastolique sous HCT était de 5.0 (0.6-9.4)/2.7 ((-0.4)-5.7) mm Hg pour les hommes et de 11.5 (7.1-16.0)/5.7 (2.6-8.8) mm Hg pour les femmes, et sous LIS était de 18.7 (14.2-22.1)/15.4 (12.4-18.5) mm Hg pour les hommes et de 3.5 ((-1.0)-7.9)/2.3 ((-0.8)-5.4) mm Hg pour les femmes. L'analyse de régression linéaire multiple a montré que le sexe est un prédicteur indépendant de la réponse tensionnelle à l'HCT et au LIS. Conclusions : Les patients hypertendus d'origine africaine ont présenté une baisse tensionnelle plus grande en réponse au LIS qu'à l'HCT. Les hommes ont mieux répondu au LIS qu'à l'HCT alors que les femmes ont répondu de manière similaire aux deux traitements.
Resumo:
Ce guide présente la méthode Data Envelopment Analysis (DEA), une méthode d'évaluation de la performance . Il est destiné aux responsables d'organisations publiques qui ne sont pas familiers avec les notions d'optimisation mathématique, autrement dit de recherche opérationnelle. L'utilisation des mathématiques est par conséquent réduite au minimum. Ce guide est fortement orienté vers la pratique. Il permet aux décideurs de réaliser leurs propres analyses d'efficience et d'interpréter facilement les résultats obtenus. La méthode DEA est un outil d'analyse et d'aide à la décision dans les domaines suivants : - en calculant un score d'efficience, elle indique si une organisation dispose d'une marge d'amélioration ; - en fixant des valeurs-cibles, elle indique de combien les inputs doivent être réduits et les outputs augmentés pour qu'une organisation devienne efficiente ; - en identifiant le type de rendements d'échelle, elle indique si une organisation doit augmenter ou au contraire réduire sa taille pour minimiser son coût moyen de production ; - en identifiant les pairs de référence, elle désigne quelles organisations disposent des best practice à analyser.
Resumo:
Durant les dernières décennies, la recherche portant sur la motivation des fonctionnaires a été dominée par deux courants théoriques : l'approche dite des choix rationnels, et celle portant sur la motivation au service public. Dans l'environnement post-bureaucratique actuel, cette vision simplifiée, qui reflète aussi dans une certaine mesure la dichotomie « public-privé », ne reflète plus de manière adéquate la complexité et l'hétérogénéité des motivations des agents publics. Basée sur des données empiriques qualitatives et quantitatives, une typologie originale des motivations dans l'univers post-bureaucratique est développée et testée dans plusieurs organisations publiques suisses. Elle révèle des facteurs de motivations qui combinent de manière originale des éléments classiques de la bureaucratie avec d'autres sources de motivation caractéristiques de formes modernes d'administration publique.
Resumo:
Le fonctionnement du système nerveux est sensible aux variations de la concentration d'acide. Une acidification des tissus peut se produire pendant une activité neuronale intense ou dans des situations physiopathologiques telles que l'inflammation ou les lésions cérébrales. Les canaux ioniques sensibles à l'acide (ASIC) sont activés par acidification et jouent un rôle important dans la détection des changements d'acide. Les ASICs contribuent à la dégénérescence neuronale après une lésion cérébrale, puisque leur inhibition limite la lésion neuronale. L'acidification induite par une inflammation du tissu nerveux conduit à des stimuli de douleur, qui sont détectés par ces canaux. En effet, les toxines qui bloquent spécifiquement les ASICs montrent des effets analgésiques dans des modèles animaux. La structure 3D d'ASIC peut être comparée à une main qui tient une boule entre son pouce et le doigt. Les différents domaines d'ASIC sont appelés doigt, pouce, jointure, boule-ß et paume. Les domaines transmembranaires représentent le poignet de cette main. Mon projet de thèse vise à décrire les mouvements survenant sur ce canal pendant son activité. A cet effet, j'ai utilisé une technique combinée qui permet la mesure des mouvements en temps réel durant l'activité du canal. J'ai montré les réarrangements des domaines extracellulaires pendant l'activité ASIC. Ces mouvements sont transmis au pore du canal, ou ils contrôlent sa fermeture et ouverture. La direction de ces mouvements a été évaluée pour les domaines doigt et jointure, et nous avons montré qu'ils s'éloignent de la boule-ß lors de l'acidification. J'ai également été en mesure de décrire les mouvements qui se produisent dans la poche acidique, une zone qui est considérée comme importante, car elle représente le site de liaison de certaines toxines de venin qui agissent sur les ASICs. J'ai ainsi pu montrer que les domaines doigt et le pouce qui forment la poche acidique se rapprochent l'un de l'autre pendant l'activation du canal. Ces résultats sont en accord avec des observations précédentes réalisées sur les ASICs par d'autres chercheurs. Enfin, cette analyse approfondie permet d'améliorer les connaissances sur le contrôle de l'activité ASIC; de plus, les mécanismes trouvés ici sont probablement partagés entre les canaux de la famille à laquelle appartiennent les ASICs. -- Les acid-sensing ion channels (ASICs) sont des canaux sodiques ouverts par les protons et principalement exprimés dans le système nerveux. Ils sont impliqués dans la détection des protons dans de nombreux états physiologiques et pathologiques comme l'ischémie et la perception de la douleur. La structure cristalline de l'isoforme ASIC1 de poulet a été déterminée dans l'état désensibilisé et ouvert. Les études fonctionnelles indiquent que la protonation des résidus clés dans la boucle extracellulaire déclenche des changements de conformation conduisant à l'ouverture du canal. Cependant, les mécanismes moléculaires qui relient la protonation à l'ouverture et la fermeture du canal n'ont pas encore été clarifiés. Dans cette étude, nous avons utilisé la voltage-clamp fluorimétrie (VCF) pour révéler les mouvements de l'activité associée qui se produisent dans les différents domaines de l'ASICla. Les fluorophores positionnés dans le pouce, la paume, le doigt, l'articulation et dans les domaines de l'entrée du pore extracellulaire ont montré des signaux de VCF liés à des changements de conformation au cours de l'activité du canal. La synchronisation des changements de fluorescence indique une séquence complexe de mouvements en fonction du pH. La cinétique de la fluorescence et des signaux de courant ont été comparés les uns aux autres afin de déterminer si le mouvement détecté par le signal de fluorescence correspond à une transition fonctionnelle définie du canal. Certains des résidus testés se sont révélés être étroitement liés à la désensibilisation du canal ou au rétablissement après la désensibilisation. En outre, nous avons trouvé qu'un tryptophane endogène de la boule-ß diminue le signal de fluorescence des sondes positionnées dans les domaines doigt et jointure. L'augmentation observée de ces signaux indique que ces domaines s'éloignent à une distance à partir de la boucle de la boule-ß. Sur la base de ce principe, nous avons généré des paires Trp-Cys « quencher», dans lequel le Cys est utilisé comme site d'ancrage pour attacher le fluorophore. Ensuite, nous avons évalué les changements de conformation qui se produisent au niveau de la poche acide, une zone importante pour la fonction et la régulation d'ASIC. Les signaux de fluorescence indiquent un mouvement de l'hélice supérieure du pouce vers le doigt et une rotation de la boule-ß dans le sens horaire. L'analyse de la cinétique indique que les mouvements des sous-domaines qui composent la poche acide se produisent pendant la désensibilisation du canal. Mon projet de doctorat représente la première analyse approfondie des changements conformationnels dépendants de l'activité des ASICs et fournit des informations sur les mécanismes de contrôle de l'activité du canal qui sont probablement partagés avec d'autres canaux proches.
Resumo:
Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.
Resumo:
High fructose consumption is associated with obesity and characteristics of metabolic syndrome. This includes insulin resistance, dyslipidemia, type II diabetes and hepatic steatosis, the hepatic component of metabolic syndrome. Short term high fructose consumption in healthy humans is considered as a study model to increase intrahepatocellular lipids (IHCL). Protein supplementation added to a short term high fructose diet exerts a protective role on hepatic fat accumulation. Fructose disposal after an acute fructose load is well established. However, fructose disposal is usually studied when a high intake of fructose is ingested. Interaction of fructose with other macronutrients on fructose disposal is not clearly established. We wanted to assess how fructose disposal is modulated with nutritional factors. For the first study, we addressed the question of how would essential amino acid (EAA) supplemented to a high fructose diet have an impact on hepatic fat accumulation? We tried to distinguish which metabolic pathways were responsible for the increase in IHCL induced by high fructose intake and how those pathways would be modulated by EAA. After 6 days of hypercaloric high fructose diet, we observed, as expected an increase in IHCL modulated by an increase in VLDL-triglycerides and an increase in VLDL-13C-palmitate production. When adding a supplementation in EAA, we observed a decrease in IHCL but we could not define which mechanism was responsible for this process. With the second study, we were interested to observe fructose disposal after a test meal that contained lipid, protein and a physiologic dose of fructose co-ingested or not with glucose. When ingested with other macronutrients, hepatic fructose disposal is similar as when ingested as pure fructose. It induced oxidation, gluconeogenesis followed by glycogen synthesis, conversion into lactate and to a minor extent by de novo lipogenesis. When co- ingested with glucose decreased fructose oxidation as well as gluconeogenesis and an increased glycogen synthesis without affecting de novo lipogenesis or lactate. We were also able to observe induction of intestinal de novo lipogenesis with both fructose and fructose co- ingested with glucose. In summary, essential amino acids supplementation blunted increase in hepatic fat content induced by a short term chronic fructose overfeeding. However, EAA failed to improve other cardiovascular risk factors. Under isocaloric condition and in the frame of an acute test meal, physiologic dose of fructose associated with other macronutrients led to the same fructose disposal as when fructose is ingested alone. When co-ingested with glucose, we observed a decrease in fructose oxidation and gluconeogenesis as well as an increased in glycogen storage without affecting other metabolic pathways. - Une consommation élevée en fructose est associée à l'obésité et aux caractéristiques du syndrome métabolique. Ces dernières incluent une résistance à l'insuline, une dyslipidémie, un diabète de type II et la stéatose hépatique, composant hépatique du syndrome métabolique. À court terme une forte consommation en fructose chez l'homme sain est considérée comme un modèle d'étude pour augmenter la teneur en graisse hépatique. Une supplémentation en protéines ajoutée à une alimentation riche en fructose de courte durée a un effet protecteur sur l'accumulation des graisses au niveau du foie. Le métabolisme du fructose après une charge de fructose aiguë est bien établi. Toutefois, ce dernier est généralement étudié quand une consommation élevée de fructose est donnée. L'interaction du fructose avec d'autres macronutriments sur le métabolisme du fructose n'est pas connue. Nous voulions évaluer la modulation du métabolisme du fructose par des facteurs nutritionnels. Pour la première étude, nous avons abordé la question de savoir quel impact aurait une supplémentation en acides aminés essentiels (AEE) associé à une alimentation riche en fructose sur l'accumulation des graisses hépatiques. Nous avons essayé de distinguer les voies métaboliques responsables de l'augmentation des graisses hépatiques induite par l'alimentation riche en fructose et comment ces voies étaient modulées par les AEE. Après 6 jours d'une alimentation hypercalorique riche en fructose, nous avons observé, comme attendu, une augmentation des graisses hépatiques modulée par une augmentation des triglycérides-VLDL et une augmentation de la production de VLDL-13C-palmitate. Lors de la supplémentation en AEE, nous avons observé une diminution des graisses hépatiques mais les mécanismes responsables de ce processus n'ont pas pu être mis en évidence. Avec la seconde étude, nous nous sommes intéressés à observer le métabolisme du fructose après un repas test contenant des lipides, des protéines et une dose physiologique de fructose co-ingéré ou non avec du glucose. Lorsque le fructose était ingéré avec les autres macronutriments, le devenir hépatique du fructose était similaire à celui induit par du fructose pur. Il a induit une oxydation, suivie d'une néoglucogenèses, une synthèse de glycogène, une conversion en lactate et dans une moindre mesure une lipogenèse de novo. Lors de la co-ngestion avec du glucose, nous avons observé une diminution de l'oxydation du fructose et de la néoglucogenèse et une augmentation de la synthèse du glycogène, sans effet sur la lipogenèse de novo ni sur le lactate. Nous avons également pu mettre en évidence que le fructose et le fructose ingéré de façon conjointe avec du glucose ont induit une lipogenèse de novo au niveau de l'intestin. En résumé, la supplémentation en acides aminés essentiels a contrecarré l'augmentation de la teneur en graisse hépatique induite par une suralimentation en fructose sur le court terme. Cependant, la supplémentation en AEE a échoué à améliorer d'autres facteurs de risque cardiovasculaires. Dans la condition isocalorique et dans le cadre d'un repas test aiguë, la dose physiologique de fructose associée à d'autres macronutriments a conduit aux mêmes aboutissants du métabolisme du fructose que lorsque le fructose est ingéré seul. Lors de la co-ngestion avec le glucose, une diminution de l'oxydation du fructose est de la néoglucogenèse est observée en parallèle à une augmentation de la synthèse de glycogène sans affecter les autres voies métaboliques.
Resumo:
Résumé De nombreuses recommandations nationales et internationales sont publiées régulièrement qui définissent la manière dont les patients hypertendus devraient être pris en charge. Ces recommandations sont-elles suivies et applicables ? Dans cette étude transverse effectuée à la PMU à Lausanne, nous avons évalué la qualité de la prise en charge de 225 patients hypertendus suivis par des assistants en formation de médecine de premier recours. Ces 225 patients ont été retenus après une sélection de 1044 dossiers de la consultation générale de la PMU. Les résultats montrent que la moyenne des 3 dernières pressions artérielles était contrôlée dans 32,4% des cas à moins de 140/90 mmHg (TA systolique contrôlée à 42% et TA diastolique à 58%). 60% des patients ont eu une mesure de pression à chacune des 3 dernières consultations. 79% des mesures se terminaient par 0 ou par 5(théoriquement 20%). Le contrôle de la pression artérielle n'était pas statistiquement différent quelles que soient les comorbidités connues (diabète, insuffisance rénale ou insuffisance cardiaque). En conclusion, la qualité de la mesure et de la prise en charge de la TA par les médecins de premier recours en formation est comparable à celle retrouvée en pratique ambulatoire et pourrait être améliorée. Les recommandations basées sur la stratification des FRCV se heurtent à des problèmes dans leur application pratique. Le contrôle de la TA n'est pas meilleur chez les patients à haut risque cardio-vasculaire.
Resumo:
Plan du travail La première partie de cette thèse est consacrée à la tentative d'identifier les racines et lés contours d'une théorie de la vulnérabilité collective. Des approches théoriques et empiriques différentes sont exposées, et parfois revisitées, dans le but de proposer une perspective intégrative des sollicitations psychologiques particulières et des comportements sociaux caractéristiques d'un contexte de vulnérabilité collective. Dans le premier chapitre, les liens conceptuels entre les trois notions fondamentales de normes, de communautés et d'histoire sont explicités, afin de clarifier l'approche non-réductionniste des dynamiques collectives qui oriente le travail. Une attention particulière est accordée aux processus par lesquels des comportements sociaux orientés par des normes pertinentes au sein d'une communauté permettent de clarifier et de transformer des identités sociales (Reicher, 1982), voire de générer de nouveaux faits institutionnels (Searle, 1995). Il s'agit aussi de mettre en évidence l'apport potentiel d'une théorie qui se construit autour de l'articulation entre l'individu et son contexte social, à un débat épistémologique et méta-théorique entre psychologues sociaux, présent dès l'origine de la discipline (voire notamment Doise, 1982 ; Greenwood, 2004 ; Reicher, 2004 ; Tajfel, 1972). Les deux chapitres suivants proposent une logique explicative de la manière dont les membres d'une communauté, traversant une expérience de vulnérabilité collective, construisent une ligne d'action pour réagir aux sollicitations particulières d'un tel contexte social. Plus précisément, le chapitre 2 met en perspective des travaux de psychologie sociale sur le décalage entre l'identification d'injustices personnelles et l'identification d'injustices collectives, avec des travaux de sciences politiques sur le contraste entre l'irrationnalité apparente des comportements politiques compte tenu des situations de vie individuelles, et la rationnalité collective émergente de ces comportements en réaction à l'évolution de la situation collective. Le chapitre 3 met en perspective les travaux de psychologie sociale sur les motivations psychologiques et les stratégies mises en oeuvre afin de protéger la croyance fondamentale de vivre dans un monde juste, avec des travaux sociologiques rendant compte de l'incapacité humaine à supporter des situations d'anomie. Ces deux chapitres permettent ainsi d'étayer théoriquement l'hypothèse fondamentale qu'une expérience de vulnérabilité collective suscite des réactions qui dépassent la somme des réactions individuelles aux expériences personnelles de victimisation correspondantes. Ils amèneront à identifier deux types de comportements sociaux comme réactions typiques à un contexte de vulnérabilité collective : la contestation des dirigeants et des institutions du pouvoir établi, ainsi que la condamnation des transgressions des principes normatifs fragilisés. Lors des deux derniers chapitres de la partie théorique, ces phénomènes sont inscrits dans une temporalité plus longue. Le chapitre 4 tâche, d'une part, de préciser les conditions sociohistoriques particulières dans lesquelles la mise en cause du pouvoir établi et la réaffirmation de principes normatifs fragilisés amène à la reconnaissance que ces principes devraient s'appliquer également au traitement de personnes en dehors des frontières d'une communauté d'appartenance exclusive, ainsi qu'en particulier à la reconnaissance de droits universels. D'autre part, ce chapitre soulève la question des processus d'institutionnalisation qui stabilisent dans le temps les acquis normatifs résultant d'épisodes socio-historiques spécifiques, en particulier sous forme d'une inscription dans le droit international. L'idée est développée ainsi que c'est avant tout lors d'épisodes de problématisation d'identités exclusives que naît ou renaît l'aspiration à instituer une identité humaine. Le chapitre 5, finalement, introduit un second processus par lequel les acquis normatifs, résultant d'épisodes de vulnérabilité collective, sont susceptibles d'être préservés, à partir de l'idée que ceux-ci ne génèrent pas seulement des conditions favorables à l'émergence de nouvelles institutions, mais affectent également les engagements identitaires d'un nombre important d'individus simultanément. L'hypothèse est développée que la transition à la vie adulte constitue un passage du parcours de vie qui est particulièrement propice à un effet durable du contexte socio-historique sur les engagements identitaires d'une personne. De cette manière, la génération des jeunes adultes lors d'une expérience de vulnérabilité collective est susceptible de porter à travers le temps les traces des reconfigurations symboliques résultant de l'événement. Les arguments théoriques développés à travers les cinq premiers chapitres sont condensés sous forme d'une série de propositions théoriques falsifiables, en plus de l'hypothèse fondamentale d'irréductibilité de l'expérience collective. Afin de faciliter et de structurer la lecture des chapitres 2 à 5, chacune de ces propositions est placée en amont du chapitre dans lequel sont présentés les principaux arguments théoriques qui l'étayent. Ceci devrait aider à la mise en relief d'un fil rouge qui organise ces chapitres au-delà des ramifications argumentatives plus fines. Les propositions théoriques énoncées sont conçues comme un système théorique ; la signification de chacune d'entre elle peut être appréhendée au mieux en relation avec l'ensemble des autres propositions. Néanmoins, ces propositions sont formulées de manière à ce que chacune puisse être confrontée séparément à des observations empiriques systématiques. Il s'agit de répondre entre autres à une exigence pragmatique : aucune base de données, existante à ce jour, ne permettrait une évaluation complète du système théorique proposé. Les deux autres parties de la thèse présentent une suite d'études empiriques destinées à évaluer la pertinence des idées théoriques développées lorsque celles-ci sont appliquées à deux types particuliers d'expériences de vulnérabilité collective : au contexte des sociétés européennes connaissant actuellement un phénomène d'exclusion sociale massive (deuxième partie) et au contexte des sociétés d'après-guerre (troisième partie). Dans les deux cas, une stratégie méthodologique en deux temps est poursuivie. La première étape consiste dans la présentation d'analyses secondaires de la base de données internationale la plus pertinente à disposition. Il s'agit des données du European Social Survey (EES), ainsi que de l'enquête People on War (PoW), c'est-à-dire de deux enquêtes comparatives portant sur des échantillons représentatifs des populations d'un nombre de contextes considérables. Elles présentent l'avantage majeur de fournir simultanément des informations sur les expériences de victimisation pertinentes -situations de chômage et de pauvreté, dans le premier cas, expériences traumatisantes de la guerre dans le second - et sur l'expression de jugements politiques ou normatifs. Etant donné le caractère représentatif des échantillons étudiés, il est possible de construire des indicateurs qui informent sur la qualité des expériences collectives par agrégation des expériences individuelles à un niveau contextuel. L'utilisation de méthodes d'analyse multiniveaux permet ensuite de démêler l'impact des expériences collectives de celui des expériences individuelles sur les jugements exprimés. La deuxième étape consiste à compléter les analyses secondaires par une enquête réalisée directement en vue du cadre théorique présenté ici. Deux enquêtes ont été réalisées sur des échantillons de jeunes (pré-)adultes, à travers des contextes moins nombreux, mais directement sélectionnés selon des critères théoriques. Ainsi, l'Enquête sur l'entrée dans la vie adulte à travers trois régions françaises (EVA), se concentre sur trois contextes régionaux qui représentent trois situations-type quant à l'intensité de la vulnérabilité collective liée à l'exclusion sociale : particulièrement forte, intermédiaire ou particulièrement faible. L'enquête Transition to adulthood and collective expériences survey (TRACES) rassemble quatre pays d'ex-Yougoslavie, selon un plan qui croise les deux types de vulnérabilité collective pris en compte : deux contextes sur quatre ont été marqués par un épisode de vulnérabilité collective particulièrement intense lié à la guerre, et deux contextes sont marqués par une très forte vulnérabilité collective liée à l'exclusion sociale ; l'un de ces deux derniers contextes seulement a également été fortement affecté par la guerre. Se concentrant sur des échantillons plus modestes, ces deux enquêtes permettent des approfondissements importants, du fait qu'elles recourent à des outils d'enquête taillés sur mesure pour la problématique présente, en particulier des outils permettant d'évaluer les réactions face à des cas concrets de violations des droits humains, présentés sous forme de scénarios. Dans leur ordre de présentation, l'objet des quatre chapitres empiriques se résume de la manière suivante. Le chapitre 6 présente des analyses secondaires des deux premières vagues du ESS (2002 et 2004), portant en premier lieu sur l'impact du degré d'exclusion sociale sur la contestation des dirigeants et des institutions politiques, à travers vingt pays européens. Une importance particulière est accordée à la manière dont les expériences modulent l'effet des insertions dans des relations entre groupes asymétriques sur les jugements politiques, ainsi que sur la durabilité des effets des expériences collectives en fonction des cohortes. Les analyses de l'enquête EVA, dans le chapitre 7, approfondissent l'étude des liens entre contexte de vulnérabilité collective liée à l'exclusion sociale, l'insertion dans des rapports sociaux asymétriques et la contestation des institutions politiques. De plus, elles mettent en perspective ces liens avec les variations, en fonction du contexte et de l'origine sociale, de la condamnation de transgressions concrètes des droits socio-économiques. Le chapitre 8 rapporte les analyses secondaires de l'enquête PoW de 1999, qui visent en premier lieu à expliquer - à travers 14 contextes d'après-guerre sur quatre continents - les condamnations des violations du droit international humanitaire et la reconnaissance du caractère légal des normes transgressées en fonction de la distribution des expériences traumatisantes au sein de chaque contexte. Ces analyses permettent en particulier de comparer l'effet à moyen terme de ces expériences en fonction de l'âge au moment de la période du conflit armé. Finalement, le chapitre 9 présente des résultats de l'enquête TRACES. Ceux-ci permettent d'évaluer l'impact des expériences d'une vulnérabilité collective liée à la guerre sur la cohorte des jeunes adultes de la guerre, et de le mettre en perspective avec l'impact de l'exclusion sociale massive. Plusieurs dimensions sont prises en compte : la contestation des institutions politiques et la force de la condamnation de la violation des normes humanitaires ou des droits socio-économiques, ainsi que la reconnaissance d'une juridiction internationale en la matière. De plus, les fonctions psychologiques spécifiques de l'engagement dans la réaffirmation de normes fragilisées sont étudiées, notamment en termes d'effets sur la restauration de la croyance en une justice fondamentale, et sur la satisfaction de vie personnelle. Au fil de ces quatre chapitres empiriques, les propositions théoriques énoncées au préalable servent de passerelles entre le système théorique et les études empiriques. Dans l'introduction de chaque étude, les propositions qui s'y appliquent sont reprises et ensuite reformulées sous forme d'une hypothèse opérationnelle qui adopte la proposition générale au contexte et au phénomène spécifiques. Les deux parties empiriques sont suivies d'une conclusion, qui établit d'abord un bilan de l'apport de l'ensemble des quatre enquêtes analysées à la vérification de toutes les propositions théoriques, pour extraire ensuite trois principes explicatifs plus généraux et pour préciser leur insertion dans un contexte méta-théorique plus large.
Resumo:
Le cas de Julia est extrait d'une recherche sur le développement de l'alliance thérapeutique au cours d'une psychothérapie psychodynamique brève, mesurée après chaque séance par le patient et le thérapeute. Le profit d'évolution de l'alliance chez Julia présente plusieurs épisodes décrits dans la littérature comme des épisodes de ruptures-résolutions. L'article expose la comparaison de cette mesure quantitative de l'alliance tout au long du processus thérapeutique avec une évaluation quantitative et qualitative par le thérapeute du processus relationnel transféro-contre-transférentiel. Les résultats révèlent plusieurs types de covariations dans les évaluations de Julia et celles de son thérapeute, qui jettent un éclairage nouveau sur des questions importantes comme le lien entre alliance et transfert ou le lien entre perceptions de la relation du patient et du thérapeute. L'intérêt de ce type d'étude de cas pour la recherche et la clinique est discuté. Nous recommandons tout particulièrement l'utilisation routinière d'une mesure d'alliance thérapeutique dans la pratique courante.