163 resultados para Classifiers ensemble
Resumo:
Le développement de méthodes de mesure de la qualité des soins et les actions visant à son amélioration font partie intégrante de la pratique quotidienne. Les infections nosocomiales représentent un Indicateur Incontournable et leur prévention apparaît comme un champ d'action privilégié du concept de l'amélioration continue de la qualité des soins. Dans ce domaine, de nombreuses mesures ont fait l'objet d'études répondant à des critères méthodologiques de qualité élevée, dont les résultats sont hautement significatifs au plan statistique. Les interventions complexes concernant par exemple l'ensemble des patients d'un service ou d'une institution ne permettent que difficilement de satisfaire à ces exigences méthodologiques. Sous certaines conditions, elle peuvent cependant avoir un impact réel et parfois durable sur la qualité des soins. A titre d'exemple, nous discutons deux interventions complexes dans le domaine de la prévention des infections nosocomiales, résultant de démarches visant à une amélioration globale et durable de la qualité des soins. L'utilisation d'outils épidémiologiques adaptés permet également d'estimer le bénéfice des Interventions en milieu hospitalier conformément à ce que la communauté scientifique reconnaît comme étant une recherche clinique de qualité.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
Résumé grand public :Le cerveau se compose de cellules nerveuses appelées neurones et de cellules gliales dont font partie les astrocytes. Les neurones communiquent entre eux par signaux électriques et en libérant des molécules de signalisation comme le glutamate. Les astrocytes ont eux pour charge de capter le glucose depuis le sang circulant dans les vaisseaux sanguins, de le transformer et de le transmettre aux neurones pour qu'ils puissent l'utiliser comme source d'énergie. L'astrocyte peut ensuite utiliser ce glucose de deux façons différentes pour produire de l'énergie : la première s'opère dans des structures appelées mitochondries qui sont capables de produire plus de trente molécules riches en énergie (ATP) à partir d'une seule molécule de glucose ; la seconde possibilité appelée glycolyse peut produire deux molécules d'ATP et un dérivé du glucose appelé lactate. Une théorie couramment débattue propose que lorsque les astrocytes capturent le glutamate libéré par les neurones, ils libèrent en réponse du lactate qui servirait de base énergétique aux neurones. Cependant, ce mécanisme n'envisage pas une augmentation de l'activité des mitochondries des astrocytes, ce qui serait pourtant bien plus efficace pour produire de l'énergie.En utilisant la microscopie par fluorescence, nous avons pu mesurer les changements de concentrations ioniques dans les mitochondries d'astrocytes soumis à une stimulation glutamatergique. Nous avons démontré que les mitochondries des astrocytes manifestent des augmentations spontanées et transitoires de leur concentrations ioniques, dont la fréquence était diminuée au cours d'une stimulation avec du glutamate. Nous avons ensuite montré que la capture de glutamate augmentait la concentration en sodium et acidifiait les mitochondries des astrocytes. En approfondissant ces mécanismes, plusieurs éléments ont suggéré que l'acidification induite diminuerait le potentiel de synthèse d'énergie d'origine mitochondriale et la consommation d'oxygène dans les astrocytes. En résumé, l'ensemble de ces travaux suggère que la signalisation neuronale impliquant le glutamate dicte aux astrocytes de sacrifier temporairement l'efficacité de leur métabolisme énergétique, en diminuant l'activité de leurs mitochondries, afin d'augmenter la disponibilité des ressources énergétiques utiles aux neurones.Résumé :La remarquable efficacité du cerveau à compiler et propager des informations coûte au corps humain 20% de son budget énergétique total. Par conséquent, les mécanismes cellulaires responsables du métabolisme énergétique cérébral se sont adéquatement développés pour répondre aux besoins énergétiques du cerveau. Les dernières découvertes en neuroénergétique tendent à démontrer que le site principal de consommation d'énergie dans le cerveau est situé dans les processus astrocytaires qui entourent les synapses excitatrices. Un nombre croissant de preuves scientifiques a maintenant montré que le transport astrocytaire de glutamate est responsable d'un coût métabolique important qui est majoritairement pris en charge par une augmentation de l'activité glycolytique. Cependant, les astrocytes possèdent également un important métabolisme énergétique de type mitochondrial. Par conséquent, la localisation spatiale des mitochondries à proximité des transporteurs de glutamate suggère l'existence d'un mécanisme régulant le métabolisme énergétique astrocytaire, en particulier le métabolisme mitochondrial.Afin de fournir une explication à ce paradoxe énergétique, nous avons utilisé des techniques d'imagerie par fluorescence pour mesurer les modifications de concentrations ioniques spontanées et évoquées par une stimulation glutamatergique dans des astrocytes corticaux de souris. Nous avons montré que les mitochondries d'astrocytes au repos manifestaient des changements individuels, spontanés et sélectifs de leur potentiel électrique, de leur pH et de leur concentration en sodium. Nous avons trouvé que le glutamate diminuait la fréquence des augmentations spontanées de sodium en diminuant le niveau cellulaire d'ATP. Nous avons ensuite étudié la possibilité d'une régulation du métabolisme mitochondrial astrocytaire par le glutamate. Nous avons montré que le glutamate initie dans la population mitochondriale une augmentation rapide de la concentration en sodium due à l'augmentation cytosolique de sodium. Nous avons également montré que le relâchement neuronal de glutamate induit une acidification mitochondriale dans les astrocytes. Nos résultats ont indiqué que l'acidification induite par le glutamate induit une diminution de la production de radicaux libres et de la consommation d'oxygène par les astrocytes. Ces études ont montré que les mitochondries des astrocytes sont régulées individuellement et adaptent leur activité selon l'environnement intracellulaire. L'adaptation dynamique du métabolisme énergétique mitochondrial opéré par le glutamate permet d'augmenter la quantité d'oxygène disponible et amène au relâchement de lactate, tous deux bénéfiques pour les neurones.Abstract :The remarkable efficiency of the brain to compute and communicate information costs the body 20% of its total energy budget. Therefore, the cellular mechanisms responsible for brain energy metabolism developed adequately to face the energy needs. Recent advances in neuroenergetics tend to indicate that the main site of energy consumption in the brain is the astroglial process ensheating activated excitatory synapses. A large body of evidence has now shown that glutamate uptake by astrocytes surrounding synapses is responsible for a significant metabolic cost, whose metabolic response is apparently mainly glycolytic. However, astrocytes have also a significant mitochondrial oxidative metabolism. Therefore, the location of mitochondria close to glutamate transporters raises the question of the existence of mechanisms for tuning their energy metabolism, in particular their mitochondrial metabolism.To tackle these issues, we used real time imaging techniques to study mitochondrial ionic alterations occurring at resting state and during glutamatergic stimulation of mouse cortical astrocytes. We showed that mitochondria of intact resting astrocytes exhibited individual spontaneous and selective alterations of their electrical potential, pH and Na+ concentration. We found that glutamate decreased the frequency of mitochondrial Na+ transient activity by decreasing the cellular level of ATP. We then investigated a possible link between glutamatergic transmission and mitochondrial metabolism in astrocytes. We showed that glutamate triggered a rapid Na+ concentration increase in the mitochondrial population as a result of plasma-membrane Na+-dependent uptake. We then demonstrated that neuronally released glutamate also induced a mitochondrial acidification in astrocytes. Glutamate induced a pH-mediated and cytoprotective decrease of mitochondrial metabolism that diminished oxygen consumption. Taken together, these studies showed that astrocytes contain mitochondria that are individually regulated and sense the intracellular environment to modulate their own activity. The dynamic regulation of astrocyte mitochondrial energy output operated by glutamate allows increasing oxygen availability and lactate production both being beneficial for neurons.
Resumo:
In this paper, we study the average crossing number of equilateral random walks and polygons. We show that the mean average crossing number ACN of all equilateral random walks of length n is of the form . A similar result holds for equilateral random polygons. These results are confirmed by our numerical studies. Furthermore, our numerical studies indicate that when random polygons of length n are divided into individual knot types, the for each knot type can be described by a function of the form where a, b and c are constants depending on and n0 is the minimal number of segments required to form . The profiles diverge from each other, with more complex knots showing higher than less complex knots. Moreover, the profiles intersect with the ACN profile of all closed walks. These points of intersection define the equilibrium length of , i.e., the chain length at which a statistical ensemble of configurations with given knot type -upon cutting, equilibration and reclosure to a new knot type -does not show a tendency to increase or decrease . This concept of equilibrium length seems to be universal, and applies also to other length-dependent observables for random knots, such as the mean radius of gyration Rg.
Resumo:
La question du rêve est part intégrante de la question de la religion et intéresse de ce fait au plus haut point l'histoire comparée des religions. Non seulement les rêves ont-ils souvent été à l'origine d'une religion, mais ils sont fréquemment un de ses vecteurs principaux. En incluant la dimension onirique comme un élément constitutif du religieux et en développant des méthodes pour l'investiguer, le présent ouvrage se propose de montrer le lien consubstantiel entre religion et rêve. Les études réunies sont issues du colloque Rêves, visions révélatrices: réception et interprétation des songes dans le contexte religieux qui a eu lieu à Lausanne les 7 et 8 décembre 2000. Elles offrent des réflexions et des visions sur les rêves portant sur différentes traditions religieuses et faisant recours à des approches méthodologiques variées. L'ensemble des contributions tente de répondre à la double exigence de l'histoire des religions qui, tout en investissant un contexte religieux spécifique, se donne les moyens de réfléchir le rêve en lien à la religion dans une perspective comparative. Contenu Contenu: Maya Burger: Le rêve médiateur et l'histoire comparée des religions: une introduction - Marie-Elisabeth Handman: L'anthropologie et le rêve - Barbara Glowczewski: Sur la piste de Jukurrpa, le Dreaming australien - Hubert Knoblauch: Visions d'avenir - visions prophétiques? La province culturelle de sens, la vision d'avenir et l'ethnophénoménologie - Pierre-Yves Brandt: Fallait-il le rêver pour oser le réaliser? - Catherine Weinberger-Thomas: Rêves de morts dans l'Inde hindoue - David Gordon White: Possession, rêves et visions dans le tantrisme indien - Nicola Pozza: Le Kamayani: une épopée moderne entre rêves et visions révélatrices - Jacques Annequin: Dire le rêve, lire le rêve dans les mondes grec et romain de l'Antiquité - Yvan Bubloz: Le rêve, un réceptacle pour le vrai et le divin? Le débat de Porphyre et Jamblique sur la pertinence de l'oniromancie dans la quête de l'union au divin - Pierre Lory: «Celui qui me voit en rêve me voit dans la réalité» - Jean-Christophe Attias: Rêve, prophétie et exégèse - Philippe Bornet: «Tous les rêves vont d'après la bouche». Sur la portée de l'interprétation des rêves dans le judaïsme rabbinique. Auteur(s) - Responsable(s) de publication Les responsables de la publication: Maya Burger enseigne l'histoire des religions et le hindi à l'Université de Lausanne (Suisse). Son domaine de spécialisation est l'hindouisme médiéval et moderne. C'est dans ce domaine qu'elle a surtout publié, récemment: La perception hindoue des éléments / The Hindu Perception of the Elements. Studia Religiosa Helvetica, Jahrbuch 2000. Berne: Peter Lang (en co-édition avec P. Schreiner). Philippe Bornet est assistant et doctorant en histoire comparée des religions à l'Université de Lausanne.
Resumo:
(Résumé de l'ouvrage) La question du rêve est part intégrante de la question de la religion et intéresse de ce fait au plus haut point l'histoire comparée des religions. Non seulement les rêves ont-ils souvent été à l'origine d'une religion, mais ils sont fréquemment un de ses vecteurs principaux. En incluant la dimension onirique comme un élément constitutif du religieux et en développant des méthodes pour l'investiguer, le présent ouvrage se propose de montrer le lien consubstantiel entre religion et rêve. Les études réunies sont issues du colloque Rêves, visions révélatrices: réception et interprétation des songes dans le contexte religieux qui a eu lieu à Lausanne les 7 et 8 décembre 2000. Elles offrent des réflexions et des visions sur les rêves portant sur différentes traditions religieuses et faisant recours à des approches méthodologiques variées. L'ensemble des contributions tente de répondre à la double exigence de l'histoire des religions qui, tout en investissant un contexte religieux spécifique, se donne les moyens de réfléchir le rêve en lien à la religion dans une perspective comparative.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.
Resumo:
Résumé Régulation de l'expression de la Connexin36 dans les cellules sécrétrices d'insuline La communication intercellulaire est en partie assurée via des jonctions communicantes de type "gap". Dans la cellule ß pancréatique, plusieurs observations indiquent que le couplage assuré par des jonctions gap formées parla Connexine36 (Cx36) est impliqué dans le contrôle de la sécrétion de l'insuline. De plus, nous avons récemment démontré qu'un niveau précis d'expression de la Cx36 est nécessaire pour maintenir une bonne coordination de l'ensemble des cellules ß, et permettre ainsi une sécrétion synchrone et contrôlée d'insuline. Le développement du diabète et du syndrome métabolique est partiellement dû à une altération de la capacité des cellules ß à sécréter de l'insuline en réponse à une augmentation de la glycémie. Cette altération est en partie causée par l'augmentation prolongée des taux circulant de glucose, mais aussi de lipides, sous la forme d'acides gras libres, et de LDL (Low Density Lipoproteins), particules assurant le transport des acides gras et du cholestérol dans le sang. Nous avons étudié la régulation de l'expression de la Cx36 dans différentes conditions reflétant la physiopathologie du diabète de type 2 et du syndrome métabolique et démontré qu'une exposition prolongée à des concentrations élevées de glucose, de LDL, ainsi que de palmitate (acide gras saturé le plus abondant dans l'organisme), inhibent l'expression de la Cx36 dans les cellules ß. Cette inhibition implique l'activation de la PKA (Proteine Kinase A), qui stimule à son tour l'expression du facteur de transcription ICER-1 (Inductible cAMP Early Repressor-1). Ce puissant répresseur se fixe spécifiquement sur un motif CRE (cAMP Response Element), situé dans le promoteur du gène de la Cx36, inhibant ainsi son expression. Nous avons de plus démontré que des cytokines pro-inflammatoires, qui pourraient contribuer au développement du diabète, inhibent également l'expression de la Cx36. Cependant, les cytokines agissent indépendamment du répresseur ICER-1, mais selon un mécanisme requérant l'activation de l'AMPK (AMP dependant protein kinase). Sachant qu'un contrôle précis des niveaux d'expression de la Cx36 est un élément déterminant pour une sécrétion optimale de l'insuline, nos résultats suggèrent que la Cx36 pourrait être impliquée dans l'altération de la sécrétion de l'insuline contribuant à l'apparition du diabète de type 2. Summary A particular way by which cells communicate with each other is mediated by gap junctions, transmembrane structures providing a direct pathway for the diffusion of small molecules between adjacent cells. Gap junctional communication is required to maintain a proper functioning of insulin-secreting ß-cells. Moreover, the expression levels of connexin36 (Cx36), the sole gap junction protein expressed in ß-cells, are critical in maintaining glucose-stimulated insulin secretion. Chronic hyperglycemia and hyperlipidemia exert deleterious effects on insulin secretion and may contribute to the progressive ß-cell failure linked to the development of type 2 diabetes and metabolic syndrome. Since modulations of the Cx36 levels might impair ß-cell function, the general aim of this work was to elucidate wether elevated levels of glucose and lipids affect Cx36 expression. The first part of this work was dedicated to the study of the effect of high glucose concentrations on Cx36 expression. We demonstrated that glucose transcriptionally down-regulates the expression of Cx36 in insulin-secreting cells through activation of the protein kinase A (PKA), which in turn stimulates the expression of the inducible cAMP early repressor-1 (ICER-1). This repressor binds to a highly conserved cAMP response element (CRE) located in the Cx36 promoter, thereby inhibiting Cx36 expression. The second part of this thesis consisted in studying the effects of sustained exposure to free fatty acids (FFA) and human lipoproteins on Cx36 levels. The experiments revealed that the most abundant FFA, palmitate, as well as the atherogenic low density lipoproteins (LDL), also stimulate ICER-1 expression, resulting in Cx36 down-regulation. Finally, the third part of the work focused on the consequences of long-term exposure to proinflammatory cytokines on Cx36 content. Interleukin-1 ß (IL-1 ß) inhibits Cx36 expression and its effect is potentialized by tumor necrosis factor α (TNFα) and interferon γ (IFNγ). We further unveiled that the cytokines effect on Cx36 levels requires activation of the AMP dependent protein kinase (AMPK). Prolonged exposures to glucose, palmitate, LDL, and pro-inflammatory cytokines have all been proposed to contribute to the development of diabetes and metabolic syndrome. Since Cx36 expression levels are critical to maintain ß-cell function, Cx36 down-regulation by glucose, lipids, and cytokines might participate to the ß-cell failure associated with diabetes development.
Resumo:
Objectifs: Comprendre les principes physique de la diffusion. Comprendre le principe de mesure de la diffusion par IRM. Ccomprendre la relation entre la diffusion de l'eau en milieu biologique et l'organisation de la matière blanche. Comprendre comment cartographier la connectivité cérébrale par irm de diffusion. Messages à retenir: Les propriétés de diffusion du tissu cérébral sont conditionnées par l'architecture axonale. La mesure de la diffusion par IRM permet de cartographier les trajectoires de fibres nerveuses et donc la connectivité cérébrale. La connectivité cérébrale peut être mesurés de manière non-invasive. Résumé: La "connectomique" est un domaine émergeant et prometteur des neurosciences qui utilise l'IRM de diffusion en combinaison avec des traitements algorithmiques avancés afin de mesurer les trajectoires de faisceaux de fibres et la connectivité cérébrale permettant d'étudier l'organisation de la structure du réseau neuronal cérébral dans son ensemble. Lors de ce cours nous reverrons les méthodes rendant cette cartographie possible et exposerons les techniques d'analyse utilisées pour obtenir de nouvelles informations sur l'architecture cérébrale. Nous reverrons également un certains nombre d'exemple d'applications où la connectomique offre une nouvelle manière d'analyser et de comprendre le fonctionnement du cerveau normal ou malade.
Resumo:
Summary : Division of labour is one of the most fascinating aspects of social insects. The efficient allocation of individuals to a multitude of different tasks requires a dynamic adjustment in response to the demands of a changing environment. A considerable number of theoretical models have focussed on identifying the mechanisms allowing colonies to perform efficient task allocation. The large majority of these models are built on the observation that individuals in a colony vary in their propensity (response threshold) to perform different tasks. Since individuals with a low threshold for a given task stimulus are more likely to perform that task than individuals with a high threshold, infra-colony variation in individual thresholds results in colony division of labour. These theoretical models suggest that variation in individual thresholds is affected by the within-colony genetic diversity. However, the models have not considered the genetic architecture underlying the individual response thresholds. This is important because a better understanding of division of labour requires determining how genotypic variation relates to differences in infra-colony response threshold distributions. In this thesis, we investigated the combined influence on task allocation efficiency of both, the within-colony genetic variability (stemming from variation in the number of matings by queens) and the number of genes underlying the response thresholds. We used an agent-based simulator to model a situation where workers in a colony had to perform either a regulatory task (where the amount of a given food item in the colony had to be maintained within predefined bounds) or a foraging task (where the quantity of a second type of food item collected had to be the highest possible). The performance of colonies was a function of workers being able to perform both tasks efficiently. To study the effect of within-colony genetic diversity, we compared the performance of colonies with queens mated with varying number of males. On the other hand, the influence of genetic architecture was investigated by varying the number of loci underlying the response threshold of the foraging and regulatory tasks. Artificial evolution was used to evolve the allelic values underlying the tasks thresholds. The results revealed that multiple matings always translated into higher colony performance, whatever the number of loci encoding the thresholds of the regulatory and foraging tasks. However, the beneficial effect of additional matings was particularly important when the genetic architecture of queens comprised one or few genes for the foraging task's threshold. By contrast, higher number of genes encoding the foraging task reduced colony performance with the detrimental effect being stronger when queens had mated with several males. Finally, the number of genes determining the threshold for the regulatory task only had a minor but incremental effect on colony performance. Overall, our numerical experiments indicate the importance of considering the effects of queen mating frequency, genetic architecture underlying task thresholds and the type of task performed when investigating the factors regulating the efficiency of division of labour in social insects. In this thesis we also investigate the task allocation efficiency of response threshold models and compare them with neural networks. While response threshold models are widely used amongst theoretical biologists interested in division of labour in social insects, our simulation reveals that they perform poorly compared to a neural network model. A major shortcoming of response thresholds is that they fail at one of the most crucial requirement of division of labour, the ability of individuals in a colony to efficiently switch between tasks under varying environmental conditions. Moreover, the intrinsic properties of the threshold models are that they lead to a large proportion of idle workers. Our results highlight these limitations of the response threshold models and provide an adequate substitute. Altogether, the experiments presented in this thesis provide novel contributions to the understanding of how division of labour in social insects is influenced by queen mating frequency and genetic architecture underlying worker task thresholds. Moreover, the thesis also provides a novel model of the mechanisms underlying worker task allocation that maybe more generally applicable than the widely used response threshold models. Resumé : La répartition du travail est l'un des aspects les plus fascinants des insectes vivant en société. Une allocation efficace de la multitude de différentes tâches entre individus demande un ajustement dynamique afin de répondre aux exigences d'un environnement en constant changement. Un nombre considérable de modèles théoriques se sont attachés à identifier les mécanismes permettant aux colonies d'effectuer une allocation efficace des tâches. La grande majorité des ces modèles sont basés sur le constat que les individus d'une même colonie diffèrent dans leur propension (inclination à répondre) à effectuer différentes tâches. Etant donné que les individus possédant un faible seuil de réponse à un stimulus associé à une tâche donnée sont plus disposés à effectuer cette dernière que les individus possédant un seuil élevé, les différences de seuils parmi les individus vivant au sein d'une même colonie mènent à une certaine répartition du travail. Ces modèles théoriques suggèrent que la variation des seuils des individus est affectée par la diversité génétique propre à la colonie. Cependant, ces modèles ne considèrent pas la structure génétique qui est à la base des seuils de réponse individuels. Ceci est très important car une meilleure compréhension de la répartition du travail requière de déterminer de quelle manière les variations génotypiques sont associées aux différentes distributions de seuils de réponse à l'intérieur d'une même colonie. Dans le cadre de cette thèse, nous étudions l'influence combinée de la variabilité génétique d'une colonie (qui prend son origine dans la variation du nombre d'accouplements des reines) avec le nombre de gènes supportant les seuils de réponse, vis-à-vis de la performance de l'allocation des tâches. Nous avons utilisé un simulateur basé sur des agents pour modéliser une situation où les travailleurs d'une colonie devaient accomplir une tâche de régulation (1a quantité d'une nourriture donnée doit être maintenue à l'intérieur d'un certain intervalle) ou une tâche de recherche de nourriture (la quantité d'une certaine nourriture doit être accumulée autant que possible). Dans ce contexte, 'efficacité des colonies tient en partie des travailleurs qui sont capable d'effectuer les deux tâches de manière efficace. Pour étudier l'effet de la diversité génétique d'une colonie, nous comparons l'efficacité des colonies possédant des reines qui s'accouplent avec un nombre variant de mâles. D'autre part, l'influence de la structure génétique a été étudiée en variant le nombre de loci à la base du seuil de réponse des deux tâches de régulation et de recherche de nourriture. Une évolution artificielle a été réalisée pour évoluer les valeurs alléliques qui sont à l'origine de ces seuils de réponse. Les résultats ont révélé que de nombreux accouplements se traduisaient toujours en une plus grande performance de la colonie, quelque soit le nombre de loci encodant les seuils des tâches de régulation et de recherche de nourriture. Cependant, les effets bénéfiques d'accouplements additionnels ont été particulièrement important lorsque la structure génétique des reines comprenait un ou quelques gènes pour le seuil de réponse pour la tâche de recherche de nourriture. D'autre part, un nombre plus élevé de gènes encodant la tâche de recherche de nourriture a diminué la performance de la colonie avec un effet nuisible d'autant plus fort lorsque les reines s'accouplent avec plusieurs mâles. Finalement, le nombre de gènes déterminant le seuil pour la tâche de régulation eu seulement un effet mineur mais incrémental sur la performance de la colonie. Pour conclure, nos expériences numériques révèlent l'importance de considérer les effets associés à la fréquence d'accouplement des reines, à la structure génétique qui est à l'origine des seuils de réponse pour les tâches ainsi qu'au type de tâche effectué au moment d'étudier les facteurs qui régulent l'efficacité de la répartition du travail chez les insectes vivant en communauté. Dans cette thèse, nous étudions l'efficacité de l'allocation des tâches des modèles prenant en compte des seuils de réponses, et les comparons à des réseaux de neurones. Alors que les modèles basés sur des seuils de réponse sont couramment utilisés parmi les biologistes intéressés par la répartition des tâches chez les insectes vivant en société, notre simulation montre qu'ils se révèlent peu efficace comparé à un modèle faisant usage de réseaux de neurones. Un point faible majeur des seuils de réponse est qu'ils échouent sur un point crucial nécessaire à la répartition des tâches, la capacité des individus d'une colonie à commuter efficacement entre des tâches soumises à des conditions environnementales changeantes. De plus, les propriétés intrinsèques des modèles basés sur l'utilisation de seuils conduisent à de larges populations de travailleurs inactifs. Nos résultats mettent en évidence les limites de ces modèles basés sur l'utilisation de seuils et fournissent un substitut adéquat. Ensemble, les expériences présentées dans cette thèse fournissent de nouvelles contributions pour comprendre comment la répartition du travail chez les insectes vivant en société est influencée par la fréquence d'accouplements des reines ainsi que par la structure génétique qui est à l'origine, pour un travailleur, du seuil de réponse pour une tâche. De plus, cette thèse fournit également un nouveau modèle décrivant les mécanismes qui sont à l'origine de l'allocation des tâches entre travailleurs, mécanismes qui peuvent être appliqué de manière plus générale que ceux couramment utilisés et basés sur des seuils de réponse.
Resumo:
Le monitoring de la problématique du cannabis en Suisse constitue un ensemble de travaux qui permettent le suivi de la situation au niveau national et qui sont mis en oeuvre par un consortium d'institutions de recherche. Ce monitoring comprend l'étude présentée dans ce rapport, l'étude sentinelle. Celle-ci s'intéresse à l'évolution de la situation en matière de cannabis ainsi qu'à la gestion de cette situation au niveau local. Il s'agit de répondre aux questions suivantes : - quelle est la situation en matière de consommation de cannabis et de marché et quelle est son évolution ? - quels sont les principaux problèmes rencontrés sur le terrain ? - quelles sont les mesures et interventions qui ont été développées dans ce domaine ? Pour y répondre, on a choisi de suivre la situation dans quatre cantons suisses dits "sentinelle" (St-Gall, Tessin, Vaud, Zurich). Les critères de choix de ces cantons font appel à leur taille, au rapport ville/campagne et à la présence de frontière avec des états voisins, à la langue, au type de politique drogue pratiqué. Dans chaque canton on a constitué des panels d'experts formés par des profes-sionnels de terrain dans trois domaines différents (santé et social, école, police et justice). Leurs observations ainsi que les données cantonales disponibles sont récoltées et discutées lors d'un workshop et analysées sur plusieurs années. Le présent rapport fait état des résultats des quatre workshops de suivi (2005, 2006, 2008, 2009). [Résumé, p. 5]
Resumo:
The application of support vector machine classification (SVM) to combined information from magnetic resonance imaging (MRI) and [F18]fluorodeoxyglucose positron emission tomography (FDG-PET) has been shown to improve detection and differentiation of Alzheimer's disease dementia (AD) and frontotemporal lobar degeneration. To validate this approach for the most frequent dementia syndrome AD, and to test its applicability to multicenter data, we randomly extracted FDG-PET and MRI data of 28 AD patients and 28 healthy control subjects from the database provided by the Alzheimer's Disease Neuroimaging Initiative (ADNI) and compared them to data of 21 patients with AD and 13 control subjects from our own Leipzig cohort. SVM classification using combined volume-of-interest information from FDG-PET and MRI based on comprehensive quantitative meta-analyses investigating dementia syndromes revealed a higher discrimination accuracy in comparison to single modality classification. For the ADNI dataset accuracy rates of up to 88% and for the Leipzig cohort of up to 100% were obtained. Classifiers trained on the ADNI data discriminated the Leipzig cohorts with an accuracy of 91%. In conclusion, our results suggest SVM classification based on quantitative meta-analyses of multicenter data as a valid method for individual AD diagnosis. Furthermore, combining imaging information from MRI and FDG-PET might substantially improve the accuracy of AD diagnosis.
Resumo:
Kidneys are the main regulator of salt homeostasis and blood pressure. In the distal region of the tubule active Na-transport is finely tuned. This transport is regulated by various hormonal pathways including aldosterone that regulates the reabsorption at the level of the ASDN, comprising the late DCT, the CNT and the CCD. In the ASDN, the amiloride-sensitive epithelial Na-channel (ENaC) plays a major role in Na-homeostasis, as evidenced by gain-of function mutations in the genes encoding ENaC, causing Liddle's syndrome, a severe form of salt-sensitive hypertension. In this disease, regulation of ENaC is compromised due to mutations that delete or mutate a PY-motif in ENaC. Such mutations interfere with Nedd4-2- dependent ubiquitylation of ENaC, leading to reduced endocytosis of the channel, and consequently to increased channel activity at the cell surface. After endocytosis ENaC is targeted to the lysosome and rapidly degraded. Similarly to other ubiquitylated and endocytosed plasma membrane proteins (such as the EGFR), it is likely that the multi-protein complex system ESCRT is involved. To investigate the involvement of this system we tested the role of one of the ESCRT proteins, Tsg101. Here we show that Tsg101 interacts endogenously and in transfected HEK-293 cells with all three ENaC sub-units. Furthermore, mutations of cytoplasmic lysines of ENaC subunits lead to the disruption of this interaction, indicating a potential involvement of ubiquitin in Tsg101 / ENaC interaction. Tsg101 knockdown in renal epithelial cells increases the total and cell surface pool of ENaC, thus implying TsglOl and consequently the ESCRT system in ENaC degradation by the endosomal/lysosomal system. - Les reins sont les principaux organes responsables de la régulation de la pression artérielle ainsi que de la balance saline du corps. Dans la région distale du tubule, le transport actif de sodium est finement régulé. Ce transport est contrôlé par plusieurs hormones comme l'aldostérone, qui régule la réabsorption au niveau de l'ASDN, segment comprenant la fin du DCT, le CNT et le CCD. Dans l'ASDN, le canal à sodium épithélial sensible à l'amiloride (ENaC) joue un rôle majeur dans l'homéostasie sodique, comme cela fut démontré par les mutations « gain de fonction » dans les gênes encodant ENaC, causant ainsi le syndrome de Liddle, une forme sévère d'hypertension sensible au sel. Dans cette maladie, la régulation d'ENaC est compromise du fait des mutations qui supprime ou mute le domaine PY présent sur les sous-unités d'ENaC. Ces mutations préviennent l'ubiquitylation d'ENaC par Nedd4-2, conduisant ainsi à une baisse de l'endocytose du canal et par conséquent une activité accrue d'ENaC à la surface membranaire. Après endocytose, ENaC est envoyé vers le lysosome et rapidement dégradé. Comme d'autres protéines membranaires ubiquitylées et endocytées (comme l'EGFR), il est probable que le complexe multi-protéique ESCRT est impliqué dans le transport d'ENaC au lysosome. Pour étudier l'implication du système d'ESCRT dans la régulation d'ENaC nous avons testé le rôle d'une protéine de ces complexes, TsglOl. Notre étude nous a permis de démontrer que TsglOl se lie aux trois sous-unités ENaC aussi bien en co-transfection dans des cellules HEK-293 que de manière endogène. De plus, nous avons pu démontrer l'importance de l'ubiquitine dans cette interaction par la mutation de toutes les lysines placées du côté cytoplasmique des sous-unités d'ENaC, empêchant ainsi l'ubiquitylation de ces sous-unités. Enfin, le « knockdown » de TsglOl dans des cellules épithéliales de rein induit une augmentation de l'expression d'ENaC aussi bien dans le «pool» total qu'à la surface membranaire, indiquant ainsi un rôle pour TsglOl et par conséquent du système d'ESCRT dans la dégradation d'ENaC par la voie endosome / lysosome. - Le corps humain est composé d'organes chacun spécialisé dans une fonction précise. Chaque organe est composé de cellules, qui assurent la fonction de l'organe en question. Ces cellules se caractérisent par : - une membrane qui leur permet d'isoler leur compartiment interne (milieu intracellulaire ou cytoplasme) du liquide externe (milieu extracellulaire), - un noyau, où l'ADN est situé, - des protéines, sortent d'unités fonctionnelles ayant une fonction bien définie dans la cellule. La séparation entre l'extérieure et l'intérieure de la cellule est essentielle pour le maintien des composants de ces milieux ainsi que pour la bonne fonction de l'organisme et des cellules. Parmi ces composants, le sodium joue un rôle essentiel car il conditionne le maintien de volume sanguin en participant au maintien du volume extracellulaire. Une augmentation du sodium dans l'organisme provoque donc une augmentation du volume sanguin et ainsi provoque une hypertension. De ce fait, le contrôle de la quantité de sodium présente dans l'organisme est essentiel pour le bon fonctionnement de l'organisme. Le sodium est apporté par l'alimentation, et c'est au niveau du rein que va s'effectuer le contrôle de la quantité de sodium qui va être retenue dans l'organisme pour le maintien d'une concentration normale de sodium dans le milieu extracellulaire. Le rein va se charger de réabsorber toutes sortes de solutés nécessaires pour l'organisme avant d'évacuer les déchets ou le surplus de ces solutés en produisant l'urine. Le rein va se charger de réabsorber le sodium grâce à différentes protéines, parmi elle, nous nous sommes intéressés à une protéine appelée ENaC. Cette protéine joue un rôle important dans la réabsorption du sodium, et lorsqu'elle fonctionne mal, comme il a pu être observé dans certaines maladies génétiques, il en résulte des problèmes d'hypo- ou d'hypertension. Les problèmes résultant du mauvais fonctionnement de cette protéine obligent donc la cellule à réguler efficacement ENaC par différents mécanismes, notamment en diminuant son expression et en dégradant le « surplus ». Dans cette travail de thèse, nous nous sommes intéressés au mécanisme impliqué dans la dégradation d'ENaC et plus précisément à un ensemble de protéines, appelé ESCRT, qui va se charger « d'escorter » une protéine vers un sous compartiment à l'intérieur de la cellule ou elle sera dégradée.
Resumo:
Cette étude visait, chez les médecins romands potentiellement confrontés à des maladies en lien avec le travail (généralistes, internistes, dermatologues, allergologues, pneumologues, ORL, rhumatologues et psychiatres des cantons de Genève, Vaud, Valais, Neuchâtel, Jura, Fribourg et de la partie francophone du canton de Berne), à identifier et à décrire : - leur perception des liens entre la santé et le travail, - leurs pratiques vis à vis des maladies liées au travail incluant les difficultés et obstacles qu'ils rencontraient pour la prise en charge thérapeutique, organisationnelle ou assurantielle de ces maladies, - leurs attentes vis à vis de services que l'IST leur fournit ou pourrait leur fournir. Sur 2570 médecins contactés, 34% ont renvoyé un questionnaire (élaboré à la suite d'entretiens semi-directifs auprès de certains d'entre eux) et 32% ont finalement été inclus dans l'étude (soit 806 médecins). Les médecins inclus sont représentatifs de l'ensemble de la population de l'étude sur 3 critères : âge, canton et spécialité. Les résultats permettent de distinguer 4 profils de médecins : - les médecins généralistes, internistes et rhumatologues, qui sont souvent confrontés aux maladies liées au travail, très actifs dans la prise en charge spécifique de ces maladies (en particulier en ce qui concerne le travail du patient et les démarches auprès des assurances), et très demandeurs de services potentiels de l'IST ; - les allergologues et les pneumologues, qui sont peu confrontés aux maladies liées au travail, mais très actifs dans la prise en charge spécifique de ces maladies (en ce qui concerne le travail du patient et les démarches auprès des assurances) et très demandeurs de services potentiels de l'IST ; - les dermatologues et les ORL, qui sont peu confrontés aux maladies liées au travail, moins actifs dans la prise en charge spécifique de ces maladies (en ce qui concerne le travail du patient et les démarches auprès des assurances) et peu demandeurs de services potentiels de l'IST ; - les psychiatres, qui sont souvent confrontés aux maladies liées au travail, peu actifs dans la prise en charge spécifique de ces maladies (en ce qui concerne le travail du patient et les démarches auprès des assurances) et peu demandeurs de services potentiels de l'IST. En fonction de ces résultats, des actions ciblées vers les différentes spécialistes pourront être mises en place ultérieurement.
Resumo:
Qu'est-ce qui se joue entre des personnes qui écrivent un même livre, entre un maître et des élèves, entre un élève et ses maîtres, entre un dispositif et une performance, entre les joueurs d'une pièce de théâtre, entre les acteurs d'une photographie ? En explorant chacune de ces questions, ce livre est tout à la fois une manière de jouer et de répondre collectivement à la question : comment s'accorde-t-on quand on joue ? Lorsque des acteurs singuliers font quelque chose ensemble, ils ne font pas tous exactement la même chose. On cherche un accord pratique : on se donne la réplique.