1000 resultados para Élaboration de stratégies
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
AbstractThis article seeks to assess the importance of Angela Carter's little-known work as a translator of Perrault's tales in The Fairy Tales of Charles Perrault (1977) through an examination of her "Little Red Riding Hood". Carter is mostly famous today for The Bloody Chamber and Other Stories (1979), a collection of innovative and thought-provoking fairy-tale rewritings infused with feminist concerns, strategies and perspectives. Insofar as Carter was translating Perrault's tales while writing her own "stories about fairy stories", an analysis of her translations reveals them as part of an ongoing dialogue with the work of the French author. While Carter's translations consciously update and adapt the material for children whom she seeks to sensitize to gender issues, she does not so much challenge the sexual politics of her source as recognize the emancipatory potential of Perrault's contes as useful "fables of the politics of experience".RésuméCet article vise à rendre compte de l'activité méconnue de traductrice déployée par l'auteure anglaise Angela Carter conjointement à son oeuvre de fiction, et à en reconnaître l'importance dans sa trajectoire d'écrivain. Une analyse de « Little Red Riding Hood », publié dans The Fairy Tales of Charles Perrault (1977), permet d'éclairer la poétique particulière qu'elle développera dans le recueil qui l'a rendue célèbre, The Bloody Chamber and Other Stories (1979), des « histoires sur des contes de fées » qui reflètent la perspective et les stratégies féministes de l'auteure. Carter a mené de front ses traductions et réécritures, envisagées ici comme deux formes du dialogue très riche et complexe qu'elle engage à cette période avec l'oeuvre de Perrault, plutôt qu'une subversion de celui-ci. Ainsi, sa traduction modernise et simplifie le texte des contes pour de jeunes lecteurs qu'elle cherche à sensibiliser à des problématiques de genre, en leur révélant la portée émancipatrice des contes de Perrault qu'elle envisage comme « des fables utiles sur la politique de l'expérience » plutôt qu'en contestant la politique sexuelle de sa source.
Resumo:
Analyser les modalités de la régulation de la religion constitue une étape importante pour expliquer la recomposition de la religion en modernité tardive. Face aux interprétations dérivées des concepts d'individualisation ou de privatisation, l'affirmation peut apparaître provocante, puisqu'elle met en question l'idée d'autonomie du sujet croyant et la pertinence de l'utilisation sociologique du terme privé. Le traitement de cette problématique est particulièrement adéquat pour évaluer le rôle de l'État. Même si ce dernier n'est qu'un des agents de régulation à côté des médias, des organisations religieuses..., il contribue de façon souveraine au filtrage de la religion « acceptable ». Son mode de gestion varie d'un pays à l'autre, allant du pluralisme libéral au pluralisme technocratique. L'élaboration d'une typologie de ces modes de gestion s'avère donc indispensable. Sa vérification peut s'opérer au travers de l'étude comparative de la place faite à la religion dans les programmes scolaires. Elle éclaire en particulier le caractère pluraliste des États démocratiques et leur capacité à articuler valeurs économiques et valeurs humanistes. An analysis of the ways in which religion is regulated constitutes an important step in understanding the reconstructions of religion in late modernity. Such a stance can appear provocative, especially if contrasted with explanations that derive from concepts such as individualisation or privatisation, since it puts into question both the autonomy of the individual believer and the aptness of the term "private" in sociological understanding. These issues are particularly relevant when it comes to evaluating the role of the state. It is true that the latter is but one source of control, alongside the media, or religious organisations...; its influence is, however, dominant when it comes to deciding which forms of religion are, or are not, "acceptable". The methods vary from one country to another, ranging from liberal pluralism to technocratic pluralism. Hence the need to elaborate a typology, illustrating the different ways of working. It can be tested by comparing the place given to religion in different school systems. Above all such an approach reveals the pluralist character of the democratic state and its capacity to articulate both economic and humanistic values.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.
Resumo:
In vascular plants, the best-known feature of a differentiated endodermal cell is the "Casparian Strip" (CS). This structure refers to a highly localized cell wall impregnation in the transversal and anticlinal walls of the cell, which surrounds the cell like a belt/ring and is tightly coordinated with respect to neighboring cells. Analogous to tight junctions in animal epithelia, CS in plants act as a diffusion barrier that controls the movement of water and ions from soil into the stele. Since its first description by Robert Caspary in 1865 there have been many attempts to identify the chemical nature of the cell wall deposition in CS. Suberin, lignin, or both have been claimed to be the important components of CS in a series of different species. However, the exact chemical composition of CS has remained enigmatic. This controversy was due to the confusion and lack of knowledge regarding the precise measurement of three developmental stages of the endodermis. The CS represent only the primary stage of endodermal differentiation, which is followed by the deposition of suberin lamellae all around the cellular surface of endodermal cells (secondary developmental stage). Therefore, chemical analysis of whole roots, or even of isolated endodermal tissues, will always find both of the polymers present. It was crucial to clarify this point because this will guide our efforts to understand which cell wall biosynthetic component becomes localized in order to form the CS. The main aim of my work was to find out the major components of (early) CS, as well as their spatial and temporal development, physiological roles and relationship to barrier formation. Employing the knowledge and tools that have been accumulated over the last few years in the model plant Arabidopsis thaliana, various histological and chemical assays were used in this study. A particular feature of my work was to completely degrade, or inhibit formation of lignin and suberin biopolymers by biochemical, classical genetic and molecular approaches and to investigate its effect on CS formation and the establishment of a functional diffusion barrier. Strikingly, interference with monolignol biosynthesis abrogates CS formation and delays the formation of function diffusion barrier. In contrast, transgenic plants devoid of any detectable suberin still develop a functional CS. The combination of all these assays clearly demonstrates that the early CS polymer is made from monolignol (lignin monomers) and is composed of lignin. By contrast, suberin is formed much later as a secondary wall during development of endodermis. These early CS are functionally sufficient to block extracellular diffusion and suberin does not play important role in the establishment of early endodermal diffusion barrier. Moreover, suberin biosynthetic machinery is not present at the time of CS formation. Our study finally concludes the long-standing debate about the chemical nature of CS and opens the door to a new approach in lignin research, specifically for the identification of the components of the CS biosynthetic pathway that mediates the localized deposition of cell walls. I also made some efforts to understand the patterning and differentiation of endodermal passage cells in young roots. In the literature, passage cells are defined as a non- suberized xylem pole associated endodermal cells. Since these cells only contain the CS but not the suberin lamellae, it has been assumed that these cells may offer a continued low-resistance pathway for water and minerals into the stele. Thus far, no genes have been found to be expressed specifically in passage cells. In order to understand the patterning, differentiation, and physiological role of passage it would be crucial to identify some genes that are exclusively expressed in these cells. In order to identify such genes, I first generated fluorescent marker lines of stele-expressed transporters that have been reported to be expressed in the passage cells. My aim was to first highlight the passage cells in a non-specific way. In order to find passage cell specific genes I then adapted a two-component system based on previously published methods for gene expression profiling of individual cell types. This approach will allow us to target only the passage cells and then to study gene expression specifically in this cell type. Taken together, this preparatory work will provide an entry point to understand the formation and role of endodermal passage cells. - Chez les plantes vasculaires, la caractéristique la plus commune des cellules différentiées de l'endoderme est la présence de cadres de Caspary. Cette structure correspond à une imprégnation localisée des parties transversales et anticlinales de la paroi cellulaire. Cela donne naissance, autour de la cellule, à un anneau/cadre qui est coordonné par rapport aux cellules voisines. De manière analogue aux jonctions serrées des épithéliums chez les animaux, les cadres de Caspary agissent chez les plantes comme barrière de diffusion, contrôlant le mouvement de l'eau et des ions à travers la racine entre le sol et la stèle. Depuis leur première description par Robert Caspary en 1865, beaucoup de tentatives ont eu pour but de définir la nature chimique de ces cadres de Caspary. Après l'étude de différentes espèces végétales, à la fois la subérine, la lignine ou les deux ont été revendiquées comme étant des composants importants de ces cadres. Malgré tout, leur nature chimique exacte est restée longtemps énigmatique. Cette controverse provient de la confusion et du manque de connaissance concernant la détermination précise des trois stades de développement de l'endoderme. Les cadres de Caspary représentent uniquement le stade primaire de différentiation de l'endoderme. Celui-ci est suivi par le second stade de différentiation, la déposition de lamelles de subérine tout autour de la cellule endodermal. De ce fait, l'analyse chimique de racines entières ou de cellules d'endoderme isolées ne permet pas de séparer les stades de différentiation primaire et secondaire et aboutit donc à la présence des deux polymères. Il est également crucial de clarifier ce point dans le but de connaître quelle machinerie cellulaire localisée à la paroi cellulaire permet l'élaboration des cadres de Caspary. En utilisant les connaissances et les outils accumulés récemment grâce à la plante modèle Arabidopsis thaliana, divers techniques histologiques et chimiques ont été utilisées dans cette étude. Un point particulier de mon travail a été de dégrader ou d'inhiber complètement la formation de lignine ou de subérine en utilisant des approches de génétique classique ou moléculaire. Le but étant d'observer l'effet de l'absence d'un de ces deux polymères sur la formation des cadres de Caspary et l'établissement d'une barrière de diffusion fonctionnelle. De manière frappante, le fait d'interférer avec la voie de biosynthèse de monolignol (monomères de lignine) abolit la formation des cadres de Caspary et retarde l'élaboration d'une barrière de diffusion fonctionnelle. Par contre, des plantes transgéniques dépourvues d'une quantité détectable de subérine sont quant à elles toujours capables de développer des cadres de Caspary fonctionnels. Mises en commun, ces expériences démontrent que le polymère formant les cadres de Caspary dans la partie jeune de la racine est fait de monolignol, et que de ce fait il s'agit de lignine. La subérine, quant à elle, est formée bien plus tard durant le développement de l'endoderme, de plus il s'agit d'une modification de la paroi secondaire. Ces cadres de Caspary précoces faits de lignine suffisent donc à bloquer la diffusion extracellulaire, contrairement à la subérine. De plus, la machinerie de biosynthèse de la subérine n'est pas encore présente au moment de la formation des cadres de Caspary. Notre étude permet donc de mettre un terme au long débat concernant la nature chimique des cadres de Caspary. De plus, elle ouvre la porte à de nouvelles approches dans la recherche sur la lignine, plus particulièrement pour identifier des composants permettant la déposition localisée de ce polymère dans la paroi cellulaire. J'ai aussi fais des efforts pour mettre en évidence la formation ainsi que le rôle des cellules de passage dans les jeunes racines. Dans la littérature, les cellules de passage sont définies comme de la cellule endodermal faisant face aux pôles xylèmes et dont la paroi n'est pas subérisée. Du fait que ces cellules contiennent uniquement des cadres de Caspary et pas de lamelle de subérine, il a été supposé qu'elles ne devraient offrir que peu de résistance au passage de l'eau et des nutriments entre le sol et la stèle. Le rôle de ces cellules de passage est toujours loin d'être clair, de plus aucun gène s'exprimant spécifiquement dans ces cellules n'a été découvert à ce jour. De manière à identifier de tels gènes, j'ai tout d'abord généré des marqueurs fluorescents pour des transporteurs exprimés dans la stèle mais dont l'expression avait également été signalée dans l'endoderme, uniquement dans les cellules de passage. J'ai ensuite développé un système à deux composants basé sur des méthodes déjà publiées, visant principalement à étudier le profil d'expression génique dans un type cellulaire donné. En recoupant les gènes exprimés spécifiquement dans l'endoderme à ceux exprimés dans la stèle et les cellules de passage, il nous sera possible d'identifier le transriptome spécifique de ces cellules. Pris dans leur ensemble, ces résultats devraient donner un bon point d'entrée dans la définition et la compréhension des cellules de passage.
Resumo:
Résumé (français)ContexteLe tabagisme est connu pour produire un effet coupe-faim chez la plupart des fumeurs. La crainte de la prise de poids à l'arrêt de la cigarette l'emporte souvent sur la perception des bénéfices sur la santé associés à l'abandon du tabac, particulièrement chez les adolescents. Nous avons examiné quel a été le rôle de l'industrie du tabac dans cet effet de la fumée sur l'appétit et sur le contrôle du poids.MéthodesNous avons réalisé une recherche systématique dans les archives de six grandes compagnies de tabac américaines et du Royaume-Uni (American Tobacco, Philip Morris, RJ Reynolds, Lorillard, Brown & Williamson et British American Tobacco) qui avaient été mises en cause dans les procès du tabac en 1998 aux Etats-Unis. Les résultats concernent les années 1949 à 1999.RésultatsLes archives de ces industries montrent qu'elles ont mis au point et ont utilisé diverses stratégies pour améliorer les effets du tabagisme sur le poids et l'appétit, la plupart du temps en réalisant des modifications chimiques des cigarettes. Des substances coupe-faim, telles que l'acide tartrique et le 2-acétylpyridine ont notamment été ajoutées aux cigarettes.ConclusionEn tout cas par le passé, ces compagnies de tabac ont activement modifié leurs cigarettes afin d'en augmenter l'effet de diminution de l'appétit, notamment en y ajoutant des substances coupe-faim.
Resumo:
Le but de la consultation systémique est l'évaluation des interactions familiales à des fins cliniques aussi bien qu'à des fins de recherche, avec mise en lumière des ressources aussi bien que des difficultés de la famille. Elle est soit demandée spontanément par les parents soit par le(s) thérapeute(s) qui sui(ven)t la famille. Lors d'une première rencontre, nous proposons d'une part à la famille de faire des jeux familiaux standardisés que nous filmons et d'autre part de poser les questions qui motivent les parents ou thérapeute(s) à nous consulter. Lors d'une deuxième rencontre, un visionnement des films avec la famille (et les thérapeutes) permet une discussion ainsi que l'élaboration de réponses aux questions posées. Après une description de la pratique de la consultation systémique, avec ses objectifs et ses principes, les situations utilisées dans ce contexte sont présentées (comme le Lausanne Trilogue Play). Enfin, une vignette clinique en illustre la richesse et l'utilité, aussi bien pour la recherche que pour la clinique. The aim of the systems consultation is to assess the family interaction in order to enlighten, in a clinical perspective, the resources as well as the difficulties of the family. The family itself or a therapist may request it. During the first session, we propose to the family, on the one hand, to play standardized games which are recorded and, on the other hand, to ask the questions they (or the therapist/s) may have. During the second session, a video feedback takes place to discuss and elaborate on the questions. After a description of the practice of the systems consultation, including aims and principles, the observational situations used in this context will be presented (e.g. the Lausanne Trilogue Play). Finally a case illustration will show its richness and usefulness for research as well as for clinical purposes, in particular as a bridge between research and clinical domains.
Resumo:
ABSTRACT : Ostracods are benthic microcrustaceans enclosed in low-Mg calcite bivalves. Stable isotope compositions, Mg/Ca, and Sr/Ca ratios of ostracod fossil valves have proven useful to reconstruct past environmental conditions. Yet, several discrepancies persist and the influence of many factors remains unclear. It is the aim of this study to improve the use of ostracod valve geochemistry as palaeoenvironmental proxies by examining the extent of isotope fractionation and trace element partitioning during valve calcification. To achieve this, the environmental parameters (pH, temperature) and chemical composition of water (C-and O-isotope composition and calcium, magnesium, and strontium content) were measured at sites where living ostracods were sampled. The sampling was on a monthly basis over the course of one year at five different water depths (2, 5, 13, 33, and 70 m) in Lake Geneva, Switzerland. The one-year sampling enabled collection of environmental data for bottom and interstitial pore water. In littoral to sublittoral zones, C-isotope composition of DIC and the Mg/Ca and Sr/Ca ratios of water are found to vary concomitantly with water temperature. This is due to the precipitation of calcite, which is induced by higher photosynthetic activity as temperature and/or solar radiation intensify in summer. In deeper zones, environmental parameters remain largely constant throughout the year. Variations of pH, DIC concentrations and C-isotope compositions in interstitial water result from aerobic as well as anaerobic respiration, calcite dissolution and methanogenesis. Bathymetric distribution, life cycles, and habitats were derived for 15 ostracod species and are predominantly related to water temperature and sediment texture. O-isotope compositions of ostracod valves in Lake Geneva reflect that of water and temperature. However, offsets of up to 3 permil are observed in comparison with proposed inorganic calcite precipitation equilibrium composition. Deprotonation of HCO3- and/or salt effect at crystallisation sites may explain the disequilibrium observed for O-isotopic compositions. C-isotope compositions of ostracod valves are not as well constrained and appear to be controlled by a complex interaction between habitat preferences and seasonal as well as spatial variations of the DIC isotope composition. For infaunal forms, C-isotope compositions reflect mainly the variation of DIC isotope composition in interstitial pore waters. For epifaunal forms, C-isotope compositions reflect the seasonal variation of DIC isotope compositions. C-isotope compositions of ostracod valves is at equilibrium with DIC except for a small number of species (L. inopinata, L. sanctipatricii and possibly C. ophtalmica, and I. beauchampi). Trace element uptake differs considerably from species to species. For most epifaunal forms, trace element content follows the seasonal cycle, recording temperature increases and/or variations of Mg/Ca and Sr/Ca ratios of water. In contrast, infaunal forms are predominantly related to sediment pore water chemistry. RÉSUMÉ EN FRANÇAIS : Les ostracodes sont de petits crustacés benthiques qui possèdent une coquille faite de calcite à faible teneur en magnésium. La composition isotopique et les rapports Mg/Ca et Sr/Ca d'ostracodes fossiles ont été utilisés maintes fois avec succès pour effectuer des reconstructions paléoenvironnementales. Néanmoins, certains désaccords persistent sur l'interprétation de ces données. De plus, l'influence de certains facteurs pouvant biaiser le signal reste encore inconnue. Ainsi, le but de cette étude est de rendre plus performant l'emploi de la composition géochimique des ostracodes comme indicateur paléoenvironnemental. Pour réaliser cela, cinq sites situés dans le Léman à 2, 5, 13, 33 et 70 m de profondeur ont été choisis pour effectuer les échantillonnages. Chaque site a été visité une fois par mois durant une année. Les différents paramètres environnementaux (pH, température) ainsi que la composition géochimique de l'eau (composition isotopique de l'oxygène et du carbone ainsi que teneur en calcium, magnésium et strontium) ont été déterminés pour chaque campagne. Des ostracodes vivants ont été récoltés au cinq sites en même temps que les échantillons d'eau. Ce travail de terrain a permis de caractériser la géochimie de l'eau se trouvant juste au-dessus des sédiments ainsi que celle de l'eau se trouvant dans les interstices du sédiment. Dans les zones littorales à sublittorales, la composition isotopique du carbone inorganique dissout (CID) ainsi que les rapports Mg/Ca et Sr/Ca de l'eau varient linéairement avec la température. Ceci peut être expliqué par la précipitation de calcite qui est contrôlée par l'activité photosynthétique, variant elle même linéairement avec la température. Dans les zones plus profondes, les paramètres environnementaux restent relativement constants tout au long de l'année. Les variations du pH, de la concentration et de la composition isotopique du CID dans les sédiments résultent de la libération de carbone engendrée par la dégradation de la matière organique avec présence d'oxygène ou via réduction de nitrates et de sulfates, par la dissolution de carbonates, ainsi que par la méthanogenèse. La distribution bathymétrique, le cycle de vie ainsi que l'habitat de 15 espèces ont été déterminés. Ceux-ci sont principalement reliés à la température de l'eau et à la texture des sédiments. La composition isotopique de l'oxygène des valves d'ostracodes reflète celle de l'eau et la température qui régnait lors de la calcification. Néanmoins, des écarts pouvant aller jusqu'à 3 0/00 par rapport à l'équilibre théorique ont été obtenus. La déprotonation de HCO3 ou un 'effet de sel' pourrait être à l'origine du déséquilibre observé. La composition isotopique du carbone des valves d'ostracodes n'est pas aussi bien cernée. Celle-ci semble être principalement contrôlée par une interaction complexe entre l'habitat des ostracodes et les variations saisonnières et spatiales de la composition isotopique du CID. Pour les espèces endofaunes, la composition isotopique du carbone reflète principalement la variation de la composition isotopique du CID à l'intérieur des sédiments. Pour les formes épifaunes, c'est la variation saisonnière de la composition du CID qui contrôle celle de la coquille des ostracodes. En général, la composition isotopique du carbone des valves d'ostracodes est en équilibre avec celle de CID, hormis pour quelques rares espèces (L. inopinata, L. sanctipatricii et peut-être C. ophtalmica et I. beauchampi). L'incorporation des éléments traces diffère passablement d'une espèce à l'autre. Pour la plupart des espèces épifaunes, la teneur en éléments traces des coquilles reflète les variations saisonnières. Ces espèces semblent enregistrer les variations soit de la température soit des rapports Mg/Ca et Sr/Ca de l'eau. La teneur en élément traces des formes infaunales, au contraire, est principalement reliée à la chimie de l'eau interstitielle. RÉSUMÉ GRAND-PUBLIC : La connaissance de l'évolution du climat dans le futur est primordiale pour notre société, car elle permet de développer différentes stratégies pour faire face aux problèmes engendrés pas le changement climatique : stratégies environnementale, humanitaire, ou encore économique. Cette problématique est actuellement, à juste titre, sujet d'une vive préoccupation. La géologie peut-elle contribuer à l'effort communautaire entrepris? Naturellement, ce sont les climatologues qui sont sur le devant de la scène. Il n'empêche que ces derniers, pour pouvoir prédire l'avenir, doivent s'appuyer sur le passé. La géologie est alors d'un grand intérêt car c'est effectivement la seule science qui permette d'estimer les variations climatiques à grande échelle sur de longues périodes. Ainsi, voulant moi-même contribuer aux recherches menées dans ce domaine, je me suis tourné à la fin de mes études vers la paléoclimatologie, science qui a pour but de reconstruire le climat des temps anciens. Nous nous sommes rendu compte que l'évolution climatique de la région où nous habitons n'avait pas encore fait le sujet d'études approfondies. Il est pourtant important de connaître la variation locale des changements climatiques pour obtenir des modèles climatiques fiables. En conséquence, un vaste projet a vu le jour : reconstruire, à l'aide des sédiments du lac Léman, les variations paléoclimatiques et paléo-environnementales depuis le retrait du Glacier de Rhône, il y a environ 15'000 ans, jusqu'à nos jours. Pour ce genre de travail, la géochimie, qui est une forme de chimie, utilisée en science de la terre regroupant la chimie classique et la chimie isotopique, est une alliée particulièrement efficace. Elle permet en effet, via différentes mesures faites sur des archives géologiques (par exemple des fossiles ou des sédiments) d'obtenir des informations, souvent quantitatives, sur les conditions (le climat, la flore ou encore la bio productivité, etc...) qui régnaient il y a fort longtemps. Les coquilles d'ostracodes, qui sont de petits animaux vivant au fond des lacs, sont une des archives les plus prometteuses. Ces animaux sont des petits crustacés s'entourant d'une coquille calcaire qu'ils sécrètent eux-mêmes. A la mort de l'animal, la coquille est intégrée dans les sédiments et reste intacte à travers les âges. Des études ont montré qu'en analysant la géochimie de ces coquilles fossiles, il est possible de reconstruire les conditions environnementales qui régnaient à l'époque de vie de ces fossiles. Cette démarche nécessite qu'une condition bien précise soit remplie: la composition géochimique de la coquille doit enregistrer de manière fidèle la chimie de l'eau et/ou la température de l'eau présentes au moment de la sécrétion de la coquille. Le but spécifique de notre recherche a précisément été d'étudier la façon dont la chimie de l'eau ainsi que sa température sont enregistrées dans la coquillé des ostracodes. Une fois les relations entre ces divers paramètres dans l'étant actuel du système établies, il sera alors possible de les utiliser pour interpréter des données issues de coquilles fossiles. Pour ce faire, nous avons mesuré la température de l'eau de manière continue et récolté mensuellement des échantillons d'eau et des ostracodes vivants pendant une année. Cinq sites situés à 2, 5, 13, 33 et 70 mètres de profondeur ont été choisis pour effectuer ces échantillonnages dans le Léman. Le travail de terrain nous a amené à étudier la biologie de 15 espèces. Nous avons pu établir la profondeur à laquelle vivent ces animaux, leur période de développement ainsi que leur habitat respectifs. Ces résultats ont permis de mieux cerner la relation qu'il existe entre la chimie de l'eau, sa température et la composition géochimique des coquilles d'ostracodes. Nous avons ainsi pu confirmer que les coquilles d'ostracodes enregistrent de manière fidèle la composition chimique et isotopique de l'eau. De même, nous avons pu établir de manière plus précise l'effet de la température sur la géochimie des coquilles. Néanmoins, les relations trouvées entre ces trois éléments sont plus complexes pour certaines espèces, cette complexité étant souvent liée à un caractère spécifique de leur écologie. Nous avons mis en lumière certains effets qui biaisent les résultats et défini précisément les conditions dans lesquelles on peut s'attendre à avoir des difficultés dans leur interprétation. Maintenant que nous avons établi les relations entre le climat actuel et la composition géochimique des coquilles d'ostracodes actuels, nous pouvons, sur la base de ce modèle, reconstruire le climat depuis le retrait du Glacier du Rhône jusqu'à nos jours à l'aide d'ostracodes fossiles. Mais cela est une autre histoire et fera, je l'espère, le sujet de nos futures recherches.
Resumo:
En lien avec la prise de conscience de l'importance du patrimoine géologique et géomorphologique, les géomorphosites ont obtenu une attention croissante de la part de la communauté scientifique. Des méthodes d'évaluation, de classification et des stratégies de conservation ont été développées afin de sauvegarder le géopatrimoine pour les générations présentes et futures. Parallèlement, des programmes éducatifs et de loisirs ainsi que divers projets de développement local ont été créés ces dernières années afin de promouvoir et sauvegarder le géopatrimoine. Que ce soit pour l'évaluation, la conservation ou la promotion, la cartographie des géomorphosites est utile à plusieurs égards. Les cartes peuvent fournir des données fondamentales pour la description détaillée des géomorphosites, servir d'aide à la décision, par exemple dans la définition des priorités de protection, ou soutenir la valorisation et la médiation du géopatrimoine. Cette étude fait l'état de l'avancement et des objectifs encore à atteindre dans le domaine de la cartographie des géomorphosites et propose un cadre général prenant en compte les différents objectifs et publics. L'objectif principal de cette étude est la cartographie des géomorphosites pour un public de non - spécialistes dans le domaine de la valorisation du géopatrimoine ( géotourisme ). Dans ce contexte, les cartes sont souvent utilisées pour montrer les itinéraires ou les points d'intérêt. Elles peuvent cependant également servir à représenter des données géoscientifiques afin de visualiser les processus qui ont contribué à la formation d'un géomorphosite ou d'un paysage géomorphologique et qui ne sont plus ou pas toujours clairement visibles dans le paysage. Dans ce cas, les cartes deviennent des outils de visualisation, comme un schéma ou un diagramme. L'enjeu de la cartographie pour non - spécialistes réside dans un transfert efficace des informations entre le cartographe et l'utilisateur. Par conséquent, nous focalisons l'attention à la fois sur la réalisation de la carte par le cartographe (quelle information? Quel mode de visualisation?) et sur l 'interprétation de la carte par l'utilisateur (efficacité de la transmission). Notre recherche est basée sur des études empiriques, menées dans la vallée de Maderan (canton d'Uri) et dans des classes des cantons d'Uri et du Tessin, visant à acquérir des connaissances sur la familiarité et les intérêts des non - spécialistes par rapport au géopatrimoine, ainsi que sur leurs compétences en matière de lecture de carte. L'objectif final est de formuler des propositions méthodologiques pour la cartographie des géomorphosites à des fins de valorisation.
Resumo:
Dans le cadre de l'activité professionnelle, des facteurs de stress d'ordre psychologique, social, et liés à l'organisation du travail, peuvent induire des réponses physiologiques et comportementales impliquées dans la survenue de pathologies comme les maladies cardiovasculaires, les troubles de la santé mentale et les troubles musculosquelettiques.Le Régime social des indépendants (RSI) a sollicité l'Inserm afin de disposer d'un bilan des connaissances sur le stress d'origine professionnelle chez les travailleurs indépendants et ses répercussions sur la santé.Regroupant à la fois des compétences en biologie, psychologie, sociologie et économie de la santé, cette expertise collective présente les modèles et les mécanismes explicatifs mettant en relation le stress au travail et les principales pathologies.Les stratégies de prévention individuelle et collective qui se développent dans le milieu des travailleurs salariés peuvent-elles être adaptées aux travailleurs indépendants ? [Ed.]
Resumo:
L'hépatite B chronique touche plus de 5% de la population mondiale. Les migrants, et en particulier les requérants d'asile font partie d'une population à risque d'être infectée puisque la plupart viennent de pays à moyenne ou haute endémicité. Pourtant, en Suisse, aucun dépistage de cette infection chronique ne leur est proposé systématiquement. Dans une résolution émise en 2010, l'OMS appelle à promouvoir la vaccination, mais aussi le dépistage des individus à risque, ainsi que la prise en charge des individus infectés. Sur la base d'une enquête bidirectionnelle chez des requérants d'asile du canton de Vaud, le taux de positivité pour les Ac anti-HBc est estimé à 42% et celui des AgHBs à 8%. Les stratégies de dépistage et de prise en charge possibles sont discutées à la lumière de ces données. L'identification des migrants infectés permettrait leur prise en charge, diminuant les complications, ainsi que la transmission du virus entre migrants et à la population locale.