355 resultados para Stratégies antisyndicales
Resumo:
RÉSUMÉ : Chez l'homme, le manque de sélectivité des agents thérapeutiques représente souvent une limitation pour le traitement des maladies. Le ciblage de ces agents pour un tissu défini pourrait augmenter leur sélectivité et ainsi diminuer les effets secondaires en comparaison d'agents qui s'accumuleraient dans tout le corps. Cela pourrait aussi améliorer l'efficacité des traitements en permettant d'avoir une concentration localisée plus importante. Le ciblage d'agents thérapeutiques est un champ de recherche très actif. Les stratégies sont généralement basées sur les différences entre cellules normales et malades. Ces différences peuvent porter soit sur l'expression des molécules à leurs surfaces comme des récepteurs ou des transporteurs, soit sur les activités enzymatiques exprimées. Le traitement thérapeutique choisi ici est la thérapie photodynamique et est déjà utilisé pour le traitement de certains cancers. Cette thérapie repose sur l'utilisation de molécules qui réagissent à la lumière, les photosensibilisants. Elles absorbent l'énergie lumineuse et réagissent avec l'oxygène pour former des radicaux toxiques pour les cellules. Les photosensibilisants utilisés ici sont de deux natures : (i) soit ils sont tétrapyroliques (comme les porphyrines et chlorines), c'est à dire qu'ils sont directement activables par la lumière ; (ii) soit ce sont des prodrogues de photosensibilisants comme l'acide 5aminolévulinique (ALA) qui est transformé dans la cellule en protoporphyrine IX photosensibilisante. Dans le but d'augmenter la sélectivité des photosensibilisants, nous avons utilisé deux stratégies différentes : (i) le photosensibilisant est modifié par le greffage d'un agent de ciblage ; (ii) le photosensibilisant est incorporé dans des structures moléculaires de quelques centaines de nanomètres. Les sucres et l'acide folique sont des agents de ciblage largement établis et ont été utilisés ici car leurs récepteurs sont surexprimés à la surface de nombreuses cellules malades. Ainsi, des dérivés sucres ou acide folique de l'ALA ont été synthétisés et évalués in vitro sur de nombreuses lignées cellulaires cancéreuses. La stratégie utilisant l'acide folique est apparue incompatible avec l'utilisation de l'ALA puisque aucune photosensibilité n'a été induite par le composé. La stratégie utilisant les sucres a, par ailleurs, provoquée de bonnes photosensibilités mais pas d'augmentation de sélectivité. En parallèle, la combinaison entre les propriétés anticancéreuses des complexes métalliques au ruthénium avec les propriétés photosensibilisantes des porphyrines, a été évaluée. En effet, les thérapies combinées ont émergé il y a une dizaine d'années et représentent aujourd'hui de bonnes alternatives aux monothérapies classiques. Des ruthenium(I1)-arènes complexés avec la tetrapyridylporphyrine ont ainsi présenté de bonnes cytotoxicités et de bonnes phototoxicités pour des cellules de mélanomes. Des porphyrines ont aussi été compléxées avec des noyaux de diruthénium et ce type de dérivé a présenté de bonnes phototoxicités et une bonne sélectivité pour les cellules cancéreuses de l'appareil reproducteur féminin. L'incorporation de photosensibilisants tétrapyroliques a finalement été effectuée en utilisant des nanoparticules (NP) biocompatibles composées de chitosan et de hyaluronate. L'effet de ces NP a été évalué pour le traitement de la polyarthrite rhumatoïde (PR). Les NP ont d'abord été testées in vitro avec des macrophages de souris et les résultats ont mis en évidence de bonnes sélectivités et photosensibilités pour ces cellules. In vivo chez un modèle marin de la PR, l'utilisation de ces NP a révélé un plus grand temps de résidence des NP dans le genou de la souris en comparaison du temps obtenu avec le photosensibilisant seul. Le traitement par PDT a aussi démontré une bonne efficacité par ailleurs égale à celle obtenue avec les corticoïdes utilisés en clinique. Pour finir, les NP ont aussi démontré une bonne efficacité sur les myelomonocytes phagocytaires humains et sur les cellules contenues dans le liquide synovial de patients présentant une PR. Tous ces résultats suggèrent que les deux stratégies de ciblage peuvent être efficaces pour les agents thérapeutiques. Afm d'obtenir de bons résultats, il est toutefois nécessaire de réaliser une analyse minutieuse de la cible et du mode d'action de l'agent thérapeutique. Concernant les perspectives, la combinaison des deux stratégies c'est à dire incorporer des agents thérapeutiques dans des nanostructures porteuses d'agents de ciblage, représente probablement une solution très prometteuse. SUMMARY : In humans, the lack of selectivity of drugs and their high effective concentrations often represent limitations for the treatment of diseases. Targeting the therapeutical agents to a defined tissue could enhance their selectivity and then diminish their side effects when compared to drugs that accumulate in the entire body and could also improve treatment efûciency by allowing a localized high concentration of the agents. Targeting therapeutics to defined cells in human pathologies is a main challenge and a very active field of research. Strategies are generally based on the different behaviors and patterns of expression of diseased cells compared to normal cells such as receptors, proteases or trans-membrane carriers. The therapeutic treatment chosen here is the photodynamic therapy and is already used in the treatment of many cancers. This therapy relies on the administration of a photosensitizer (PS) which will under light, react with oxygen and induce formation of reactive oxygen species which are toxic for cells. The PSs used here are either tetrapyrolic (i. e. porphyries and chlorins) or prodrugs of PS (5-aminolevulinic acid precursor of the endogenous protoporphyrin Imo. In order to improve PS internalization and selectivity, we have used two different strategies: the modification of the PSs with diseased cell-targeting agents as well as their encapsulation into nanostructures. Sugars and folic acid are well established as targeting entities for diseased cells and were used here since their transporters are overexpressed on the surface of many cancer cells. Therefore sugar- and folic acid-derivatives of 5-aminolevulinic acid (ALA) were synthesized and evaluated in vitro in several cancer cell lines. The folic acid strategy appeared to be incompatible with ALA since no photosensitivity was induced while the strategy with sugars induced good photosensitivites but no increase of selectivity. Alternatively, the feasibility of combining the antineoplastic properties of ruthenium complexes with the porphyrin's photosensitizing properties, was evaluated since combined therapies have emerged as good alternatives to classical treatments. Tetrapyridylporphyrins complexed to ruthenium (I17 arenes presented good cytotoxicities and good phototoxicities toward melanoma cells. Porphyries were also complexed to diruthenium cores and this type of compound presented good phototoxicities and good selectivity for female reproductive cancer cells. The encapsulation of tetrapyrolic PSs was finally investigated using biocompatible nanogels composed of chitosan and hyaluronate. The behavior of these nanoparticles was evaluated for the treatment of rheumatoid arthritis (RA). They were first tested in vitro in mouse macrophages and results revealed good selectivities and phototoxicities toward these cells. In vivo in mice model of RA, the use of such nanoparticles instead of free PS showed longer time of residence in mice knees. Photodynamic protocols also demonstrated good efficiency of the treatment comparable to the corticoid injection used in the clinic. Finally our system was also efficient in human cells using phagocytic myelomonocytes or using cells of synovial fluids taken from patients with RA. Altogether, these results revealed that both strategies of modification or encapsulation of drugs can be successful in the targeting of diseased cells. However, a careful analysis of the target and of the mode of action of the drug, are needed in order to obtain good results. Looking ahead to the future, the combination of the two strategies (i.e. drugs loaded into nanostructures bearing the targeting agents) would represent probably the best solution.
Resumo:
Ce travail examine les nouveaux objectifs et critères de qualité définis dans le processus de Bologne - et essentiels à sa réalisation - sous l'angle du plurilinguisme. Il s'interroge d'une part sur le rôle du plurilinguisme pour l'ensemble des disciplines dans le contexte d'internationalisation engendré par la création de l'Espace européen d'enseignement supérieur (EEES), et de l'autre sur ce que ces nouvelles exigences signifient en termes de compétences spécifiques à développer à travers les formations en langues universitaires. L'application des critères de Bologne et l'internationalisation qui s'ensuit renforcent l'importance fondamentale du plurilinguisme pour l'ensemble des disciplines, et fait du développement du plurilinguisme dans tous les cursus un facteur de réussite de ce processus. En effet, il s'agit d'une compétence transversale clé pour répondre aux nouveaux défis sociaux, économiques et académiques. Par ailleurs, cette application implique une réorientation substantielle dans les formations en langues universitaires elles-mêmes par rapport aux pratiques actuelles. Des innovations majeures s'imposent quant aux acquis de formation visés. Les nouveaux profils plurilingues et pluriculturels à développer doivent être plus larges et différents, dans la mesure où ils exigent une contextualisation accrue par rapport aux situations d'utilisation auxquelles sont confrontés les étudiants et diplômés dans un monde globalisé multilingue et multiculturel. Dans ce contexte, il s'agit plus particulièrement de contextualiser et de spécifier, en rapport avec le contexte universitaire actuel, un modèle transsectoriel existant, le Cadre européen commun de référence pour les langues (CECRL) du Conseil de l'Europe. Dans cette optique, cette thèse a comme objectif principal d'identifier et de fonder des points de référence spécifiques au domaine des langues et au contexte universitaire européen actuel, qui puissent être constitutifs d'un futur cadre européen commun de référence pour les langues dans l'EEES. Ces points de repère tiennent compte aussi bien des nouveaux besoins et exigences nés du processus de Bologne, que des principes de la politique éducative européenne ainsi que du contexte sociopolitique et économique spécifique, en transformation rapide, qui est à l'origine de la réforme actuelle. De plus, ils incluent les concepts théoriques en relation avec le plurilinguisme que ce travail cherche à contextualiser par diverses analyses et des recherches empiriques afin de spécifier des compétences plurilingues et pluriculturelles génériques pertinentes au secteur universitaire en relation avec les besoins professionnels et académiques. Cette thèse vise à soutenir des stratégies d'application et tente d'instaurer une nouvelle manière d'envisager le lien entre les fondements théoriques et la recherche, la politique éducative européenne et la pratique institutionnelle, pour favoriser le développement d'une compétence plurilingue adéquate des étudiants. Dans ce but elle propose, à partir de points de référence définis au préalable, des outils qui ont pour objectif aussi bien de favoriser une meilleure compréhension des enjeux du plurilinguisme dans Bologne. Elle veut donner un appui systématique et scientifiquement fondé à un processus de prise de conscience et de réflexion nécessaire pour garantir une mise en oeuvre informée des changements requis. Ceci concerne plus particulièrement les choix relatifs aux acquis de formation appropriés, la nature des compétences plurilingues et pluriculturelles à développer dans différentes disciplines linguistiques et non linguistiques, ainsi que les profils à spécifier qui s'articulent aussi bien autour des points de référence européens - eux-mêmes dynamiques et évolutifs grâce à une interaction continue entre théorie et pratique - qu'autour d'une situation locale spécifique.
Resumo:
Astrocytes play a central role in the brain by regulating glutamate and extracellular potassium concentrations ([K+]0), both released by neurons into the extracellular space during neuronal activity. Glutamate uptake is driven by the inwardly directed sodium gradient across the astrocyte membrane and involves the influx of three sodium ions and one proton and the efflux of one K+ ion per glutamate molecule. The glutamate transport induced rise in intracellular sodium stimulates the Na+/K+-ATPase which leads to significant energetic costs in astrocytes. To evaluate how these two fundamental functions of astrocytes, namely glutamate transport and K+ buffering, which are directly associated with neuronal activity, coexist and if they influence each other, in this thesis work we examined different cellular parameters of astrocytes. We therefore investigated the impact of altered [K+]0 on glutamate transporter activity. To assess this question we measured intracellular sodium fluctuations in mouse primary cultured astrocytes using dynamic fluorescence imaging. We found that glutamate uptake was tightly modulated both in amplitude and kinetics by [K+]0. Elevated [K+]0 strongly decreased glutamate transporter activity, with significant consequences on the cells energy metabolism. To ultimately evaluate potential effects of [K+]0 and glutamate on the astrocyte mitochondrial energy production we extended these studies by investigating their impact on the cytosolic and mitochondrial pH. We found that both [K+],, and glutamate strongly influenced cytosolic and mitochondrial pH, but in opposite directions. The effect of a simultaneous application of K+ and glutamate, however, did not fit with the arithmetical sum of each individual effects, suggesting that an additional non¬linear process is involved. We also investigated the impact of [K+]0 and glutamate transport, respectively, on intracellular potassium concentrations ([K+]0 in cultured astrocytes by characterizing and applying a newly developed Insensitive fluorescent dye. We observed that [K+]i followed [K+]0 changes in a nearly proportional way and that glutamate superfusion caused a reversible, glutamate-concentration dependent drop of [K+],, Our study shows the powerful influence of [K+]u on glutamate capture. These findings have strong implications for our understanding of the tightly regulated interplay between astrocytes and neurons in situations where [K+]0 undergoes large activity-dependent fluctuations. However, depending on the extent of K+ versus glutamate extracellular rise, energy metabolism in astrocytes will be differently regulated. Moreover, the novel insights obtained during this thesis work help understanding some of the underlying processes that prevail in certain pathologies of central nervous system, such as epilepsy and stroke. These results will possibly provide a basis for the development of novel therapeutic strategies. -- Les astrocytes jouent un rôle central dans le cerveau en régulant les concentrations de potassium (K+) et de glutamate, qui sont relâchés par les neurones dans l'espace extracellulaire lorsque ceux- ci sont actifs. La capture par les astrocytes du glutamate est un processus secondairement actif qui implique l'influx d'ions sodium (Na+) et d'un proton, ainsi que l'efflux d'ions K+, ce processus entraîne un coût métabolique important. Nous avons évalué comment ces fonctions fondamentales des astrocytes, la régulation du glutamate et du K+ extracellulaire, qui sont directement associés à l'activité neuronale, coexistent et si elles interagissent, en examinant différents paramètres cellulaires. Dans ce projet de thèse nous avons évalué l'impact des modifications de la concentration de potassium extracellulaire ([K+],,) sur le transport du glutamate. Nous avons mesuré le transport du glutamate par le biais des fluctuations internes de Na+ grâce à un colorant fluorescent en utilisant de l'imagerie à fluorescence dynamique sur des cultures primaires d'astrocytes. Nous avons trouvé que la capture du glutamate était étroitement régulée par [K+]0 aussi bien dans son amplitude que dans sa cinétique. Par la suite, nous avons porté notre attention sur l'impact de [K+]0 et du glutamate sur le pH cytosolique et mitochondrial de l'astrocyte dans le but, in fine, d'évaluer les effets potentiels sur la production d'énergie par la mitochondrie. Nous avons trouvé qu'autant le K+ que le glutamate, de manière individuelle, influençaient fortement le pH, cependant dans des directions opposées. Leurs effets individuels, ne peuvent toutefois pas être additionnés ce qui suggère qu'un processus additionnel non-linéaire est impliqué. En appliquant une nouvelle approche pour suivre et quantifier la concentration intracellulaire de potassium ([K+]0 par imagerie à fluorescence, nous avons observé que [K+]i suivait les changements de [K+]0 de manière quasiment proportionnelle et que la superfusion de glutamate induisait un décroissement rapide et réversible de [K+]i, qui dépend de la concentration de glutamate. Notre étude démontre l'influence de [K+]0 sur la capture du glutamate. Ces résultats permettent d'améliorer notre compréhension de l'interaction entre astrocytes et neurones dans des situations où [K+]0 fluctue en fonction de l'activité neuronale. Cependant, en fonction de l'importance de l'augmentation extracellulaire du K+ versus le glutamate, le métabolisme énergétique des astrocytes va être régulé de manière différente. De plus, les informations nouvelles que nous avons obtenues durant ce travail de thèse nous aident à comprendre quelques- uns des processus sous-jacents qui prévalent dans certaines pathologies du système nerveux central, comme par exemple l'épilepsie ou l'accident vasculaire cérébral. Ces informations pourront être importantes à intégrer dans la cadre du développement de nouvelles stratégies thérapeutiques.
Resumo:
A l'occasion d'une intervention en santé au travail au siège d'une ONG humanitaire, nous avons constaté la présence d'une souffrance au travail importante parmi le personnel. Nous avons alors effectué une recherche sur l'organisation du travail et l'activité des employés dans le but de proposer des pistes de compréhension de cette souffrance. Nous avons collecté des données à l'aide d'un questionnaire, de 20 entretiens semi-directifs et de 26 jours d'observation non-participante. Nous avons mis en évidence un type de fonctionnement spécifique s'articulant en permanence autour de l'urgence. Celui-ci se nourrit de la nature des interventions de cette ONG ainsi que de la très forte valorisation des activités liées aux missions sur les terrains : tout se passe comme si le mode d'intervention " en situation d'urgence ", propre aux activités du terrain, contaminait l'organisation du travail au niveau du siège. Les employés sont pris dans un rythme effréné, ce qui les empêche de rester attentif à l'importance des tâches et de discriminer entre ce qui relève de " vraies " urgences et d'urgences " fantasmées ". Ceci génère un environnement potentiellement pathogène, où il est d'une part peu légitime de se préoccuper de sa propre santé et où d'autre part la charge de travail et le rythme ne laissent pas le temps à l'employé de mettre en place des stratégies de préservation de sa santé. [Auteures]
Resumo:
Sur la base d'une enquête quantitative et qualitative auprès des hauts fonctionnaires et membres du Gouvernement des cantons du Valais, du Jura et de Neuchâtel, le présent article vise à tester l'hypothèse selon laquelle les réformes inspirées des principes de la nouvelle gestion publique conduisent à la redéfinition des relations entre acteurs politiques et administratifs. Autrement dit, l'introduction des réformes permettrait de séparer plus strictement les activités stratégiques des activités opérationnelles. Or, les constats que nous tirons de nos investigations rendent compte d'une certaine « stabilité » des relations politico-administratives, au-delà des différences constatées dans les stratégies de modernisation menées dans les trois entités cantonales. Des facteurs institutionnels, mais également politiques, peuvent expliquer cette stabilité. De sorte que nos résultats remettent en question la faisabilité et la légitimité d'une séparation entre sphères politique et administrative à un niveau de gouvernance cantonal en Suisse.
Resumo:
SUMMARY When exposed to heat stress, plants display a particular set of cellular and molecular responses, such as chaperones expression, which are highly conserved in all organisms. In chapter 1, I studied the ability of heat shock genes to become transiently and abundantly induced under various temperature regimes. To this aim, I designed a highly sensitive heat-shock dependent conditional gene expression system in the moss Physcomitrella patens, using the soybean heatinducible promoter (hsp17.3B). Heat-induced expression of various reporter genes was over three orders of magnitude, in tight correlation with the intensity and duration of the heat treatments. By performing repeated heating/cooling cycles, a massive accumulation of recombinant proteins was obtained. Interestingly, the hsp17.3B promoter was also activated by specific organic chemicals. Thus, in chapter 2, I took advantage of the extreme sensitivity of this promoter to small temperature variations to further address the role of various natural and organic chemicals and develop a plant based-bioassay that can serve as an early warning indicator of toxicity by pollutants and heavy metals. A screen of several organic pollutants from textile and paper industry showed that chlorophenols as well as sulfonated anthraquinones elicited a heat shock like response at noninducing temperatures. Their effects were synergistically amplified by mild elevated temperatures. In contrast to standard methods of pollutant detection, this plant-based biosensor allowed to monitor early stress-responses, in correlation with long-term toxic effect, and to attribute effective toxicity thresholds for pollutants, in a context of varying environmental cues. In chapter 3, I deepened the study of the primary mechanism by which plants sense mild temperature variations and trigger a cellular signal leading to the heat shock response. In addition to the above described heat-inducible reporter line, I generated a P. patens transgenic line to measure, in vivo, variations of cytosolic calcium during heat treatment, and another line to monitor the role of protein unfolding in heat-shock sensing and signalling. The heat shock signalling pathway was found to be triggered by the plasma membrane, where temperature up shift specifically induced the transient opening of a putative high afimity calcium channel. The calcium influx triggered a signalling cascade leading to the activation of the heat shock genes, independently on the presence of misfolded proteins in the cytoplasm. These results strongly suggest that changes in the fluidity of the plasma membrane are the primary trigger of the heatshocksignalling pathway in plants. The present thesis contributes to the understanding of the basic mechanism by which plants perceive and respond to heat and chemical stresses. This may contribute to developing appropriate better strategies to enhance plant productivity under the increasingly stressful environment of global warming. RÉSUME Les plantes exposées à des températures élevées déclenchent rapidement des réponses cellulaires qui conduisent à l'induction de gènes codant pour les heat shock proteins (HSPs). En fonction de la durée d'exposition et de la vitesse à laquelle la température augmente, les HSPs sont fortement et transitoirement induites. Dans le premier chapitre, cette caractéristique aété utilisée pour développer un système inductible d'expression de gènes dans la mousse Physcomitrella patens. En utilisant plusieurs gènes rapporteurs, j'ai montré que le promoteur du gène hsp17.3B du Soja est activé d'une manière. homogène dans tous les tissus de la mousse proportionnellement à l'intensité du heat shock physiologique appliqué. Un très fort taux de protéines recombinantes peut ainsi être produit en réalisant plusieurs cycles induction/recovery. De plus, ce promoteur peut également être activé par des composés organiques, tels que les composés anti-inflammatoires, ce qui constitue une bonne alternative à l'induction par la chaleur. Les HSPs sont induites pour remédier aux dommages cellulaires qui surviennent. Étant donné que le promoteur hsp17.3B est très sensible à des petites augmentations de température ainsi qu'à des composés chimiques, j'ai utilisé les lignées développées dans le chapitre 1 pour identifier des polluants qui déclenchent une réaction de défense impliquant les HSPs. Après un criblage de plusieurs composés, les chlorophénols et les antraquinones sulfonés ont été identifiés comme étant activateurs du promoteur de stress. La détection de leurs effets a été réalisée seulement après quelques heures d'exposition et corrèle parfaitement avec les effets toxiques détectés après de longues périodes d'exposition. Les produits identifiés montrent aussi un effet synergique avec la température, ce qui fait du biosensor développé dans ce chapitre un bon outil pour révéler les effets réels des polluants dans un environnement où les stress chimiques sont combinés aux stress abiotiques. Le troisième chapitre est consacré à l'étude des mécanismes précoces qui permettent aux plantes de percevoir la chaleur et ainsi de déclencher une cascade de signalisation spécifique qui aboutit à l'induction des gènes HSPs. J'ai généré deux nouvelles lignées afin de mesurer en temps réel les changements de concentrations du calcium cytosolique ainsi que l'état de dénaturation des protéines au cours du heat shock. Quand la fluidité de la membrane augmente après élévation de la température, elle semble induire l'ouverture d'un canal qui permet de faire entrer le calcium dans les cellules. Ce dernier initie une cascade de signalisation qui finit par activer la transcription des gènes HSPs indépendamment de la dénaturation de protéines cytoplasmiques. Les résultats présentés dans ce chapitre montrent que la perception de la chaleur se fait essentiellement au niveau de la membrane plasmique qui joue un rôle majeur dans la régulation des gènes HSPs. L'élucidation des mécanismes par lesquels les plantes perçoivent les signaux environnementaux est d'une grande utilité pour le développement de nouvelles stratégies afin d'améliorer la productivité des plantes soumises à des conditions extrêmes. La présente thèse contribue à décortiquer la voie de signalisation impliquée dans la réponse à la chaleur.
Resumo:
Cette thèse s'inscrit dans le cadre de la Pragmalinguistique et d'Analyse du discours oral et offre une étude approfondie d'un talk show télévisuel espagnol, Diario de Patricia, format dans lequel la présentatrice du même nom reçoit des invités pour parler avec eux de leurs problèmes personnels. Ce travail propose une relecture de grandes théories pragmatiques (comme la Théorie des actes du langage, le Principe de coopération, la Théorie de la politesse ou encore la Théorie de la pertinence) et leur application à des discours réels. Les principes de la linguistique de l'interaction permettent également de décrire l'organisation des talk shows, les stratégies discursives de la présentatrice, la façon dont elle prépare chaque émission et planifie les interviews avec ses invités afin de provoquer chez ceux-ci des réactions émotionnelles qui l'intéressent en vue du taux d'audience. Ce travail de recherche présente également une analyse approfondie des mécanismes pragmalinguistiques utilisés par la présentatrice pour imposer son autorité et pour maîtriser la situation d'une façon que l'auteure qualifie de manipulation des invités, toujours sous une apparence d'empathie et de compréhension.
Resumo:
The thesis at hand is concerned with the spatio-temporal brain mechanisms of visual food perception as investigated by electrical neuroimaging. Due to the increasing prevalence of obesity and its associated challenges for public health care, there is a need to better understand behavioral and brain processes underlying food perception and food-based decision-making. The first study (Study A) of this thesis was concerned with the role of repeated exposure to visual food cues. In our everyday lives we constantly and repeatedly encounter food and these exposures influence our food choices and preferences. In Study A, we therefore applied electrical neuroimaging analyses of visual evoked potentials to investigate the spatio-temporal brain dynamics linked to the repeated viewing of high- and low-energy food cues (published manuscript: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). In this study, we found that repetitions differentially affect behavioral and brain mechanisms when high-energy, as opposed to low-energy foods and non-food control objects, were viewed. The representation of high-energy food remained invariant between initial and repeated exposures indicating that the sight of high-energy dense food induces less behavioral and neural adaptation than the sight of low-energy food and non-food control objects. We discuss this finding in the context of the higher salience (due to greater motivation and higher reward or hedonic valuation) of energy- dense food that likely generates a more mnemonically stable representation. In turn, this more invariant representation of energy-dense food is supposed to (partially) explain why these foods are over-consumed despite of detrimental health consequences. In Study Β we investigated food responsiveness in patients who had undergone Roux-en-Y gastric bypass surgery to overcome excessive obesity. This type of gastric bypass surgery is not only known to alter food appreciation, but also the secretion patterns of adipokines and gut peptides. Study Β aimed at a comprehensive and interdisciplinary investigation of differences along the gut-brain axis in bypass-operated patients as opposed to weight-matched non-operated controls. On the one hand, the spatio-temporal brain dynamics to the visual perception of high- vs. low-energy foods under differing states of motivation towards food intake (i.e. pre- and post-prandial) were assessed and compared between groups. On the other hand, peripheral gut hormone measures were taken in pre- and post-prandial nutrition state and compared between groups. In order to evaluate alterations in the responsiveness along the gut-brain-axis related to gastric bypass surgery, correlations between both measures were compared between both participant groups. The results revealed that Roux-en- Y gastric bypass surgery alters the spatio-temporal brain dynamics to the perception of high- and low-energy food cues, as well as the responsiveness along the gut-brain-axis. The potential role of these response alterations is discussed in relation to previously observed changes in physiological factors and food intake behavior post-Roux-en-Y gastric bypass surgery. By doing so, we highlight potential behavioral, neural and endocrine (i.e. gut hormone) targets for the future development of intervention strategies for deviant eating behavior and obesity. Together, the studies showed that the visual representation of foods in the brain is plastic and that modulations in neural activity are already noted at early stages of visual processing. Different factors of influence such as a repeated exposure, Roux-en-Y gastric bypass surgery, motivation (nutrition state), as well as the energy density of the visually perceived food were identified. En raison de la prévalence croissante de l'obésité et du défi que cela représente en matière de santé publique, une meilleure compréhension des processus comportementaux et cérébraux liés à la nourriture sont nécessaires. En particulier, cette thèse se concentre sur l'investigation des mécanismes cérébraux spatio-temporels liés à la perception visuelle de la nourriture. Nous sommes quotidiennement et répétitivement exposés à des images de nourriture. Ces expositions répétées influencent nos choix, ainsi que nos préférences alimentaires. La première étude (Study A) de cette thèse investigue donc l'impact de ces exposition répétée à des stimuli visuels de nourriture. En particulier, nous avons comparé la dynamique spatio-temporelle de l'activité cérébrale induite par une exposition répétée à des images de nourriture de haute densité et de basse densité énergétique. (Manuscrit publié: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). Dans cette étude, nous avons pu constater qu'une exposition répétée à des images représentant de la nourriture de haute densité énergétique, par opposition à de la nourriture de basse densité énergétique, affecte les mécanismes comportementaux et cérébraux de manière différente. En particulier, la représentation neurale des images de nourriture de haute densité énergétique est similaire lors de l'exposition initiale que lors de l'exposition répétée. Ceci indique que la perception d'images de nourriture de haute densité énergétique induit des adaptations comportementales et neurales de moindre ampleur par rapport à la perception d'images de nourriture de basse densité énergétique ou à la perception d'une « catégorie contrôle » d'objets qui ne sont pas de la nourriture. Notre discussion est orientée sur les notions prépondérantes de récompense et de motivation qui sont associées à la nourriture de haute densité énergétique. Nous suggérons que la nourriture de haute densité énergétique génère une représentation mémorielle plus stable et que ce mécanisme pourrait (partiellement) être sous-jacent au fait que la nourriture de haute densité énergétique soit préférentiellement consommée. Dans la deuxième étude (Study Β) menée au cours de cette thèse, nous nous sommes intéressés aux mécanismes de perception de la nourriture chez des patients ayant subi un bypass gastrique Roux- en-Y, afin de réussir à perdre du poids et améliorer leur santé. Ce type de chirurgie est connu pour altérer la perception de la nourriture et le comportement alimentaire, mais également la sécrétion d'adipokines et de peptides gastriques. Dans une approche interdisciplinaire et globale, cette deuxième étude investigue donc les différences entre les patients opérés et des individus « contrôles » de poids similaire au niveau des interactions entre leur activité cérébrale et les mesures de leurs hormones gastriques. D'un côté, nous avons investigué la dynamique spatio-temporelle cérébrale de la perception visuelle de nourriture de haute et de basse densité énergétique dans deux états physiologiques différent (pre- et post-prandial). Et de l'autre, nous avons également investigué les mesures physiologiques des hormones gastriques. Ensuite, afin d'évaluer les altérations liées à l'intervention chirurgicale au niveau des interactions entre la réponse cérébrale et la sécrétion d'hormone, des corrélations entre ces deux mesures ont été comparées entre les deux groupes. Les résultats révèlent que l'intervention chirurgicale du bypass gastrique Roux-en-Y altère la dynamique spatio-temporelle de la perception visuelle de la nourriture de haute et de basse densité énergétique, ainsi que les interactions entre cette dernière et les mesures périphériques des hormones gastriques. Nous discutons le rôle potentiel de ces altérations en relation avec les modulations des facteurs physiologiques et les changements du comportement alimentaire préalablement déjà démontrés. De cette manière, nous identifions des cibles potentielles pour le développement de stratégies d'intervention future, au niveau comportemental, cérébral et endocrinien (hormones gastriques) en ce qui concerne les déviances du comportement alimentaire, dont l'obésité. Nos deux études réunies démontrent que la représentation visuelle de la nourriture dans le cerveau est plastique et que des modulations de l'activité neurale apparaissent déjà à un stade très précoce des mécanismes de perception visuelle. Différents facteurs d'influence comme une exposition repetee, le bypass gastrique Roux-en-Y, la motivation (état nutritionnel), ainsi que la densité énergétique de la nourriture qui est perçue ont pu être identifiés.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
AbstractThis article seeks to assess the importance of Angela Carter's little-known work as a translator of Perrault's tales in The Fairy Tales of Charles Perrault (1977) through an examination of her "Little Red Riding Hood". Carter is mostly famous today for The Bloody Chamber and Other Stories (1979), a collection of innovative and thought-provoking fairy-tale rewritings infused with feminist concerns, strategies and perspectives. Insofar as Carter was translating Perrault's tales while writing her own "stories about fairy stories", an analysis of her translations reveals them as part of an ongoing dialogue with the work of the French author. While Carter's translations consciously update and adapt the material for children whom she seeks to sensitize to gender issues, she does not so much challenge the sexual politics of her source as recognize the emancipatory potential of Perrault's contes as useful "fables of the politics of experience".RésuméCet article vise à rendre compte de l'activité méconnue de traductrice déployée par l'auteure anglaise Angela Carter conjointement à son oeuvre de fiction, et à en reconnaître l'importance dans sa trajectoire d'écrivain. Une analyse de « Little Red Riding Hood », publié dans The Fairy Tales of Charles Perrault (1977), permet d'éclairer la poétique particulière qu'elle développera dans le recueil qui l'a rendue célèbre, The Bloody Chamber and Other Stories (1979), des « histoires sur des contes de fées » qui reflètent la perspective et les stratégies féministes de l'auteure. Carter a mené de front ses traductions et réécritures, envisagées ici comme deux formes du dialogue très riche et complexe qu'elle engage à cette période avec l'oeuvre de Perrault, plutôt qu'une subversion de celui-ci. Ainsi, sa traduction modernise et simplifie le texte des contes pour de jeunes lecteurs qu'elle cherche à sensibiliser à des problématiques de genre, en leur révélant la portée émancipatrice des contes de Perrault qu'elle envisage comme « des fables utiles sur la politique de l'expérience » plutôt qu'en contestant la politique sexuelle de sa source.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.