998 resultados para Forme chimique
Resumo:
Introduction: Les kystes synoviaux localisés à l'épaule sont des conditions rares résultant de tendinopathies rompues de la coiffe des rotateurs, d'une omarthrose sévère, d'arthropathies microcristallines de l'articulation acromio-claviculaire ou gléno-humérale, ou d'une atteinte secondaire à un rhumatisme inflammatoire chronique. Ils se présentent cliniquement le plus souvent sous la forme d'une tuméfaction fluctuante indolore en regard du moignon de l'épaule ou de l'articulation acromio-claviculaire. L'imagerie par échographie permet de caractériser aisément la présence de ces kystes. La prise en charge thérapeutique est généralement non invasive par aspiration-infiltration. Les cas réfractaires sont susceptibles de subir une intervention chirurgicale en fonction de l'âge et de l'état général du patient.Patients et Méthodes: Nous rapportons les cas de 3 patients avec imagerie par échographie et IRM ou Scanner. Le premier cas est celui d'un homme de 47 ans, greffé rénal, présentant une arthrite récidivante des épaules sur arthropathie microcristalline mixte. De multiples kystes synoviaux sont mis en évidence dans la musculature du supra-épineux gauche, communiquant avec l'articulation acromio-claviculaire. Le patient a bénéficié à plusieurs ponctions-infiltrations dirigées par ultrasonographie. Le deuxième cas est celui d'un patient de 32 ans connu pour une arthrite psoriasique évoluant depuis 6 ans. Il présente une importante tuméfaction en regard du biceps à gauche sur un kyste synovial provenant de l'articulation gléno-humérale. Il bénéficie également d'une ponction-infiltration dirigée par ultrason. Le troisième cas est celui d'une femme de 91 ans chez qui au status d'entrée on objective une volumineuse masse polylobée en regard de l'acromio-claviculaire, présente depuis 2002 qui n'a jamais été symptomatique. Un US, puis un CT montrent qu'il s'agit de volumineux kystes articulaires en relation avec une arthropathie sévère dégénérative et à apatite de l'acromio-claviculaire.Résultats: Les trois patients ont bénéficié d'une imagerie diagnostique par échographie complétée par une IRM ou Scanner. Tous les trois ont également subi une aspiration dirigée sous échographie. Dans le premier cas, deux aspiration-infiltration des kystes qui apportaient une évolution favorable avec diminution important des kystes. Dans le deuxième cas nous avons retrouvé un kyste après 2 aspirations et dans ce cas une intervention chirurgicale est considérée. Dans le troisième cas, asymptomatique, une résection à visée esthétique a été refusée par la patiente.Conclusion: Les kystes synoviaux localisés à l'épaule restent des conditions rares, provenant d'entités diverses. Nous rapportons le développement de kystes synoviaux de l'épaule dans une arthropathie microcristalline chez un patient greffé rénal, dans une arthrite psoriasique chez un jeune patient en poussée inflammatoire, et finalement de gros kystes asymptomatiques chroniques sur une atteinte dégénérative et microcristalline chez une patiente âgée. Le diagnostic de ces kystes peut être rapidement obtenu par échographie, permettant l'aspiration guidée avec analyse du liquide. En raison d'un fort taux de récidive malgré un traitement par aspiration-infiltration, une intervention chirurgicale de ces kystes est considérée.
Resumo:
Résumé : Les vertébrés ont recours au système immunitaire inné et adaptatif pour combattre les pathogènes. La découverte des récepteurs Toll, il y a dix ans, a fortement augmenté l'intérêt porté à l'immunité innée. Depuis lors, des récepteurs intracellulaires tels que les membres de la famille RIG-like helicase (RLHs) et NOD-like receptor (NLRs) ont été décrits pour leur rôle dans la détection des pathogènes. L'interleukine-1 beta (IL-1β) est une cytokine pro-inflammatoire qui est synthétisée sous forme de précurseur, la proIL-1β. La proIL-1β requiert d'être clivée par la caspase-1 pour devenir active. La caspase-1 est elle-même activée par un complexe appelé inflammasome qui peut être formé par divers membres de la famille NLR. Plusieurs inflammasomes ont été décrits tels que le NALP3 inflammasome ou l'IPAF inflammasome. Dans cette étude nous avons identifié la co-chaperone SGT1 et la chaperone HSP90 comme partenaires d'interaction de NALP3. Ces deux protéines sont bien connues chez les plantes pour leurs rôles dans la régulation des gènes de résistance (gène R) qui sont structurellement apparentés à la famille NLR. Nous avons pu montrer que SGT1 et HSP90 jouent un rôle similaire dans la régulation de NALP3 et des protéines R. En effet, nous avons démontré que les deux protéines sont nécessaires pour l'activité du NALP3 inflammasome. De plus, la HSP90 est également requise pour la stabilité de NALP3. En se basant sur ces observations, nous avons proposé un modèle dans lequel SGT1 et HSP90 maintiennent NALP3 inactif mais prêt à percevoir un ligand activateur qui initierait la cascade inflammatoire. Nous avons également montré une interaction entre SGT1 et HSP90 avec plusieurs NLRs. Cette observation suggère qu'un mécanisme similaire pourrait être impliqué dans la régulation des membres de la famille des NLRs. Ces dernières années, plusieurs PAMPs mais également des DAMPs ont été identifiés comme activateurs du NALP3 inflammasome. Dans la seconde partie de cette étude, nous avons identifié la réponse au stress du réticulum endoplasmique (RE) comme nouvel activateur du NALP3 inflammasome. Cette réponse est initiée lors de l'accumulation dans le réticulum endoplasmique de protéines ayant une mauvaise conformation ce qui conduit, en autre, à l'arrêt de la synthèse de nouvelles protéines ainsi qu'une augmentation de la dégradation des protéines. Les mécanismes par lesquels la réponse du réticulum endoplasmique induit l'activation du NALP3 inflammasome doivent encore être déterminés. Summary : Vertebrates rely on the adaptive and the innate immune systems to fight pathogens. Awarness of the importance of the innate system increased with the identification of Toll-like receptors a decade ago. Since then, intracellular receptors such as the RIG-like helicase (RLH) and the NOD-like receptor (NLR) families have been described for their role in the recognition of microbes. Interleukin- 1ß (IL-1ß) is a key mediator of inflammation. This proinflammatory cytokine is synthesised as an inactive precursor that requires processing by caspase-1 to become active. Caspase-1 is, itself, activated in a complex termed the inflammasome that can be formed by members of the NLR family. Various inflammasome complexes have been described such as the IPAF and the NALP3 inflammasome. In this study, we have identified the co-chaperone SGT1 and the chaperone HSP90 as interacting partners of NALP3. SGT1 and HSP90 are both known for their role in the activity of plant resistance proteins (R proteins) which are structurally related to the NLR family. We have shown that HSP90 and SGT1 play a similar role in the regulation of NALP3 and in the regulation of plant R proteins. Indeed, we demonstrated that both HSP90 and SGT1 are essential for the activity of the NALP3 inflammasome complex. In addition, HSP90 is required for the stability of NALP3. Based on these observations, we have proposed a model in which SGT1 and HSP90 maintain NALP3 in an inactive but signaling-competent state, ready to receive an activating ligand that induces the inflammatory cascade. An interaction between several NLR members, SGTI and HSP90 was also shown, suggesting that similar mechanisms could be involved in the regulation of other NLRs. Several pathogen-associated molecular patterns (PAMPs) but also danger associated molecular patterns (DAMPs) have been identified as NALP3 activators. In the second part of this study, we have identified the ER stress response as a new NALP3 activator. The ER stress response is activated upon the accumulation of unfolded protein in the endoplasmic reticulum and results in a block in protein synthesis and increased protein degradation. The mechanisms of ER stress-mediated NALP3 activation remain to be determined.
Resumo:
L'urbanisme durable réinterprète et réinvente le modèle de la ville dense. Il reconsidère les avantages de la proximité et pense l'organisation des relations entre la forme urbaine, les fonctions, les usages et les significations de la ville dans une visée de production de la qualité urbaine. Qualifier la ville c'est inscrire de la valeur dans l'espace. C'est faire de la ville un « trésor d'espaces », donner vie aux quartiers, organiser la mobilité, agencer des noyaux d'urbanité différenciés afin d'intensifier leurs multiples valeurs d'usage (économiques, sociales, écologiques, esthétiques). L'intensité urbaine révèle forcément la présence humaine et la manière dont la ville est vécue, représentée, signifiée et appropriée par ses habitants. L'article explore la notion d'intensité comme outil pour une gestion adaptative des densités urbaines et des tensions qu'elles engendrent. C'est aussi un plaidoyer pour une densification régulée dans une ville plurielle, réticulaire et polycentrique.
Resumo:
L'Académie de Lausanne est la première école supérieure protestante implantée en territoire francophone. Lausanne constitue ainsi, dès les années 1540, un pôle de première importance dans le monde réformé. De nombreux savants protestants, attirés par la liberté de pratiquer leur foi et par la présence de l'Académie, s'établissent dans cette ville et des étudiants affluent de toute l'Europe. Les structures de l'Académie de Lausanne et son programme d'enseignement, fixés par un règlement daté de 1547, condensent sous une forme nouvelle les réflexions pédagogiques de la Renaissance. Ils constituent un modèle, direct ou indirect, pour toutes les Académies calvinistes fondées aux XVIème et XVIIème siècles, que ce soit à Genève, en France, en Allemagne, aux Pays-Bas, en Écosse, en Pologne ou encore aux États-Unis, dont les trois premiers Colleges, Harvard, William and Mary et Yale, se situent dans la même tradition. Malgré la place fondamentale qu'occupe l'Académie de Lausanne dans l'histoire de l'éducation protestante, la phase de création et de développement de cette institution était encore très mal connue. Cette thèse comble cette lacune de l'historiographie par la mise au jour et par l'analyse de nombreux documents, en grande partie inédits. Elle détruit bon nombre de préjugés entourant la mise en place et les buts de l'Académie de Lausanne à ses débuts. Ainsi, l'Académie de Lausanne n'est pas uniquement une école de pasteurs, comme il a souvent été affirmé jusqu'à ce jour, mais plus largement une institution offrant une formation d'un niveau très élevé dans les trois langues anciennes, (latin, grec et hébreu), en arts libéraux, en philosophie naturelle et morale, et en théologie. Au milieu du XVIème siècle, l'Académie lausannoise est capable de rivaliser avec les meilleures institutions pédagogiques de la Renaissance et d'attirer, dans un rayon très large, non seulement des étudiants qui se destinent au pastorat, mais aussi ceux qui sont formés pour gouverner leurs cités. Plus généralement, cette thèse, qui combine des approches d'histoire intellectuelle, d'histoire politique et d'histoire sociale, reconstitue et analyse les structures de l'Académie de Lausanne jusqu'à 1560, ainsi que ses fonctions éducatives, confessionnelles et politiques.
Resumo:
RÉSUMÉ En conjuguant les méthodes de l'histoire littéraire, de la sociologie des champs et de l'analyse littéraire, ce mémoire se propose d'étudier l'élaboration de la « posture » de Maurice Blanchot dans l'immédiat après-guerre (1944-1948). Le passé de Blanchot, marqué par des positions politiques d'extrême droite dans les années 30, et dans une certaine mesure encore sous l'Occupation, le conduit à un repositionnement conséquent dans le champ littéraire de la Libération marqué par l'Epuration des écrivains collaborateurs. Ce repositionnement se traduit par l'élaboration de la « posture » de l'écrivain en retrait, qui se présente comme la manifestation d'une autonomie littéraire radicale. Toutefois, cette posture du retrait demeure une forme de participation au champ littéraire et Blanchot, malgré sa volonté d'une parfaite autonomie de son oeuvre vis-à-vis des impératifs économiques ou idéologiques du temps, n'en est pas moins amené à réélaborer ses postulats critiques de même que sa production proprement dite (Le Très-Haut, L'Arrêt de mort), en interaction avec les nouvelles forces dominantes du champ littéraire de la Libération. Il est notamment conduit à se positionner vis-à-vis de la nouvelle avant-garde qui a émergé de la Résistance, dominée par Sartre et ses Temps Modernes, qui promeut un nouveau modèle, celui de l'écrivain engagé.
Resumo:
Investigación producida a partir de una estancia en la Université Paul Sabatier, Toulouse III - CNRS, entre 2007 y 2009. Durante los últimos años la investigación centrada en nuevos materiales de tamaño nanoscòpico (nanopartículas, quantum dots, nanotubos de carbono,...) ha experimentado un crecimiento considerable debido a las especiales propiedades de los "nanoobjetos" con respecto a magnetismo, catálisis, conductividad eléctrica, etc ... Sin embargo, hoy en día todavía existen pocas aplicaciones de las nanopartículas en temas medioambientales. Uno de los motivos de esta situación es la posible toxicidad de los nanoobjetos, pero existe también una dificultad tecnológica dado que las nanopartículas tienden a agregarse y es muy difícil manipularlas sin que pierdan sus propiedades especiales. Así, aunque la preparación de materiales catalíticos nanoestructurados es muy interesante, es necesario definir nuevas estrategias para prepararlos. Este proyecto de investigación tiene como objetivo principal la preparación de nuevas membranas catalíticas con nanopartículas metálicas en el interior para aplicaciones de tratamiento de agua. La innovación principal de este proyecto consiste en que las nanopartículas no son introducidas en la matriz polimérica una vez preformadas sino que se hacen crecer en el interior de la matriz polimérica mediante una síntesis intermatricial. El único requisito es que la matriz polimérica contenga grupos funcionales capaces de interaccionar con los precursores de las nanopartículas. Una vez finalizado el proyecto se puede afirmar que se han logrado parte de los objetivos planteados inicialmente. Concreamente ha quedado demostrado que se pueden sintetizar nanopartículas metálicas de metales nobles (platino y paladio) en membranas de fibra hueca de micro- y ultrafiltración siguiendo dos metodologías diferentes: modificación fotoquímica de polímeros y deposición de multicapas de polielectrolitos. Los nuevos materiales son efectivos en la catálisis de reducción de un compuesto modelo (4-nitrofenol con borohidruro de sodio) y, en general, los resultados han sido satisfactorios. Sin embargo, se ha puesto de manifiesto que el uso de un reactivo que genera hidrógeno gas en contacto con la solución acuosa dificulta enormemente la implementación de la reacción catalítica al ser el medio de la membrana una matriz porosa. Así, como conclusión principal se puede decir que se han encontrado las limitaciones de esta aproximación y se sugieren dos posibilidades de continuidad: la utilización de las membranas sintetizadas en contactores gas-líquido o bien el estudio y optimización del sistema de membrana en configuración de membranas planas, un objetivo más asequible dada su menor complejidad. Esta investigación se ha realizado en el seno del “Laboratoire de Génie Chimique” de Toulouse y del Departamento de Química de la Michigan State University y ha sido posible gracias a un proyecto financiado por la “Agence National pour la Recherce” y al programa PERMEANT entre el CNRS y la NSF.
Resumo:
L'échec des tentatives de juguler les émissions globales de gaz à effet de serre a mené au renforcement d'un discours sur la nécessité de l'adaptation au changement climatique. Il est de plus souvent considéré qu'une transformation de l'action publique serait nécessaire afin de réduire les impacts de grande magnitude qui découlent du changement climatique. Depuis les années 2000, on constate ainsi un développement des activités étatiques dans le domaine de l'adaptation. Cette évolution suscite une question centrale: quels sont les effets réels que provoque l'intégration de l'adaptation au changement climatique dans la conduite des politiques publiques et comment expliquer les éventuelles limites à ces processus? La littérature spécialisée sur l'adaptation fait preuve d'un certain réductionnisme à l'égard de la complexité de l'action publique en considérant que lorsque la capacité d'agir contre le problème de la vulnérabilité au changement climatique existe, toute forme d'inaction publique serait un déficit de mise en oeuvre provoqué par des barrières à l'action qu'il faudrait lever. A contrario, cette thèse considère l'adaptation comme une norme de politique publique dont l'intégration est susceptible de provoquer des changements institutionnels dans la forme et le contenu des politiques publiques, et des effets concrets sur les acteurs vulnérables au changement climatique. Afin de mesurer les effets de l'intégration politique de l'adaptation, un concept est formulé sur la base d'un idéal-type du régime institutionnel adaptatif, soit une construction théorique des régulations qu'impliquerait une gestion cohérente du système socioécologique complexe dans lequel s'insère le système climatique. L'auteur propose un cadre d'analyse empirique des processus publics d'adaptation qu'il applique ensuite à deux États: l'Inde (politique agricole) et la Suisse (politique du tourisme hivernal), avec pour objectif de repérer des mécanismes explicatifs communs aux effets de l'intégration dans ces deux contextes extrêmement dissemblables. L'étude débouche sur six résultats qui constituent une contribution appréciable à la littérature. L'auteur montre: premièrement, que l'intégration politique de l'adaptation conduit à une production d'actes symboliques, qui s'explique notamment par le manque de pression publique à agir sur le problème de la vulnérabilité au changement climatique; deuxièmement, que le processus d'intégration agit sur la réalité sociale par le biais d'un mécanisme d'attribution de ressources publiques à certains acteurs du champ politique; troisièmement, que les groupes sociaux qui bénéficient de ces ressources publiques ne sont pas nécessairement les plus vulnérables, mais ceux détenant les ressources d'action nécessaires à l'activation de l'intervention publique; quatrièmement, que l'absence de clefs de répartition des coûts de l'adaptation, de procédures de monitoring et d'instruments d'action contraignants limitent les effets des programmes publics d'adaptation; cinquièmement, que la faible articulation institutionnelle entre objectif d'adaptation et objectifs de protection de l'environnement accentue le risque de processus d'adaptation produisant des externalités environnementales; sixièmement, que les transformations dont la littérature souligne la nécessité ne sont pas nécessairement faisables ni désirables. Sur la base de cette analyse, cette thèse s'écarte de la littérature dominante en concluant que les processus publics d'adaptation ne souffrent pas d'un déficit de mise en oeuvre, mais d'un déficit de légitimité lié à leurs effets pernicieux. L'auteur formule alors trois recommandations pour améliorer la légitimité de ces politiques et trois questions ouvertes sur le futur politique de l'adaptation.
Resumo:
RESUME : Bien que les propriétés physiques de la structure de l'ADN aient été intensivement étudiées pendant plus de 50 ans il y a encore beaucoup de questions importantes qui attendent des réponses. Par exemple, qu'arrive-t-il à la structure de la double hélice d'ADN nue (sans protéines liées) lorsqu'elle est fortement courbée, de la même manière que dans les nucléosomes? Cet ADN nu est-il facilement plié (il reste dans le régime élastique) ou réduit-il la contrainte de flexion en formant des sites hyperflexibles «kinks» (il sort du régime élastique en cassant l'empilement des paires de bases à certains endroits) ? La microscopie électronique peut fournir une réponse à cette question par visualisation directe des minicercles d'ADN de la longueur d'un tour de nucléosome (environ 90 paires de bases). Pour que la réponse soit scientifiquement valide, on doit observer les molécules d'ADN lorsqu'elles sont en suspension dans la solution d'intérêt et sans que des colorations, produits chimiques ou fixatifs n'aient été ajoutés, étant donné que ceux-ci peuvent changer les propriétés de l'ADN. La technique de la cryo-microscopie électronique (cryo-EM) développée par le groupe de Jacques Dubochet au début des années 80, permet la visualisation directe des molécules d'ADN suspendues dans des couche minces vitrifiées de solutions aqueuses. Toutefois, le faible contraste qui caractérise la cryo-EM combinée avec la très petite taille des minicercles d'ADN rendent nécessaire l'optimisation de plusieurs étapes, aussi bien dans la préparation des échantillons que dans le processus d'acquisition d'images afin d'obtenir deux clichés stéréo qui permettent la reconstruction 3-D des minicercles d'ADN. Dans la première partie de ma thèse, je décris l'optimisation de certains paramètres pour la cryoEM et des processus d'acquisition d'image utilisant comme objets de test des plasmides et d'autres molécules d'ADN. Dans la deuxième partie, je .décris comment j'ai construit les minicercles d'ADN de 94 bp et comment j'ai introduit des modifications structurelles comme des coupures ou des lacunes. Dans la troisième partie, je décris l'analyse des reconstructions des rninicercles d'ADN. Cette analyse, appuyée par des tests biochimiques, indique fortement que des molécules d'ADN sont capables de former de petites molécules circulaires de 94 bp sans dépasser les limites d'élasticité, indiquant que les minicercles adoptent une forme circulaire régulière où la flexion est redistribuée le long la molécule. ABSTRACT : Although physical properties of DNA structure have been intensively studied for over 50 years there are still many important questions that need to be answered. For example, what happens to protein-free double-stranded DNA when it is strongly bent, as in DNA forming nucleosomes? Is such protein-free DNA smoothly bent (i.e. it remains within elastic limits of DNA rigidity) or does it release its bending stress by forming sharp kinks (i.e. it exits the elastic regime and breaks the stacking between neighbouring base-pairs in localized regions)? Electron microscopy can provide an answer to this question by directly visualizing DNA minicircles that have the size of nucleosome gyres (ca 90 bp). For the answer to be scientifically valid, one needs to observe DNA molecules while they are still suspended in the solution of interest and no staining chemicals or fixatives have been added since these can change the properties of the DNA. CryoEM techniques developed by Jacques Dubochet's group beginning in the 1980's permit direct visualization of DNA molecules suspended in cryo-vitrified layers of aqueous solutions. However, a relatively weak contrast of cryo-EM preparations combined with the very small size of the DNA minicircles made it necessary to optimize many of the steps and parameters of the cryo-EM specimen preparation and image acquisition processes in order to obtain stereo-pairs of images that permit the 3-D reconstruction of the observed DNA minicircles. In the first part of my thesis I describe the optimization of the cryo-EM preparation and the image acquisition processes using plasmid size DNA molecules as a test object. In the second part, I describe how I formed the 94 by DNA minicircles and how I introduced structural modifications like nicks or gaps. In the third part, I describe the cryo-EM analysis of the constructed DNA minicircles. That analysis, supported by biochemical tests, strongly indicates that DNA minicircles as small as 94 by remain within the elastic limits of DNA structure, i.e. the minicircles adopt a regular circular shape where bending is redistributed along the molecules.
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
Résumé: Ce travail d'histoire comparée de la littérature et de la sociologie s'interroge sur l'émergence de la notion de type dans les pratiques de description du monde social au cours des années 1820-1860. A partir de l'analyse des opérations de schématisation engagées par Honoré Balzac dans La Comédie humaine et par Frédéric Le Play dans Les Ouvriers européens, soit deux oeuvres que tout semble éloigner du point de vue de leurs ambitions, de leur forme, et de la trajectoire de leur auteur, mais qui toutes deux placent cependant la typification au centre de leur dispositif, il s'est agi de produire une histoire de l'imagination typologique, et des ontologies, sociales ou non, qui lui furent associées. Aussi le corpus intègre-t-il des textes d'histoire naturelle, de sciences médicales, d'histoire, de chimie, de géologie, de métallurgie, et, bien évidemment, les genres du roman sentimental, du roman historique et de la littérature panoramique, ainsi que les enquêtes ouvrières et la statistique. Abstract: This work offers a compared history of literature and sociology in France between 1820 and 1860. During that period, the notion of type appears in the literary and sociological descriptions of social reality, and becomes more and more central in the apprehension of the differenciations among classes, communities or groups. Based on the analysis of Honoré Balzac's La Comédie humaine and Frédéric Le Play's Les Ouvriers européens, this study shows that these two series of novels and of workers' monographies put typification at the center of their descriptive ambition. More broadly, it proposes a history of the uses of a typological imagination and of the ontologies, above all social, that were underlying them. That is why the texts also taken into account in this study ranges from natural history, medical sciences, history, chemistry geology and metallurgy, to the sentimental novel, the historical novel and the panoramic literature, as well as social inquiries and statistics.
Resumo:
Comment l'analyse chimique des produits contrefaits peut-elle contribuer à mieux comprendre le phénomène de la contrefaçon?Pour appréhender cette question, une approche novatrice basée sur l'analyse par SPME GC-MS des composés volatils de trente-neuf bracelets parfumés présents sur des contrefaçons horlogères a été mise en oeuvre.La détection de plusieurs dizaines de composés par montre a permis de définir des profils chimiques discriminants. Au total, trois groupes de montres possédant des profils comparables ont été détectés. Ces groupes ont été mis en perspective de liens physiques détectés sur la base du marquage des bracelets (marques et logos) par la fédération de l'industrie horlogère suisse (FH) et des informations spatiotemporelles des saisies. Les montres provenant d'une même saisie présentent systématiquement des liens physiques, mais pas forcément des profils chimiques similaires. Il en ressort que les profils chimiques peuvent fournir une information complémentaire à l'analyse des marquages, qu'ils varient peu dans le temps et que des montres liées chimiquement sont retrouvées dans le monde entier. Cette étude exploratoire révèle ainsi le potentielle d'exploitation de techniques d'analyse complémentaires pour mieux comprendre les modes de production, voire de diffusion de la contrefaçon. Finalement, la méthode analytique a permis de détecter des composés de plastiques en sus des constituants de parfums. Ce résultat laisse entrevoir la possibilité d'exploiterla méthode pour une large gamme de produits contrefaits.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
Ausgangspunkt der Arbeit bildet die Beobachtung, dass Universitätsbibliotheken unterschiedliche Aufgaben zu Händen verschiedener Akteure erfüllen - so nehmen Universitätsbibliotheken in der Schweiz häufig Aufgaben einer Kantonsbibliothek wahr. Universitätsbibliotheken zeichnen sich durch unterschiedliche Rechts- und Organisationsformen aus, unterhalten Beziehungen zu Dritten und sind deshalb verschiedenen Instanzen zur Rechenschaft verpflichtet. Sie sind, schliesslich, in Zusammenschlüsse unterschiedlicher Natur eingebunden. Vor diesem Hintergrund wirft die vorliegende Arbeit die Frage nach der Steuerung des Unternehmens Universitätsbibliothek auf. Anhand ausgewählter Fallbeispiele wird aufgezeigt, wie sich unterschiedliche Governance-Modelle gestalten. Dabei wird insbesondere auf die Rechts- und Organisationsform, auf institutionelle Strukturen, auf Steuerungsinstrumente (Auftrag und finanzielle Rahmenbedingungen), auf institutionelle Beziehungen sowie auf die Autonomie der Bibliothek eingegangen. Darauf aufbauend werden Vor- und Nachteile der Modelle hinsichtlich der Erfüllung des Doppelauftrags (Universitäts- und Kantonsbibliothek) diskutiert. Es zeigt sich, dass Universitäts- und Kantonsauftrag komplementäre Funktionen darstellen, wobei allerdings vereinzelt Schwierigkeiten auftreten können. Die Rechts- und Organisationsform sowie, insbesondere, die Trägerschaft bilden ein zentrales Element im Hinblick auf die Auftragserfüllung. Gleichzeitig sind auch weitere Elemente zentral, beispielsweise Instrumente, welche nicht nur die Aufgaben, sondern die Zuständigkeiten der beteiligten Akteure festhalten. Parmi les nombreuses fonctions remplies par les bibliothèques universitaires en Suisse, celle de bibliothèque cantonale est la plus fréquente. Les formes juridiques et/ou d'organisation des bibliothèques universitaires suisses sont multiples ; les bibliothèques entretiennent des liens avec des tiers et elles sont, par conséquent, tenues de rendre des comptes à diverses instances. Comme toutes les bibliothèques, elles s'intègrent, finalement, à des réseaux de nature différente. Dans ce contexte, le présent travail soulève la question de la gouvernance de la bibliothèque universitaire. Il décrit, à partir d'exemples choisis, différents modèles de gouvernance en s'intéressant surtout à la forme juridique et/ou d'organisation, aux structures institutionnelles, aux instruments de gouvernance concernant la mission et les conditions cadres financières de la bibliothèque, aux relations institutionnelles et à l'autonomie de la bibliothèque. L'analyse permet ainsi une réflexion sur les avantages et les inconvénients des différents modèles de gouvernance au vu de la double mission universitaire et cantonale des bibliothèques. Le présent travail montre que les fonctions universitaires et cantonales sont à priori complémentaires et ne donnent lieu qu'à des difficultés mineures. La forme juridique et/ou d'organisation ainsi que l'autorité de tutelle constituent des éléments déterminants pour l'accomplissement de la (double) mission de la bibliothèque. Parallèlement, d'autres éléments jouent également un rôle important - par exemple, les instruments permettant non seulement de régler les tâches de la bibliothèque, mais aussi de déterminer les compétences de tous les acteurs intéressés.
Resumo:
Résumé de Thèse Proche de Horkheimer, d'Adorno ou encore de Benjamin, ce philosophe issu de l'École de Francfort ne manque pas moins d'attirer la curiosité. On a tôt fait de classer Herbert Marcuse (1898-1979) aux oubliettes alors que sa pensée était peu connue, nonobstant une médiatisation très importante qui a dépassé le cadre classique des universités. Ce philosophe allemand atypique dont le nom surgit notamment suite à la publication de L'Homme unidimensionnel fut abondamment lu mais peu systématisé. Repris à tort et à travers, instrumentalisé aux temps des révoltes étudiantes des années 60, il ne lègue pas moins une pensée qui doit apparaître sous une forme nouvelle et prospective. Cette recherche vise prioritairement à l'extraire de ce brouhaha qui l'enveloppa et menaça de le faire disparaître. Cet essai insiste sur un retour à l'exigence scientifique via l'exhumation des textes méconnus du grand public et une insertion indispensable dans l'histoire des penseurs philosophiques. Accéder à la connaissance de ce philosophe passe par un certain nombre de clefs parmi lesquelles le concept de nature. Pour y arriver, cependant, la quête des fondements d'une philosophie dont les sources sont plurielles et inconciliables s'impose comme étape primordiale et pleine de promesses. A la vérité, le peu de systématisation de la pensée marcusienne est en grande partie liée à cette « prolifération » de références auxquelles s'est adonné Marcuse, laissant une mince passerelle susceptible de dégager une architecture globale et cohérente de sa pensée. Certes, la présentation de Marcuse est restée jusque-là prisonnière de l'influence de Hegel, Marx et Freud. L'auteur de cette thèse tente de démontrer que la pensée marcusienne s'oriente à partir de Kant. Attaché à la tradition philosophique germanique de l'Aufklärung, l'oeuvre du philosophe francfortois combat toutes sortes d'irrationalités qui obstruent la voie menant vers un humanisme réel. La nature reste un concept polémique parce qu'il ne saurait se résumer à l'étant. Ni la nature intérieure, ni la nature extérieure ne se limitent à cet horizon dépourvu de subjectivité. Disciple de Heidegger, Marcuse définit la nature à partir du Dasein, un être-là qui est jeté dans l'histoire et qui porte en lui la qualité de l'historicité. Contre la société dite unidimensionnelle postindustrielle qui annonce l'acmé du capitalisme triomphant, les travaux de Marcuse visent un retour à la nature autant qu'ils font de celle-ci un futur. La nature n'est pas seulement ce qu'elle a été, elle est aussi ce qui est à être. En invalidant le consumérisme ambiant, il décrit la publicité marchande comme un acte de négation des vraies valeurs humaines. Ni la superfluité secrétée par le marché, ni les systèmes communiste (le marxisme soviétique et ses sbires) et capitaliste ne sont capables de provoquer l'idéal de l'humain. Le discours marcusien fécondé par la « Théorie Critique » invente le concept de « Grand Refus » adossé à la dialectique hégélienne, obligeant la conscience à veiller sur le réel pour le conduire vers l'émancipation plutôt que vers un « chemin qui ne mène nulle part ». Attachée à la concrétude et la transformation historique héritée de Marx, il réoriente le Dasein heideggérien en lui donnant plus de chair. Nature et historicité, cette réalité duelle se complique parce qu'elle incarne une difficile révolution qui nécessitera davantage d'imagination. Le « Grand Refus » aura besoin d'un allié plus subtile : l'esthétique qui laisse apparaître la Troisième critique kantienne. Au-delà de ce refuge dans l'art, on aura toujours besoin de Marcuse pour mieux comprendre nos sociétés en pleine mutation et pour habiter en conséquence notre monde perfectible.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.