98 resultados para Visualisation du code source
Resumo:
La littérature scientifique confirme que les soignants ont besoin de soutien. Par-delà la surchage clinique et administrative, le stress lié à la signifiance des facteurs contextuels est une source de détresse importante. La reconnaissance et la gestion de ce stress peuvent soutenir le clinicien de manière durable. L'article discute les éléments clés de ces stresseurs, notamment le rôle des émotions du soignant, la reconnaissance des limites, la confusion concernant l'empathie, l'influence du développement et de la trajectoire de vie sur l'identité professionnelle ainsi que le conflit que représente le fait d'être un soignant qui a besoin d'aide. A growing body of evidence indicates that health care professionals are in need of support. Beside heavy clinical patient volume or administrative duties, stress related to the significance of contextual factors is an important source of clinician's distress. Identification of and working through such stress can be a durable source of support. This article discusses key elements of these stressors, namely, the role of emotions of the clinician, awareness of limits, confusion about empathy, the influence of development and life trajectory on professional identity and the conflicting roles of the health care provider being in need of support http://titan.medhyg.ch/mh/formation/article.php3?sid=32934
Resumo:
Enjeux et contexte : Dans les questions de santé mentale, internet constitue de plus en plus une source d'information pour les personnes souffrant de troubles psychiatriques ainsi que de leurs proches. D'autre part, le trouble obsessionnel compulsif revêt une importance grandissante et bénéficie d'un intérêt croissant en raison de sa fréquence et de la charge qu'il représente pour le patient et pour la société. Les patients souffrant de trouble obsessionnel compulsif, qu'ils soient diagnostiqués ou non, ainsi que leurs proches peuvent être amenés à rechercher une information de bonne qualité sur net sur le sujet. Cette étude vise à évaluer la qualité de l'information issue de l'internet concernant les sites anglophones traitant du trouble obsessionnel compulsif et de comparer les résultats des requêtes en utilisant un moteur de recherche général (Google) à celles obtenues avec un moteur de recherche spécialisé (Omni Medical Search). Des mots-clés relatifs au trouble obsessionnel compulsif ont été introduits dans Google et Omni Medical Search. Les sites retenus ont été évalués selon leur responsabilité, interactivité, lisibilité et la qualité de leur contenu. Le Label HON et la version brève de l'échelle DISCERN ont été utilisés comme indicateurs possibles de la qualité du contenu. Sur les 235 adresses retrouvées, 53 sites retenus ont été analysés. Résultats : La qualité du contenu des sites examinés est relativement bonne. L'utilisation d'un moteur de recherche spécialisé ne constitue pas un avantage par comparaison au moteur général utilisé par la grande majorité des internautes. Un score > 16 de la version brève du DISCERN est associé à une meilleure qualité du contenu. En conclusion : cette étude montre que le contenu des sites web concernant le trouble obsessionnel compulsif est acceptable. L'utilisation d'un moteur de recherche spécialisé n'offre pas d'avantage par rapport à Google. Comme implications pratiques : internet renferme des sites de haute qualité sur le trouble obsessionnel compulsif. L'accès à ces sites ne nécessite pas l'utilisation d'un moteur de recherche spécialisé. En revanche, une discussion entre le patient et le soignant à propos de l'information disponible sur internet demeure indispensable Perspectives : en dépit des limitations de notre étude, on peut dire que l'information contenue dans le web concernant le trouble obsessionnel compulsif est acceptable. Le contenu et la présentation de cette information pourraient être améliorés. Quant à l'internaute qui cherche une information de qualité, il pourrait être guidé par deux éléments : le HON et la version brève du DISCERN.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
Severe sepsis and septic shock are systemic manifestations of the host response to infection. Mortality remains high despite advances in pathophysiological knowledge. Hemodynamic and respiratory management is largely supportive, while early antibiotics administration and source of infection's control are crucial for patient outcome. We review the principles guiding the initial management of these patients in emergency situation.
Resumo:
Magmas of the arc-tholeiitic and calc-alkaline differentiation suites contribute substantially to the formation of continental crust in subduction zones. Different geochemical-petrological models have been put forward to achieve evolved magmas forming large volumes of tonalitic to granitic plutons, building an important part of the continental crust. Primary magmas produced in the mantle wedge overlying the subducted slab migrate through the mantle and the crust. During the transfer, magma can accumulate in intermediate reservoirs at different levels where crystallization leads to differentiation and the heat transfer from the magma, together with gained heat from solidification, lead to partial melting of the crust. Partial melts can be assimilated and mix with more primitive magma. Moreover, already formed crystal cumulates or crystal mushes can be recycled and reactivated to transfer to higher crustal levels. Magma transport in the crust involves fow through fractures within a brittle elastic rock. The solidified magma filled crack, a dyke, can crosscut previously formed geological structures and thus serves as a relative or absolute time marker. The study area is situated in the Adamello massif. The Adamello massif is a composite of plutons that were emplaced between 42 and 29 million years. A later dyke swarm intruded into the southern part of the Adamello Batholith. A fractionation model covering dyke compositions from picrobasalts to dacites results in the cummulative crystallization of 17% olivine, 2% Cr-rich spinel, 18% clinopyroxene, 41% amphibole, 4% plagioclase and 0.1% magnetite to achieve an andesitic composition out of a hydrous primitive picrobasalt. These rocks show a similar geochemical evolution as experimental data simulating fractional crystallization and associated magma differentiation at lower crustal depth (7-10 kbar). The peraluminous, corundum normative composition is one characteristic of more evolved dacitic magmas, which has been explained in a long lasting debate with two di_erent models. Melting of mafic crust or politic material provides one model, whereas an alternative is fractionation from primary mantle derived melts. Amphibole occurring in basaltic-andesitic and andesitic dyke rocks as fractionating cumulate phase extracted from lower crustal depth (6-7.5 kbar) is driving the magmas to peraluminous, corundum normative compositions, which are represented by tonalites forming most of the Adamello Batholith. Most primitive picrobasaltic dykes have a slightly steepened chondrite normalized rare earth elements (REE) pattern and the increased enrichment of light-REE (LREE) for andesites and dacites can be explained by the fractional crystallization model originating from a picrobasalt, taking the changing fractionating phase assemblage and temperature into account. The injection of hot basaltic magma (~1050°C) in a closely spaced dyke swarm increases the surface of the contact to the mainly tonalitic wallrock. Such a setting induces partial melting of the wall rock and selective assimilation. Partial melting of the tonalite host is further expressed through intrusion breccias from basaltic dykes. Heat conduction models with instantaneous magma injection for such a dyke swarm geometry can explain features of partial melting observed in the field. Geochemical data of minerals and bulk rock further underline the selective or bulk assimilation of the tonalite host rock at upper crustal levels (~2-3 kbar), in particular with regard to light ion lithophile elements (LILE) such as Sr, Ba and Rb. Primitive picrobasalts carry an immiscible felsic assimilant as enclaves that bring along refractory rutile and zircon with textures typically found in oceanic plagiogranites or high pressure/low-temperature metamorphic rocks in general. U-Pb data implies a lower Cretaceous age for zircon not yet described as assimilant in Eocene to Oligocene magmatic rocks of the Central Southern Alps. The distribution of post-plutonic dykes in large batholiths such as the Adamello is one of the key features for understanding the regional stress field during the post-batholith emplacement cooling history. The emplacement of the regional dyke swarm covering the southern part of the Adamello massif was associated with consistent left lateral strike-slip movement along magma dilatation planes, leading to en echelon segmentation of dykes. Through the dilation by magma of pre-existing weaknesses and cracks in an otherwise uniform host rock, the dyke propagation and according orientation in the horizontal plane adjusted continuously perpendicular to least compressive remote stress σ3, resulting in an inferred rotation of the remote principal stress field. Les magmas issus des zones de subduction contribuent substantiellement à la formation de la croûte continentale. Les plutons tonalitiques et granitiques représentent, en effet, une partie importante de la croûte continentale. Des magmas primaires produits dans le 'mantle wedge ', partie du manteau se trouvant au-dessus de la plaque plongeante dans des zones de subduction, migrent à travers le manteau puis la croûte. Pendant ce transfert, le magma peut s'accumuler dans des réservoirs intermédiaires à différentes profondeurs. Le stockage de magma dans ces réservoirs engendre, d'une part, la différentiation des magmas par cristallisation fractionnée et, d'autre part, une fusion partielle la croûte continentale préexistante associée au transfert de la chaleur des magmas vers l'encaissant. Ces liquides magmatiques issus de la croûte peuvent, ensuite, se mélanger avec des magmas primaires. Le transport du magma dans la croûte implique notamment un flux de magma à travers différentes fractures recoupant les roches encaissantes élastiques. Au cours de ce processus de migration, des cumulats de cristaux ou des agrégats de cristaux encore non-solidifiés, peuvent être recyclés et réactivés pour être transportés à des niveaux supérieures de la croûte. Le terrain d'étude est situé dans le massif d'Adamello. Celui-ci est composé de plusieurs plutons mis en place entre 42 et 29 millions d'années. Dans une phase tardive de l'activité magmatique liée à ce batholite, une série de filons de composition variable allant de picrobasalte à des compositions dacitiques s'est mise en place la partie sud du massif. Deux modèles sont proposés dans la littérature, pour expliquer la formation des magmas dacitiques caractérisés par des compositions peralumineux (i.e. à corindon normatif). Le premier modèle propose que ces magmas soient issus de la fusion de matériel mafique et pélitique présent dans la partie inférieur de la croûte, alors que le deuxième modèle suggère une évolution par cristallisation fractionnée à partir de liquides primaires issus du manteau. Un modèle de cristallisation fractionnée a pu être développé pour expliquer l'évolution des filons de l'Adamello. Ce modèle explique la formation des filons dacitiques par la cristallisation fractionnée de 17% olivine, 2% spinelle riche en Cr, 18% clinopyroxène, 41% amphibole, 4% plagioclase et 0.1% magnetite à partir de liquide de compositions picrobasaltiques. Ce modèle prend en considération les contraintes pétrologiques déduites de l'observation des différents filons ainsi que du champ de stabilité des différentes phases en fonction de la température. Ces roches montrent une évolution géochimique similaire aux données expérimentales simulant la cristallisation fractionnée de magmas évoluant à des niveaux inférieurs de la croûte (7-10 kbar). Le modèle montre, en particulier, le rôle prépondérant de l'amphibole, une phase qui contrôle en particulier le caractère peralumineux des magmas différentiés ainsi que leurs compositions en éléments en traces. Des phénomènes de fusion partielle de l'encaissant tonalitique lors de la mise en place de _lons mafiques sont observée sur le terrain. L'injection du magma basaltique chaud (~1050°C) sous forme de filons rapprochés augmente la surface du contact avec l'encaissante tonalitique. Une telle situation produit la fusion partielle des roches encaissantes nécessaire à l'incorporation d'enclaves mafiques observés au sein des tonalites. Pour comprendre les conditions nécessaires pour la fusion partielle des roches encaissantes, des modèles de conduction thermique pour une injection simultanée d'une série de filons ont été développées. Des données géochimiques sur les minéraux et sur les roches totales soulignent qu'au niveau supérieur de la croûte, l'assimilation sélective ou totale de l'encaissante tonalitique modifie la composition du liquide primaire pour les éléments lithophiles tel que le Sr, Ba et Rb. Un autre aspect important concernant la pétrologie des filons de l'Adamello est la présence d'enclaves felsiques dans les filons les plus primitifs. Ces enclaves montrent, en particulier, des textures proches de celles rencontrées dans des plagiogranites océaniques ou dans des roches métamorphiques de haute pression/basse température. Ces enclaves contiennent du zircon et du rutile. La datations de ces zircons à l'aide du géochronomètre U-Pb indique un âge Crétacé inférieur. Cet âge est important, car aucune roche de cet âge n'a été considérée comme un assimilant potentiel pour des roches magmatiques d'âge Eocène à Oligocène dans les Alpes Sud Centrales. La réparation spatiale des filons post-plutoniques dans des grands batholites tel que l'Adamello, est une caractéristique clé pour la compréhension des champs de contraintes lors du refroidissement du batholite. L'orientation des filons va, en particulier, indiqué la contrainte minimal au sein des roches encaissante. La mise en place de la série de filon recoupant la partie Sud du massif de l'Adamello est associée à un décrochement senestre, un décrochement que l'on peut lié aux contraintes tectoniques régionales auxquelles s'ajoutent l'effet de la dilatation produite par la mise en place du batholite lui-même. Ce décrochement senestre produit une segmentation en échelon des filons.
Resumo:
L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.
Resumo:
L'angio-CT post-mortem est un examen peu invasif qui permet d'investiguer le système vasculaire d'une manière détaillée impossible à obtenir lors d'une autopsie conventionnelle. Le groupe de recherche lausannois sur l'angio-CT a développé un protocole standardisé pour une technique appelée «angio-CT post-mortem en phases multiples», qui permet de réaliser des angio-CT de manière simple et d'améliorer le diagnostic radiologique. De plus, de nouveaux équipements incluant une pompe à perfusion, du matériel prêt à l'emploi et un produit de contraste spécifique ont été développés. L'angio-CT permet la détection d'une source d'hémorragie, d'une malformation du système vasculaire, de lésions d'artériosclérose, d'une occlusion d'un vaisseau et la visualisation de l'anatomie vasculaire.
Resumo:
La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.
Resumo:
Résumé: Valoriser le géopatrimoine par la médiation indirecte et la visualisation des objets géomorphologiques Le géopatrimoine regroupe des objets géologiques lato sensu auxquels certaines valeurs sont attribuées, en fonction de leur intérêt pour la science, de leur rareté, de leurs particularités culturelles ou écologiques, etc. Valoriser le géopatrimoine signifie avant tout faire partager cette approche aux non-spécialistes, en expliquant ce qui fait la valeur de ces objets. Cette valorisation peut s'effectuer, entre autres, sous la forme d'une activité touristique et contribuer ainsi au développement régional. Faire comprendre l'origine, la singularité et la valeur des formes du relief implique le recours à une communication éducative, désignée par le terme de médiation. Les implications de la dimension éducative du processus, comme la prise en compte des connaissances et attentes du public, la création d'un environnement favorable à l'apprentissage ou l'attractivité du contenu, sont souvent négligées. Du point de vue conceptuel, un modèle de la médiation indirecte (c'est-à-dire au moyen de supports médiatiques) a été proposé et appliqué au développement empirique de produits de médiation et à leur évaluation. Ce modèle ne garantit pas la réussite de la communication éducative, mais contribue à créer un cadre favorable au processus. De plus, plusieurs lignes directrices pour le choix du type de média et sa mise en forme ont été définies sur la base d'une compilation de résultats de la psychologie cognitive sur l'usage des médias pour l'apprentissage. Des méthodes qualitatives et quantitatives variées ont été mobilisées : enquêtes par questionnaire ex situ et in situ, auprès des visiteurs de géomorphosites de montagne, réalisation de médias interactifs testés ensuite auprès de divers publics (parcours enregistré, pré- et post-questionnaires) et entretiens collectifs. Les résultats obtenus éclairent divers aspects de la problématique. L'étude du public a montré, par exemple, que le géotourisme possède un réel public parmi les visiteurs des sites de montagnes : trois-quarts d'entre eux expriment de l'intérêt pour des explications sur la géologie et l'évolution du paysage. Cette thèse a exploré ces aspects liés au processus d'apprentissage en se focalisant sur les médias visuels, surtout interactifs. La plupart des médias visuels couramment utilisés en géomorphologie ont été considérés. Le développement de versions interactives de ces médias sous forme d'applications web a fourni un aperçu concret des possibilités des nouvelles technologies. Les utilisateurs apprécient en particulier a richesse du contenu, le haut degré d'interactivité et la variété de ces applications. De tels médias incitent à visiter le site naturel et semblent aussi répondre aux intérêts de publics variés. Abstract: Geoheritage promotion through non-personal interpretation and visualisation of geomorphological features Geoheritage concerns all geological features lato sensu to which some values are attributed, according to their scientific interest, their rarity, their cultural or ecological dimensions, etc. Geoheritage promotion implies sharing this point of view with non-specialists, explaining what gives value to those objects. Geotourism is one of the many ways to achieve geoheritage promotion, while contributing also to regional development. In order to make non-specialists understand the origin, the specificity and the value of landforms, educational communication is needed, that is called interpretation (French: médiation). This education dimension has several, and often neglected, implications, like taking into account public's knowledge and expectations, creating a favourable learning environment, attractive design, etc. From the conceptual point of view, a model for non-personal interpretation has been proposed and applied for the empirical development and for the assessment of interpretive products. This model does not guarantee success of educational communication, but help creating a favourable environment for this process. Moreover, some guidelines were defined from a compilation of several results of cognitive psychology on media use for learning. They guide the choice of the kind of media and its design. Several qualitative and quantitative methods were applied: survey questionnaires ex situ and in situ by mountain geomorphosites visitors, interactive medias developed and then tested by different kinds of users (with usertracking, pre- and post-survey questionnaires), group interviews. The results answered different aspects of the research questions. Visitor surveys revealed for example that geotourism could attract many visitors of mountain areas: three quarters of them say they are interested in getting explanations about geology and landscape (in particular its dynamic dimensions). This thesis examined those aspects with a focus on visual medias, both statics and interactive. Most of currently used medias in geomorphology were considered. Interactive versions of those medias were developed in web applications; they gave a concrete overview on the opportunities that new technologies offer. The content richness, the high interaction level and the diversity of the applications are the most liked aspects by the users. Such medias drive to visit the natural site and seem to correspond to the interests of various kinds of publics. Zusammenfassung: Aufwertung des erdwissenschaftlichen Erbes durch mediale Vermittlung und Visualisierung von geomorphologischen Objekten Das erdwissenschaftliche Erbe besteht aus geologischen Gegebenheiten lato sensu, denen entsprechend ihrer Bedeutung für die Wissenschaft, ihrer Seltenheit, ihrer kulturellen oder ökologischen Besonderheiten usw. bestimmte Werte zugeordnet werden. Das erdwissenschaftliche Erbe aufzuwerten bedeutet in erster Linie, diesen Ansatz Nichtspezialisten näher zu bringen, indem ihnen erklärt wird, was den Wert dieser Gegebenheiten ausmacht. Dies kann etwa im Rahmen eines touristischen Angebots geschehen und so die regionale Entwicklung unterstützen. Um Entstehung, Besonderheit und Wert von Geländeformen verständlich zu machen, wird eine pädagogische Kommunikationsform verwendet, die als mediale Vermittlung (franz. médiation) bezeichnet wird. Die Bedeutung der pädagogischen Dimension des Vermittlungsprozesses wie etwa der Einbezug des Wissens und der Erwartungen des Publikums, die Gestaltung eines positiven Lernklimas oder die Attraktivität des Inhalts wird oft vernachlässigt. Auf konzeptueller Ebene wurde ein Modell der indirekten Interpretation erarbeitet (d. h. anhand von Medien), das bei der empirischen Entwicklung der Interpretationsprodukte und ihrer Evaluation Anwendung fand. Dieses Modell garantiert zwar nicht den Erfolg der pädagogischen Kommunikation. Es trägt aber dazu bei, einen für den Prozess günstigen Kontext zu schaffen. Des Weiteren wurden mehrere Richtlinien für die Wahl des Medientyps und dessen Ausgestaltung anhand einer Zusammenstellung von Resultaten der kognitiven Psychologie über den Gebrauch von Medien in Lernprozessen definiert. Es wurden verschiedene qualitative und quantitative Methoden eingesetzt: Befragung mittels Fragebogen der Besucher von geomorphologischen Geotopen im Gebirge - ex situ und in situ -, Erarbeitung von interaktiven Medien, die anschliessend anhand verschiedener Zielgruppen gestestet wurden (Aufnahme des Besuchparcours, Vor- und Nachfragebögen) sowie kollektive Interviews. Die Ergebnisse geben Aufschluss zu verschiedenen Aspekten der Fragestellung. Die Befragung des Publikums hat zum Beispiel deutlich gemacht, dass der Geotourismus unter den Besuchern von Berggebieten tatsächlich auf eine Nachfrage stösst: drei Viertel von ihnen zeigen ein Interesse für Erläuterungen zur Geologie und der Landschaftsentwicklung. Die vorliegende Doktorarbeit hat die genannten Aspekte der Lernprozesse untersucht, wobei der Fokus auf visuellen, insbesondere interaktiven Medien lag. Die meisten gängigen visuellen Medien der Geomorphologie wurden berücksichtigt. Die Entwicklung von interaktiven Versionen dieser Medien in Form von Web-Anwendungen hat die Möglichkeiten der neuen Technologien veranschaulicht. Die Benutzer schätzten insbesondere die Vielfalt des Inhalts, die hohe Interaktivität und die Diversität dieser Anwendungen. Solche Medien laden dazu ein, ein Naturgebiet zu besuchen und scheinen den Interessen der verschiedenen Publikumsgruppen entgegenzukommen.
Resumo:
Lorsque le cinéaste Julian Schnabel propose, dix ans après la sortie du livre "Le scaphandre et le papillon" de Jean-Dominique Bauby (1997), une "adaptation" de cette autobiographie, il prend pour sujet sa création même, en plaçant au premier plan les éléments qui, dans le péritexte, thématisaient les conditions de l'écriture. Bauby a en effet écrit cette autobiographie alors qu'il souffrait de locked-in syndrome, étant entièrement paralysé à l'exception de son oeil gauche. C'est avec l'oeil qu'il écrivait, dictant chaque lettre d'un battement de cils tandis qu'une assistante récitait à voix haute un code alphabétique. L'acte d'écriture devenait ainsi une performance audiovisuelle, saisissable cinématographiquement. Or, cet article montre comment Schnabel complexifie ce dispositif en faisant "plonger" le spectateur dans l'univers intérieur de Bauby à l'aide de procédés filmiques (caméra subjective, voix over à la première personne, flashbacks, visions) qui permettent de transposer toute la poésie et la force du texte. Narrant au "je" la vie, la pensée et les sens qui vibrent derrière les battements d'"aile" de cet oeil-papillon, cette autobiographie traduit de fait un univers visionnaire que Bauby lui-même appelle son "cinéma personnel". Schnabel actualise cette métaphore avec son film qui repousse les limites de la focalisation interne et met en abyme les pouvoirs du cinéma.
Resumo:
Le neuroblastome (NB), tumeur spécifique de l'enfant, se situe au second rang en terme de¦fréquence des tumeurs solides dans la population pédiatrique (1). Il dérive des cellules¦primitives de la crête neurale, une population de cellules embryonnaires dotées d'une¦capacité de différentiation en une panoplie de tissus très variés, dont le système nerveux¦sympathique (2). Cette origine explique la très grande hétérogénéité du NB, tant du point de¦vue biologique que clinique (3). Malgré un traitement intensif et multimodal (chirurgie,¦chimiothérapie à haute dose, greffe de moelle osseuse et immunothérapie), seuls 30 % des¦patients de haut risque (stade IV) survivent sans rechute. La forte résistance du¦neuroblastome de haut grade aux diverses thérapies est une des causes probable du¦pronostic sombre de cette tumeur. Les thérapies actuelles étant insuffisamment efficaces, il¦est primordial de comprendre les mécanismes impliqués dans le processus de résistance¦afin d'élaborer de nouveaux traitements, mieux ciblés, capables de contrer toute résistance¦(4).¦Il a été démontré que certains cancers, tels que les tumeurs du poumon, du sein, de la¦prostate ou du colon, possédaient des cellules souches cancéreuses (CSCs) (5). Ces¦dernières, définies comme étant une petite sous-population de cellules malignes, jouent un¦rôle prépondérant dans l'initiation et la progression tumorale. Elles partagent certaines¦propriétés avec les cellules souches physiologiques, telles que la capacité d'autorenouvellement,¦un potentiel de prolifération indéfini, une dépendance à un¦microenvironnement spécifique, une faculté de pluripotence et une résistance accrue aux¦drogues (6). Ce modèle de CSCs a également été étudié pour le NB (7), permettant ainsi¦d'avancer l'hypothèse selon laquelle cette population de CSCs serait responsable de la¦résistance aux chimiothérapies des cellules tumorales du NB.¦Afin de tenter d'éclaircir le caractère résistant aux drogues des CSCs du NB, nous avons¦sélectionné des sous-populations cellulaires résistantes, en traitant par divers agents¦cytotoxiques (cisplatine, doxorubicine, rapamycine et vincristine) cinq lignées différentes de¦neuroblastes. Dans le but d'établir un potentiel enrichissement en CSCs au sein de ces¦sous-populations par rapport aux populations contrôles non traitées, nous avons testé leurs¦fonctions d'auto-renouvellement et de clonogénicité. Ces propriétés ont été respectivement¦mises en évidence par la capacité des cellules à former des sphères de plusieurs¦générations dans des conditions de culture inhibant l'adhésion cellulaire et par la mesure de¦la croissance cellulaire en milieu semi-solide (soft agar assay). Une analyse d'expression¦génique effectuée préalablement par microarray (Human Genome U133Plus 2.0 Affymetrix¦GeneChip oligonucleotide) dans le laboratoire avait révélé une liste de gènes surexprimés¦dans les CSCs, dont fait partie mdr1 (8). Ce gène code la protéine de transport Pgp (Pglycoprotein),¦impliquée dans le mécanisme de résistance (9,10). Une étude par cytométrie¦en flux de l'expression de MDR1 dans nos diverses populations a également été réalisée¦afin de mettre en évidence une potentielle surexpression de ce gène au sein des cellules¦résistantes aux chimiothérapies.
Resumo:
Résumé large public: Une altération localisée du métabolisme du glucose, le substrat énergétique préférentiellement utilisé dans le cerveau, est un trait caractéristique précoce de la maladie d'Alzheimer (MA). Il est maintenant largement admis que le beta-amyloïde, la neuroinflammation et le stress oxydatif participent au développement de la MA. Cependant les mécanismes cellulaires de la pathogenèse restent à identifier. Le métabolisme cérébral a ceci de remarquable qu'il repose sur la coopération entre deux types cellulaires, ainsi les astrocytes et les neurones constituent une unité métabolique. Les astrocytes sont notamment responsables de fournir aux neurones des substrats énergétiques, ainsi que des précurseurs du glutathion pour la défense contre le stress oxydatif. Ces fonctions astrocytaires sont essentielles au bon fonctionnement et à la survie neuronale; par conséquent, une altération de ces fonctions astrocytaires pourrait participer au développement de certaines maladies cérébrales. Le but de ce travail est, dans un premier temps, d'explorer les effets de médiateurs de la neuroinflammation (les cytokines pro-inflammatoires) et du peptide beta-amyloïde sur le métabolisme des astrocytes corticaux, en se focalisant sur les éléments en lien avec le métabolisme énergétique et le stress oxydatif. Puis, dans un second temps, de caractériser les conséquences pour les neurones des modifications du métabolisme astrocytaire induites par ces substances. Les résultats obtenus ici montrent que les cytokines pro-inflammatoires et le beta-amyloïde induisent une profonde altération du métabolisme astrocytaire, selon deux profils distincts. Les cytokines pro-inflammatoires, particulièrement en combinaison, agissent comme « découpleurs » du métabolisme énergétique du glucose, en diminuant l'apport potentiel de substrats énergétiques aux neurones. En plus de son effet propre, le peptide beta-amyloïde potentialise les effets des cytokines pro-inflammatoires. Or, dans le cerveau de patients atteints de la MA, les astrocytes sont exposés simultanément à ces deux types de substances. Les deux types de substances ont un effet ambivalent en termes de stress oxydatif. Ils induisent à la fois une augmentation de la libération de glutathion (potentiellement protecteur pour les neurones voisins) et la production d'espèces réactives de l'oxygène (potentiellement toxiques). Etant donné l'importance de la coopération entre astrocytes et neurones, ces modulations du métabolisme astrocytaire pourraient donc avoir un retentissement majeur sur les cellules environnantes, et en particulier sur la fonction et la survie neuronale. Résumé Les astrocytes et les neurones constituent une unité métabolique. Les astrocytes sont notamment responsables de fournir aux neurones des substrats énergétiques, tels que le lactate, ainsi que des précurseurs du glutathion pour la défense contre le stress oxydatif. Une altération localisée du métabolisme du glucose, le substrat énergétique préférentiellement utilisé dans le cerveau, est un trait caractéristique, précoce, de la maladie d'Alzheimer (MA). Il est maintenant largement admis que le beta-amyloïde, la neuroinflammation et le stress oxydatif participent au développement de la MA. Cependant, les mécanismes cellulaires de la pathogenèse restent à identifier. Le but de ce travail est d'explorer les effets des cytokines pro-inflammatoires (Il-1 ß et TNFα) et du beta-amyloïde (Aß) sur le métabolisme du glucose des astrocytes corticaux en culture primaire ainsi que de caractériser les conséquences, pour la viabilité des neurones voisins, des modifications du métabolisme astrocytaire induites par ces substances. Les résultats obtenus montrent que les cytokines pro-inflammatoires et le beta-amyloïde induisent une profonde altération du métabolisme astrocytaire, selon deux profils distincts. Les cytokines pro-inflammatoires, particulièrement en combinaison, agissent comme « découpleurs » du métabolisme glycolytique astrocytaire. Après 48 heures, le traitement avec TNFα et Il-lß cause une augmentation de la capture de glucose et de son métabolisme dans la voie des pentoses phosphates et dans le cycle de Krebs. A l'inverse, il cause une diminution de la libération de lactate et des stocks cellulaires de glycogène. En combinaison avec les cytokines tel qu'in vivo dans les cerveaux de patients atteints de MA, le peptide betaamyloïde potentialise les effets décrits ci-dessus. Isolément, le Aß cause une augmentation coordonnée de la capture de glucose et de toutes les voies de son métabolisme (libération de lactate, glycogenèse, voie des pentoses phosphate et cycle de Krebs). Les traitements altèrent peu les taux de glutathion intracellulaires, par contre ils augmentent massivement la libération de glutathion dans le milieu extracellulaire. A l'inverse, les deux types de traitements augmentent la production intracellulaire d'espèces réactives de l'oxygène (ROS). De plus, les cytokines pro-inflammatoires en combinaison augmentent massivement la production des ROS dans l'espace extracellulaire. Afin de caractériser l'impact de ces altérations métaboliques sur la viabilité des neurones environnants, un modèle de co-culture et des milieux conditionnés astrocytaires ont été utilisés. Les résultats montrent qu'en l'absence d'une source exogène d'antioxydants, la présence d'astrocytes favorise la viabilité neuronale ainsi que leur défense contre le stress oxydatif. Cette propriété n'est cependant pas modulée par les différents traitements. D'autre part, la présence d'astrocytes, et non de milieu conditionné, protège les neurones contre l'excitotoxicité due au glutamate. Les astrocytes prétraités (aussi bien avec le beta-amyloïde qu'avec les cytokines pro-inflammatoires) perdent cette propriété. Cet élément suggère que la perturbation du métabolisme astrocytaire causé par les cytokines pro-inflammatoires ou le beta-amyloïde pourrait participer à l'atteinte de la viabilité neuronale associée à certaines pathologies neurodégénératives.
Resumo:
Contexte: Le nombre de teignes du cuir chevelu et de la peau glabre étant en nette augmentation, l'identification du pathogène qui est indispensable pour un traitement ciblé, a, par conséquence, un grand intérêt pour la santé publique. Dans divers cas, un animal de compagnie peut être identifié en tant que source du pathogène. La fréquence de cultures restant stériles est particulièrement élevée en cas de prétraitement antifongique. Objectif: Le but de ce travail est de mettre au point une méthode rapide d'identification du dermatophyte pathogène in situ par PCR/séquençage dans les cas de teignes du cuir chevelu et/ou de la peau glabre. Matériel et méthodes : De l'ADN a été extrait de squames (N=5) et cheveux (N=21) dont l'examen direct démontrait une infection fongique (N=26) ou se révèlait négatif (N=1). Ensuite, une première PCR du segment 28s de l'ADN ribosomale fongique a été effectuée, suivie par une PCR nichée intérieure à ce segment. L'amplicon a été séquencé et le champignon est identifié par alignement. Résultats : Seule la PCR enchainée a permis d'obtenir une quantité suffisante d'amplicon pour permettre le séquençage. Dans 4 cas sur 5 de tinea pedis, 10 sur 12 de tinea glabra, respectivement 4 sur 4 de tinea capitis, dans lesquels un dermato- phyte a été identifié en culture, le même dermatophyte a été identifié par PCR/séquençage. Une fois sur 27 prélèvements, un autre dermatophyte a été identifié par PCR/séquençage. Ce résultat pourrait être dû à une fausse identification du champignon en culture. Dans un cas de tinea pedis et un cas de tinea corporis, la culture est restée stérile, mais un dermatophyte a pu être identifié par PCR et séquençage. Conclusions : La méthode décrite est à la fois rapide (24 h au lieu de deux semaines pour la culture), sensible et très spécifique. Elle est particulièrement utile dans les cas de teigne du cuir chevelu, dans lesquels le traitement est différent selon l'espèce de dermatophyte et où il s'agit d'un traitement systémique lourd, souvent chez l'enfant.