999 resultados para mesure
Resumo:
Les spécialistes en santé au travail ont très tôt insisté pour établir des lois et des mesures de protection contre la fumée passive pour les employés, comme l'article de J. Perrenoud ["Tabagisme passif : avancées et pièges dans l'évolution du droit suisse"] le montre. Dans la recherche également, les premières études sur les effets nocifs et gênants ont été réalisées par les spécialistes en santé au travail. Dans les années 70 et 80, c'est plus particulièrement A. Weber et ses collègues de l'IHA ETH Zurich qui ont montré que l'irritation des yeux, le clignement des paupières et la sensation de gêne augmentent en fonction de la concentration de la fumée passive et de la durée de l'exposition. Ces travaux ont été pris en compte dans le fameux rapport américain du Surgeon General sur la nocivité de la fumée passive : le point de départ de la lutte contre la fumée passive aux Etats-Unis. Au niveau de l'exposition, les hygiénistes de l'Institut universitaire romand de santé au travail (IST) ont développé des techniques de mesure et de prélèvement. [Auteure (extrait)]
Resumo:
Résumé Introduction : Le tabagisme est le facteur de risque le plus important dans 7 des 14 premières causes de décès chez les personnes de plus de 65 ans. De nombreuses études ont démontré les bénéfices sur la santé d'un arrêt du tabagisme même à un âge avancé. Malgré cela, peu d'actions préventives sont entreprises dans cette population. Le but de ce travail est d'analyser les caractéristiques du tabagisme et de l'arrêt du tabagisme spécifiquement chez les fumeuses d'âge avancé afin de mieux les aider dans leur désir d'arrêter. Méthode : Nous avons évalué les caractéristiques tabagiques au sein d'une étude prospective de 7'609 femmes vivant en Suisse, âgées de plus de 70 ans et physiquement autonomes (étude Semof s'intéressant à la mesure de l'ostéoporose par ultrason osseux). Un questionnaire sur les habitudes tabagiques a été envoyé aux 486 fumeuses éligibles de la cohorte. Leurs stades de dépendance nicotinique et de motivation ont été évalués à l'aide respectivement des scores «Heavy Smoking Index» et « Prochaska ». Les participantes ayant cessé de fumer pendant le suivi ont été questionnées sur, les motivations, les raisons et les méthodes de leur arrêt. Résultats : 424 femmes ont retourné le questionnaire (taux de réponse de 87%) parmi lesquelles 372 ont répondu de façon complète permettant leur inclusion. L'âge moyen s'élevait à 74,5 ans. La consommation moyenne était de 12 cigarettes par jour, sur une moyenne de 51 ans avec une préférence pour les cigarettes dites « légères » ou « light ». Un peu plus de la moitié des participantes avait une consommation entre 1 et 10 cigarettes par jour et la grande majorité (78%) présentait un score de dépendance faible. Les raisons du tabagisme les plus fréquemment évoquées étaient la relaxation, le plaisir et l'habitude. Les principaux obstacles mentionnés : arrêter à un âge avancé n'a pas de bénéfice, fumer peu ou des cigarettes dites light n'a pas d'impact sur la santé et fumer n'augmente pas le risque d'ostéoporose. Le désir d'arrêter était positivement associé avec un début tardif du tabagisme, une éducation plutôt modeste et la considération que d'arrêter est difficile. Durant le suivi de 3 ans, 57 femmes sur 372 (15%) ont arrêté de-fumer avec succès. Le fait d'être une fumeuse occasionnelle (moins de 1 cigarette par jour) et de considérer que d'arrêter de fumer n'est pas difficile était associés à un meilleur taux d'arrêt du tabagisme. Seuls 11% des femmes ayant stoppé la cigarette signalaient avoir reçu des conseils de leur médecin. Conclusion : ces données illustrent le comportement tabagique spécifique des fumeuses d'âge avancé (consommation et dépendance plutôt faibles) et suggèrent que les interventions médicales pour l'aide à l'arrêt du tabagisme devraient intégrer ces caractéristiques. La volonté d'arrêter est associée à un niveau d'éducation plutôt modeste. Les obstacles les plus fréquemment mentionnés sont basés sur des appréciations erronées de l'impact du tabagisme sur la santé.
Resumo:
L'approche basée sur les preuves, dérivée de I'evidence based medicine anglo-saxonne, offre une vision élargie de la pédopsychiatrie en permettant aux thérapeutes de s'extraire de la stricte soumission aux conclusions de la recherche pour donner à la pratique, dans une certaine mesure, la possibilité de valider des choix de prise en charge pluridisciplinaires. Alors que l'evidence based médecine s'est imposée dans la plupart des spécialités médicales, elle tarde à s'implanter en psychiatrie de l'enfant et de l'adolescent. Cet ouvrage fait donc le point sur les connaissances actuelles et propose une approche plus globale fondée sur les preuves. Les 13 chapitres qui le composent couvrent une grande partie des troubles pédopsychiatriques en y intégrant des sujets d'ouverture comme l'alliance thérapeutique, les soins sous contrainte ou les équipes mobiles. Un chapitre consacré aux médicaments psychotropes utilisés chez l'enfant et l'adolescent permet d'offrir un aperçu complet des moyens thérapeutiques à disposition pour chacun de ces troubles.
Resumo:
RESUMÉ Objectifs de la recherche: Depuis quelques années, l'utilisation de l'écologie dans le marketing a connu un essor considérable, aussi bien dans le monde académique que dans la pratique. De nos jours, la notion de label suscite un vif intérêt auprès des entreprises désireuses de promouvoir des produits "verts". Le principe de l'écolabellisation consiste à fournir aux consommateurs, en plus du prix, un nouvel élément de comparaison des produits. Les écolabels sont considérés comme l'un des meilleurs outils pour informer le consommateur, d'une manière claire et compréhensible, de l'impact du produit sur l'environnement. Nous nous intéressons, dans le cadre de notre travail, à l'étude du comportement d'achat des produits écolabellisés. En dépit de leur popularité croissante, les études académiques portant sur les labels écologiques sont relativement rares et de nombreuses problématiques demeurent en suspens. L'étude du comportement d'achat - au sens large - mérite notamment d'être approfondie. Notre recherche a plusieurs volets. Premièrement, nous étudions l'impact des valeurs, de l'implication vis-à-vis de l'écologie, du scepticisme, de la compréhension du label et de la connaissance de l'écologie sur le comportement d'achat de produits écolabellisés. Ensuite, nous testons la cohérence entre comportements écologiques en introduisant un comportement post- achat (le triage des déchets ménagers). Théories sous-jacentes: Notre étude repose sur différents apports académiques relatifs au comportement du consommateur "vert" mais également sur des concepts issus de la psychologie et de la sociologie. Nous présentons d'abord la littérature portant sur la caractérisation du consommateur "vert" (Webster, 1975; Arbuthnot, 1977; Van Liere et Dunlap, 1981; Balderjahn, 1988; Antil, 1984; Grunert et Juhl, 1995; Roberts, 1996). Nous abordons ensuite les études portant sur les valeurs (Schwartz, 1992; 1994), l'implication (Zaichkowsy, 1994), le scepticisme (Gray-Lee, Scammon et Mayer, 1994; Mohr et al., 1998), la compréhension des écolabels (van Dam et Reuvekamp, 1995; Thogersen, 2000) et la connaissance de l'écologie (Maloney et al., 1973, 1975; Arbuthnot, 1977; Pickett et al., 1993). Ces variables nous semblent être les plus à même d'influencer le comportement d'achat de produits écolabellisés. Enfin, sur la base des travaux de Valette-Florence et Roehrich (1993), nous développons un modèle de causalité, centré sur la relation entre les valeurs, l'implication et le comportement. Hypothèses de recherche et opérationnalisation des variables: Nous développons 16 hypothèses de recherche dont 12 portent sur les rapports de causalité entre construits. Par ailleurs, pour mieux comprendre la personnalité du consommateur de produits écolabellisés, nous distinguons les variables reflétant un intérêt collectif (altruisme) de celles reflétant un intérêt individuel (égocentrisme). La mesure des différents construits reposent sur la liste de Schwartz (1992, 1994) pour les valeurs, l'échelle d'implication de Zaichkowsy (1994) pour la publicité, l'échelle développée par Mohs et al. (1998) pour mesurer le scepticisme et une liste de questions portant sur l'écologie (Diekmann, 1996) pour tester le niveau de connaissance. Les comportements d'achat et post-achat sont mesurés respectivement à l'aide de questions relatives à la fréquence d'achat de produits écolabellisés et du triage des déchets ménagers. Collecte des données: Le recueil des données s'effectue par sondage, en ayant recours à des questionnaires auto-administrés. L'échantillon comprend de 368 étudiants provenant de diverses facultés de sciences humaines de Suisse Romande. Analyse des données et interprétation des résultats: Notre étude porte sur le comportement d'achat de trois labels écologiques et sur le triage de 7 déchets ménagers. Les différentes analyses montrent que certaines valeurs ont un impact sur l'implication et que l'implication a une influence positive sur le comportement d'achat et post-achat. Par ailleurs, nous montrons que l'implication sert de variable médiatrice entre les valeurs et le comportement. De plus, la compréhension de l'écolabel influence de manière positive l'achat de produits écolabellisés, la connaissance de l'écologie a une influence positive sur le comportement post-achat et le scepticisme vis-à-vis de l'utilité du triage des déchets ménagers influence négativement le comportement de triage. Implications managériales: Les résultats obtenus suggèrent qu'outre la valeur "protection de l'environnement", d'autres valeurs comme "la stimulation" ou encore "l'accomplissement" influencent de manière significative l'implication vis-à-vis de l'écologie qui à son tour influence l'achat de produits écolabellisés. Le manager doit donc tenir compte du fait que le consommateur est impliqué dans l'écologie. Ensuite, la compréhension du label joue un rôle prépondérant dans l'achat. De plus, le consommateur ne semble pas être sceptique par rapport aux informations fournies par les écolabels et le niveau de connaissance de l'écologie n'affecte pas son comportement. Enfin, le consommateur semble agir de manière cohérente en achetant différents produits écolabellisés. Apports, limites et voies de recherche: Notre étude contribue à l'enrichissement de la recherche sur le comportement du consommateur dans un contexte écologique à plusieurs égards, notamment par l'étude de la relation entre les valeurs, l'implication et le comportement. Néanmoins, la portée de notre recherche est naturellement restreinte en raison du nombre limité de cas étudiés, soit 3 labels écologiques relativement peu connus de notre échantillon. Il serait utile de répéter l'étude en utilisant des labels plus populaires. Par ailleurs, nous avons eu recours à des échelles développées dans des contextes quelque peu différents. En particulier, une échelle d'implication devrait être développée spécifiquement pour le contexte écologique.
Resumo:
Abstract Invasive species represent with fragmentation of habitat the most serious threats to biodiversity in the world. Galápagos Archipelago, as most oceanic islands, suffers a high rate of introduced animals and plants that affect equilibrium and biodiversity of this unique biota. Ants rank among the most devastating invaders. Their social organization confer them a high ability to adapt and to spread in new environments forming rapidly populous communities. We studied the ant community of Floreana Island composed mainly of introduced species (at least 1 S). Introduction events occurred successively during last century. The last record is Monomorium destructor arrived in the eighties. Our aim is to investigate the modalities of interaction and coexistence of these introduced species. We highlighted the competition hierarchy of the coexisting species using attractive food baits. Two species behave as competitively dominant by monopolizing an important part of resources. They are M. destructor restricted to a small area and the fire ant Solenopsis geminata widely distributed on the island. Then we evaluated the relative importance of abiotic factors and interspecific competition in structuring the community. Ecological data were collected and presence and abundance of species were estimated using different methods in a wide range of habitats. Several species showed preferences either for arid or for humid areas. The little fire ant Wasmannia auropunctata, awell-known devastating species when introduced, was exclusively found in moist habitat in and around the agricultural area situated in the upper and central part of thé island. It coexists with other species in several parts but in a restricted perimeter it excludes all other ants and worker's density on the ground is nearly 70 times higher than ant's density in similar habitats occupied by several species. But most opportunist tramp species establish everywhere without particular ecological requirement. Analyses of species co-occurrences at various levels didn't reveal any marked effect of competition in structuring ant's assemblages. We supposed that the lack ofcompetition-derived structure has to be attributed to the dynamic of the system. Indeed, across the successive census of 1996, 2003, 2004 and 2005, species distributions and abundances appeared to be highly variables. In particular harsh conditions occurring in dry season in certain parts seem to be limiting to S. geminatai. We suggest that huge variations in the local distribution of the dominant S. geminata disrupt the community organization. Finally we conducted artificial ant confrontations to evaluate to what extend an aggressive behavior at the worker level maybe linked to the ecological success of a species on the island. S. geminata was rather indifferent when confronted to a submissive species on food sources, suggesting that its competitive dominance is largely due to a numerical superiority. On the other hand M. destructor exhibits a strong agonistic behavior in similar confrontations. As soon as the presence of a competitor is detected, most workers were observed to abandon foraging and to take part in physical aggressions. Since it is still restricted nearby its introduction spot two decades after its arrival, we suggest that the energetic cost of such an aggressive behavior prevent it to spread on that island already highly colonized. Dominant invasive species such as the fire ants S. geminata and W. auropunctata have negative impacts on Galápagos fauna, disturbing the hatching of land tortoises and birds. But very little is known about the impact of other exotic ants. Indeed, impact on arthropods and generally on ground-dwelling organisms is very diffcult to evaluate. As a consequence of the dynamic character of Floreana I. ant community it is difficult to build models or to málce predictions on evolution of introduced ant fauna. But Camponotus macilentus, an abundant endemic species seems today to be little affected by introduced ant species thanks to its strong interference competition ability and its preference for arid and harsh environments. Résumé Les espèces envahissantes représentent, avec la fragmentation du paysage, la plus grande menace pour la biodiversité. L'archipel des Galápagos, comme la plupart des îles du Pacifique, compte un grand nombre d'espèces introduites qui menacent la biodiversité de ce milieu unique.. Les fourmis sont parmi les envahisseurs les plus dévastateurs. Leur organisation sociale leur permet de s'adapter et de se propager pour devenir rapidement abondantes. Nous avons étudié la communauté de fourmis sur l'île de Floreana principalement composée d'espèces introduites (au moins 15). Les introductions se sont succédées au cours du siècle précédent. La dernière espèce recensée est Monomorium destructor introduite dans les années 80. Notre objectif est de mettre à jour les modalités des interactions et de la coexistence de ces espèces introduites. Nous avons mis en évidence la hiérarchie de compétition des différentes espèces à l'aide d'appâts de nourriture. Deux espèces se comportent de façon dominante en monopolisant une part importante des ressources. Ce sont M. destructor, restreintes à un petit périmètre, et la fourmi de feu Solenopsis geminata, largement distribuée sur l'île. Nous avons évalué l'importance relative des facteurs abiotiques et de la compétition interspécifique dans la structuration des peuplements. Des données écologiques ont été collectées et la présence et l'abondance des espèces ont été estimées à l'aide de trois méthodes au sein d'une grande diversité d'habitats. Plusieurs espèces .montrent des préférences soit pour les milieux humides, soit pour les milieux arides. La petite fourmi de feu Wasmannia auropunctata, une espèce connue pour être dévastatrice dans ses sites d'introduction, est présente exclusivement dans les habitats humides dans et à proximité de la zone agricole située dans la partie centrale de l'île. Elle coexiste en plusieurs points avec d'autres espèces mais au sein d'un périmètre restreint elle exclut toute autre fourmi et atteint des densités record au sol presque 70 fois supérieures aux densités de fourmis observées sur les sites voisins occupés par plusieurs espèces. Mais la plupart des espèces vagabondes opportunistes s'établissent partout sans exigences écologiques particulières. Des analyses de cooccurrence d'espèces à plusieurs niveaux n'ont pas révélé de rôle marqué de la compétition dans la structuration des communautés. Nous supposons que l'absence d'une telle structure doit être attribuée à la dynamique du système. En effet, au cours des différents recensements de 1996-1997, 2003, 2004 et 2005, la distribution et l'abondance des espèces était très variable. En particulier, les conditions rudes qui règnent dans la zone aride durant la saison sèche semblent affecter particulièrement S. geminata. Nous suggérons que de fortes variations dans la distribution de l'espèce dominante perturbent l'orgaiùsation des communautés. Finalement nous avons effectué des confrontations artificielles pour évaluer dans quelle mesure un comportement agressif au niveau de l'ouvrière peut être lié au succès écologique d'une espèce sur l'île. S. geminata montre très peu de réaction face à une espèce subordonnée sur une même source de nourriture, ce qui laisse supposer que sa dominance est largement due à sa supériorité numérique. Par contre, dans des conditions similaires, M. destructor est fortement agressive. En présence d'un compétiteur, la plupart des ouvrières renoncent très vite à leur activité de fourragement pour agresser les individus de l'autre espèce. Puisque deux décennies après son introduction elle est toujours confinée à son point d'arrivée, nous supposons que le coût en énergie et en ouvrières de ce comportement très agressif est un obstacle à son expansion sur cette île déjà fortement colonisée. Les espèces envahissantes dominantes comme les fourmis de feu S. geminata et W. auropunctata sont connues pour leur impact négatif sur la faune des Galápagos, entre autre sur les jeunes des tortues terrestres et des oiseaux. Mais nous savons très peu de choses sur l'impact des autres espèces de fourmis introduites. En effet, l'impact sur les arthropodes, et plus généralement sur la faune du sol, est très difficile à évaluer. En raison du caractère dynamique de la communauté de fourmi de Floreana, il est difficile de construire des modèles et de faire des prédictions sur l'évolution des peuplements de fourmis introduites. Mais Camponotus macilentus, une espèce endémique abondante, semble aujourd'hui peu affectée par les espèces introduites grâce à ses capacités de compétition par interférence et sa préférence pour les milieux arides. Resumen Las, especies invasoras representan, junto con la fragmentación del paisaje, la mayor amenaza para la biodiversidad. El archipiélago de Galápagos, como la mayoría de las islas del Pacífico, cuenta con un gran número de especies introducidas que amenazan la biodiversidad de este lugar único. Las hormigas son uno de los invasores más devastadores. Su organización social les permite adaptarse y propagarse para ser rápidamente abundante. Estudiamos la comunidad de hormigas de la isla Floreana principalmente compuesta de especies introducidas (al menos 15). Las introducciones se sucedieron durante el siglo anterior. La última especie contabilizada es Monomorium destructor introducida en los años 80. Nuestro objetivo es poner al día las modalidades de las interacciones y de la coexistencia de estas especies introducidas. Pusimos de relieve la jerarquía de competencia de las distintas especies con ayuda de cebos de comida. Dos especies se implican de manera dominante monopolizando una parte importante de los recursos. Son M. destructor, limitado a un pequeño perímetro, y la hormiga de fuego Solenopsis geminata; ampliamente distribuida por la isla. Evaluamos la importancia relativa de los factores abióticos y de la competencia interespecífica en la estructuración de la communidad. Se recogieron algunos datos ecológicos y se consideraron la presencia y la abundancia de las especies con ayuda de tres métodos en una gran diversidad de hábitats. Varias especies muestran preferencias o por los medios húmedos, o por los medios áridos. La pequeña hormiga de fuego Wasmannia auropunctata, una especie conocida por ser devastadora en sus lugares de introducción, está presente exclusivamente en los hábitats húmedos y cerca de la zona agrícola situada en la parte central de la isla. Coexiste en varios puntos con otras especies pero en un perímetro limitado excluye a cualquier otra hormiga y alcanza densidades en el suelo casi 70 veces superiores a las densidades de hormigas observadas en los lugares vecinos ocupados por varias especies. Pero la mayoría de las especies vagabundas oportunistas se establecen por todas partes sin exigencias ecológicas particulares. Análisis de cooccurrencía de las especies a varios niveles no revelaron una grande importancía de la competencia en la estructuración de las comunidades. Suponemos que la ausencia de tal estructura Bebé ser por la dinámica del sistema. Efectivamente, durante los distintos censos de 1996-1997, 2003,.2004 y 2005, la distribución ? la abundancia de las especies eran muy variables. En particular, las condiciones drásticas que reinan en la zona árida durante la temporada seca parecen afectar especialmente a S. geminata. Sugerimos que fuertes variaciones en la distribución de la especie dominante perturben la organización de las comunidades. Finalmente efectuamos confrontaciones artificiales para evaluar hastá que punto un comportamiento agresivo a nivel de la obrera puede explicar el éxito ecológico de una especie en la isla. S. geminata muestra muy poca reacción ante una especie subordinada mientras comparten la misma comida, lo que deja suponer que su dominancia se debe a su superioridad numérica. Por el contrario, en condiciones similares, M. destructor es muy agresivo. En presencia de otra especie, la mayóría de las obreras renuncian muy rápidamente a alimentarse para atacar a los individuos de la otra especie. Puesto que dos décadas después de su introducción todavía se confina en su punto de llegada, suponemos que el coste en energía y en obreras de este comportamiento muy agresivo es un obstáculo a su extensión en esta isla ya muy colonizada. Las especiés invasoras dominantes como las hormigas de fuego S. geminata y W. auropunctata son conocidas por su impacto negativo en la fauna de Galápagos, entre otras cosas sobre los juveniles de las tortugas terrestres y pájaros. Pero sabemos muy poco sobre el impacto de las otras especies de hormigas introducidas. Efectivamente es muy difïcil de evaluar el impacto en los artrópodos, y más generalmente en la fauna del suelo. Debido al carácter dinámico de la comunidad de hormiga de Floreana, es diEcil construir modelos y hacer predicciones sobre la evolución de las poblaciones de hormigas introducidas. Pero Camponotus macilentus, una especie endémica abundante, parece poco afectadá hoy por las especies introducidas gracias a sus capacidades de competencia por interferencia y su preferencia por los medios áridos.
Resumo:
Rapport de synthèse : Les tumeurs de la paroi thoracique sont des pathologies graves dont le traitement principal consiste en une résection chirurgicale. L'enjeu majeur de cette intervention ontologique est de réséquer la totalité de la tumeur, ce qui nécessite une planification préopératoire minutieuse. Classiquement, l'identification et la localisation de la tumeur se fait à l'aide de la tomodensitométrie (computed tomography, CT) ou de l'imagerie par résonnance magnétique (1RM). Actuellement, l'imagerie nucléaire fonctionnelle par tomographie par émission de positons (positron emission tomography, PET) qui peut être couplée au CT (PET/CT) est de plus en plus appliquée aux patients présentant une tumeur maligne. Son efficacité a fréquemment été démontrée. Le but de la présente étude est d'évaluer la valeur du PET dans la planification de la résection des tumeurs de la paroi thoracique. Une analyse rétrospective de dix-huit patients opérés entre 2004 et 2006 a été réalisée; Dans ce groupe de patient, la taille de la tumeur mesurée sur la pièce opératoire réséquée a été comparée à la taille de la tumeur mesurée sur le CT et le PET. Les résultats démontrent que le CT surestimait de manière consistante la taille réelle de la tumeur par rapport au PET (+64% par rapport à +1%, P<0.001). De plus, le PET s'est avéré particulièrement performant pour prédire la taille des tumeurs de plus de 5.5 cm de diamètre par rapport au CT (valeur prédictive positive 80% par rapport à 44% et spécificité 93% par apport à 64%, respectivement). Cette étude démontre que le PET permettrait de mesurer la taille des tumeurs de la paroi thoracique de manière plus précise que le CT. Cette nouvelle modalité diagnostique s'avèrerait donc utile pour planifier les résections chirurgicales de telles tumeurs. A notre connaissance, aucune publication ne décrit la valeur du PET dans ce domaine. Les performances accrues du PET permettraient une meilleure délimitation des tumeurs ce qui améliorerait la précision de la résection chirurgicale. En conclusion, cette étude préliminaire rétrospective démontre la faisabilité du PET pour les tumeurs de la paroi thoracique. Ces résultats devraient être confirmés par une étude prospective incluant un plus grand nombre de patients avec la perspective de juger l'impact clinique réel du PET sur la prise en charge thérapeutique des patients.
Resumo:
Depuis les années 1980, en France, les périphéries urbaines sont très fortement investies par les écrivains. Pauvreté architecturale, prolifération d'espaces mono-fonctionnels, déréliction sociale, les maux y sont de divers ordres. En bref, c'est là que la ville serait moins ville que la ville : la périphérie souffrirait d'un déficit d'urbanité. Par ailleurs, tout ce qui relève de l'urbain mérite, aujourd'hui, comme une prise en charge paysagère, ce dont témoigne, entre autres, le fait que les métiers du paysage sont souvent associés aux entreprises de requalification de ces espaces.¦Le corpus étudié dans ce travail est littéraire : il compte huit textes, parus entre 1990 et 2007. Premièrement, ces textes appartiennent au paradigme de l'ordinaire, ou du quotidien. Deuxièmement, ils sont écrits du point de vue du centre. Troisièmement, ils relèvent d'une expérience de déplacement, ou d'un projet viatique : il en résulte que les espaces y sont tout à la fois pratiqués, perçus et représentés.¦À partir d'un modèle du paysage qui l'entend comme une réalité multipolaire, les huit textes sont interrogés par le croisement de l'analyse littéraire avec d'autres savoirs (géographie, phénoménologie, histoire culturelle, sociologie). Il s'agit d'abord de construire, avec les écrivains, différents types d'espaces géographiques : des espaces urbains centraux, des espaces suburbains et des espaces périurbains. Ensuite, il faut appréhender le paysage dans sa complexité polysensorielle, sa dimension identificatoire, comme à travers son appréciation explicite par les «voyageurs». Il s'agit, encore, d'éprouver les tensions esthétiques, voire ironiques, du « paysage urbain ». Et, finalement, de prendre en considération les hommes, c'est-à-dire le rapport à l'autre qui est institué par chacun des auteurs.¦La thèse défendue est que les écrivains sont bel et bien les agents d'une requalification symbolique de l'urbain contemporain. D'une part, ils requalifient l'urbain dans la mesure où ils le donnent à connaître; où ils rendent habitable ce qui semble inhabitable; où ils mobilisent des schèmes esthétiques - la fenêtre perceptive, le mélange, la flânerie - qui permettent d'informer les espaces visités. D'autre part, en s'appropriant symboliquement les périphéries urbaines, il apparaît que les écrivains les réintègrent, plus ou moins, dans la cité. Cela signifie également qu'ils y redistribuent le pouvoir, ou la parole, manifestant ainsi la dimension proprement politique du paysage.
Resumo:
Résumé : Un nombre croissant de cas de malaria chez les voyageurs et migrants a été rapporté. Bien que l'analyse microscopique des frottis sanguins reste traditionnellement l'outil diagnostic de référence, sa fiabilité dépend considérablement de l'expertise de l'examinateur, pouvant elle-même faire défaut sous nos latitudes. Une PCR multiplex en temps réel a donc été développée en vue d'une standardisation du diagnostic. Un ensemble d'amorces génériques ciblant une région hautement conservée du gène d'ARN ribosomial 18S du genre Plasmodium a tout d'abord été conçu, dont le polymorphisme du produit d'amplification semblait suffisant pour créer quatre sondes spécifiques à l'espèce P. falciparum, P. malariae, P. vivax et P. ovale. Ces sondes utilisées en PCR en temps réel se sont révélées capables de détecter une seule copie de plasmide de P. falciparum, P. malariae, P. vivax et P. ovale spécifiquement. La même sensibilité a été obtenue avec une sonde de screening pouvant détecter les quatre espèces. Quatre-vingt-dix-sept échantillons de sang ont ensuite été testés, dont on a comparé la microscopie et la PCR en temps réel pour 66 (60 patients) d'entre eux. Ces deux méthodes ont montré une concordance globale de 86% pour la détection de plasmodia. Les résultats discordants ont été réévalués grâce à des données cliniques, une deuxième expertise microscopique et moléculaire (laboratoire de Genève et de l'Institut Suisse Tropical de Bâle), ainsi qu'à l'aide du séquençage. Cette nouvelle analyse s'est prononcé en faveur de la méthode moléculaire pour tous les neuf résultats discordants. Sur les 31 résultats positifs par les deux méthodes, la même réévaluation a pu donner raison 8 fois sur 9 à la PCR en temps réel sur le plan de l'identification de l'espèce plasmodiale. Les 31 autres échantillons ont été analysés pour le suivi de sept patients sous traitement antimalarique. Il a été observé une baisse rapide du nombre de parasites mesurée par la PCR en temps réel chez six des sept patients, baisse correspondant à la parasitémie déterminée microscopiquement. Ceci suggère ainsi le rôle potentiel de la PCR en temps réel dans le suivi thérapeutique des patients traités par antipaludéens. Abstract : There have been reports of increasing numbers of cases of malaria among migrants and travelers. Although microscopic examination of blood smears remains the "gold standard" in diagnosis, this method suffers from insufficient sensitivity and requires considerable expertise. To improve diagnosis, a multiplex real-time PCR was developed. One set of generic primers targeting a highly conserved region of the 18S rRNA gene of the genus Plasmodium was designed; the primer set was polymorphic enough internally to design four species-specific probes for P. falciparum, P. vivax, P. malarie, and P. ovale. Real-time PCR with species-specific probes detected one plasmid copy of P. falciparum, P. vivax, P. malariae, and P. ovale specifically. The same sensitivity was achieved for all species with real-time PCR with the 18S screening probe. Ninety-seven blood samples were investigated. For 66 of them (60 patients), microscopy and real-time PCR results were compared and had a crude agreement of 86% for the detection of plasmodia. Discordant results were reevaluated with clinical, molecular, and sequencing data to resolve them. All nine discordances between 18S screening PCR and microscopy were resolved in favor of the molecular method, as were eight of nine discordances at the species level for the species-specific PCR among the 31 samples positive by both methods. The other 31 blood samples were tested to monitor the antimalaria treatment in seven patients. The number of parasites measured by real-time PCR fell rapidly for six out of seven patients in parallel to parasitemia determined microscopically. This suggests a role of quantitative PCR for the monitoring of patients receiving antimalaria therapy.
Resumo:
Au centre de cette contribution se pose la question de la mesure dans laquelle des résultats issus des élections cantonales peuvent servir d'instrument de pronostic pour les scores électoraux au niveau du Conseil national. L'analyse des résultats des élections tenues au cours des trente dernières années montre que les données cantonales (pondérées avec le nombre d'électeurs potentiels et la participation au vote) prédisent, dans environ neuf cas sur dix, la tendance réelle au niveau national. Si cela se vérifiait encore aux prochaines élections, alors les Verts peuvent s'attendre à des gains importants en termes de nouveaux électeurs et électrices. De même, mais dans une moindre mesure, l'UDC peux compter sur une augmentation de ses votants. Par contre, tant le PRD que le PS seront perdants et le PDC ne s'en sortira pas beaucoup mieux. En ce qui concerne la marge d'erreur de ces pronostics, elle se trouve au-dessous des 1 pourcents dans 73% des cas et pour 91% des cas elle ne dépasse pas les 2 pourcents.
Resumo:
Résumé : Ce travail porte sur l'étude rétrospective d'une série de jeunes patients opérés de glaucomes pédiatriques. Le but est d'évaluer le résultat au long cours d'une intervention chirurgicale combinant une sclérectomie profonde et une trabéculectomie (sclérectomie profonde pénétrante). Durant la période de mars 1997 à octobre 2006, 28 patients on été suivis pour évaluer le résultat de cette chirurgie effectuées sur 35 yeux. Un examen ophtalmologique complet a été pratiqué avant la chirurgie, 1 et 7 jours, puis 1, 2, 3, 4, 6, 9, 12 mois, enfin tous les 6 mois après l'opération. Les critères d'évaluation du résultat postopératoire sont : les changements de pression intraoculaire, le traitement antiglaucomateux adjuvant, le taux de complication, le nombre de reprises chirurgicales,- l'erreur de réfraction, la meilleure acuité visuelle corrigée, l'état et le diamètre de la cornée. L'âge moyen est de 3.6 ± 4.5 ans et le suivi moyen de 3.6 ± 2.9 ans. La pression intraoculaire préopératoire de 31.9 ± 11.5 mmHg baisse de 58.3% (p<0.005) à la fin du suivi. Sur les 14 patients dont l'acuité visuelle a pu être mesurée, 8 (57.1 %) ont une acuité égale ou supérieure à 5/10e, 3 (21.4%) une acuité de 2/10e après intervention. Le taux de succès cumulatif complet à 9 ans est de 52.3%, le succès relatif 70.6%. Les complications menaçant la vision (8.6%) ont été plus fréquentes dans les cas de glaucome réfractaire. Pour conclure la sclérectomie profonde combinée à une trabéculectomie est une technique chirurgicale développée afin de contrôler la pression intraoculaire dans les cas de glaucomes congénitaux, juvéniles et secondaires. Les résultats intermédiaires sont encourageants et prometteurs. Les cas préalablement opérés avant cette nouvelle technique ont cependant un pronostic moins favorable. Le nombre de complications menaçant la vision est essentiellement lié à la sévérité du glaucome et au nombre d'interventions préalables. Abstract : Purpose : To evaluate the outcomes of combined deep sclerectomy and trabeculectomy (penetrating deep sclerectomy) in pediatric glaucoma. Design : Retrospective, non-consecutive, non-comparative, interventional case series. Participants : Children suffering from pediatric glaucoma who underwent surgery between March 1997 and October 2006 were included in this study. Methods : A primary combined deep sclerectomy and trabeculectomy was performed in 35 eyes of 28 patients. Complete examinations were performed before surgery, postoperatively at 1 and 7 days, at 1, 2, 3, 4, 6, 9, 12 months and then every 6 months after surgery. Main Outcome Measures : Surgical outcome was assessed in terms of intraocular pressure (IOP) change, additional glaucoma medication, complication rate, need for surgical revision, as well as refractive errors, best corrected visual acuity (BCVA), and corneal clarity and diameters. Results : The mean age before surgery was 3.6 ± 4.5 years, and the mean follow-up was 3.5 ± 2.9 years. The mean preoperative IOP was 31.9 ± 11.5 mmHg. At the end of follow-up, the mean IOP decreased by 58.3% (p<0.005), and from 14 patients with available BCVA 8 patients (57.1 %) achieved. 0.5 (20/40) or better, 3 (21.4%) 0.2 (20/100), and 2 (14.3%) 0.1 (20/200) in their better eye. The mean refractive error (spherical equivalent) at final follow-up visits was +0.83 ± 5.4. Six patients (43%) were affected by myopia. The complete and qualified success rates, based on a cumulative survival curve, after- 9 years were 52.3% and 70.6%, respectively (p<0.05). Sight threatening complications were more common (8.6%) in refractory glaucomas. Conclusions : Combined deep sclerectomy and trabeculectomy is a surgical technique developed to control IOP in congenital, secondary and juvenile glaucomas. The intermediate results are satisfactory and promising. Previous classic glaucoma surgeries performed before this new technique had less favourable results. The number of sight threatening complications is related to the severity of glaucoma and number of previous surgeries.
Resumo:
Résumé : Les concentrations plasmatiques du peptide natriurétique de type B sont augmentées chez les diabétiques de type 2 atteints de complications vasculaires. But : Les concentrations plasmatiques du peptide natriurétique de type B (NT-proBNP) sont augmentées chez les diabétiques de type 2 atteints de complications vasculaires. Les concentrations plasmatiques du peptide natriurétique de type B (BNP), ou de sa pro-hormone (NT-proBNP), sont reconnues depuis peu comme marqueur de choix de la dysfonction cardiaque. Les diabétiques de type 2 sont à haut risque de développer des complications cardiovasculaires. L'objectif de cette étude a été de déterminer si les concentrations plasmatiques de NT-proBNP étaient comparables chez des diabétiques de type 2 avec ou sans complications vasculaires. Méthodes : Nous avons mesuré le NT-proBNP plasmatique chez 54 diabétiques de type 2, 27 sans complications micro- ou macrovasculaires et 27 présentant des complications soit micro- soit macrovasculaires, soit les deux. Le même dosage a été effectué chez 38 témoins sains, appariés pour l'âge et le sexe avec les diabétiques. Résultat : Le NT-proBNP plasmatique était plus élevé chez les diabétiques avec complications (médiane 121 pg/ml, intervalle interquartile 50-240 pg/ml) que chez ceux sans complications (37 pg/ml, 21-54 pg/ml, P < 0,01). Comparés au groupe témoin (55 pg/ml, 40-79 pg/ml), seuls les diabétiques avec complications vasculaires avaient un NT-proBNP plasmatique significativement augmenté (P < 0,001). Chez les diabétiques la maladie coronarienne et la néphropathie (définie selon l'excrétion urinaire d'albumine) étaient chacune associée de façon indépendante avec une augmentation des concentrations plasmatiques de NT-proBNP. Conclusion : Chez les diabétiques de type 2 souffrant de complications micro- ou macrovasculaires, les concentrations plasmatiques de NT-proBNP sont augmentées par rapport à celles des malades indemnes de complications vasculaires. L'augmentation de sécrétion de ce peptide est associée de façon indépendante avec la maladie coronarienne et la néphropathie. La mesure du NT-proBNP plasmatique pourrait donc être utile pour dépister la présence de complications micro- ou macrovasculaires.
Resumo:
Cet article est un compte-rendu du colloque "Evolution in Structured Population", tenu du 14 au 16 Septembre 1994 à l'Université de Lausanne. Consacré aux causes écologiques et conséquences évolutives d'horizons divers (zoologie, botanique, anthropologie, mathématiques), utilisant des approches variées, aussi bien empiriques que théoriques. Plusieurs exemples concrets de structurations génétiques de populations naturelles ont été documentés, et leurs causes analysées. Celles-ci sont variées, certaines étant extrinsèques à la biologie des espèces concernées (distances géographique, barrières écologiques, etc), d'autres intrinsèques (stratégies de reproduction, mutations chromosomiques). Les outils quantitatifs les plus largement utilisés pour analyser ces structures restent les F-statistiques de Whright; elles ont néanmoins fait l'objet de plusieurs critiques: d'une part, elles n'exploitent pas toute l'information disponible (certains orateurs ont d'ailleurs proposé diverses améliorations dans ce sens); d'autre part, les hypothèses qui sous-tendent leur interprétation conventionelle (en particulier l'hypothèse de populations à l'équilibre) sont régulièrement violées. Plusieurs des travaux présentés se sont précisément intéressés aux situations de déséquilibre et à leurs conséquences sur la dynamique et l'évolution des populations. Parmi celles ci: l'effet d'extinctions démiques sur les stratégies de dispersion des organismes et la structure génétique de leurs métapopulations, l'inadéquation du modèle classique de métapopulation, dit modèle en île (les modèles de diffusion ou de "pas japonais" (stepping stone) semblent généralement préférables), et le rôle de la "viscosité" des populations, en particulier en relation avec la sélection de parentèle et l'évolution de structures sociales. Le rôle important d'événements historiques sur les structures actuelles a été souligné, notamment dans le cadre de contacts secondaires entre populations hautement différenciées, leur introgression possible et la biogéographie de taxons vicariants. Parmi les problèmes récurrents notés: l'identification de l'unité panmictique, l'échelle de mesure spatiale appropriée, et les difficulté d'estimation des taux de migration et de flux de gènes. Plusieurs auteurs ont relevé la nécessité d'études biologiques de détail: les structures génétiques n'ont d'intérêt que dans la mesure où elles peuvent être situées dans un contexte écologique et évolutif précis. Ce point a été largement illustré dans le cadre des realtions entre structures génétiques et stratégies de reproduction/dispersion.
Resumo:
Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.
Resumo:
Le cerveau est l'organe avec les besoins en énergie les plus élevés du corps humain, et le glucose est un substrat énergétique cérébral essentiel. Ces dernières décennies, la compréhension de la neuroénergétique a beaucoup évolué et un rôle du lactate comme substrat énergétique important a été mis en évidence, notamment suite à l'introduction du modèle de l'ANLS (astrocyte-neuron lactate shuttle). Selon celui-ci, les astrocytes convertissent le glucose en lactate par réaction de glycolyse, puis il est transporté jusqu'aux neurones qui l'utilisent comme source d'énergie à travers le cycle de Krebs. Chez l'homme, divers travaux récents ont montré que le lactate peut servir de « carburant » cérébral chez le sujet sain, après effort intense ou chez le patient diabétique. La régulation métabolique et le rôle du lactate après lésion cérébrale aiguë sont encore peu connus. Présentation de l'article Le but de ce travail a été d'étudier le métabolisme cérébral du lactate chez les patients atteints de traumatisme crânien (TCC) sévère. Nous avons émis l'hypothèse que l'augmentation du lactate cérébral chez ces patients n'était pas associée de manière prédominante à une hypoxie ou une ischémie mais plutôt à une glycolyse aérobie, et également à une perfusion cérébrale normale. L'étude a porté sur une cohorte prospective de 24 patients avec TCC sévère admis au service de médecine intensive du CHUV (centre hospitalier universitaire vaudois), monitorés par un système combinant microdialyse cérébrale (outil permettant de mesurer divers métabolites cérébraux, tels que le lactate, le pyruvate et le glucose), mesure de la pression cérébrale en oxygène et de la pression intracrânienne. Cet outil nous a permis de déterminer si l'élévation du lactate était principalement associée à une glycolyse active ou plutôt à une hypoxie. L'utilisation du CTde perfusion a permis d'évaluer la relation entre les deux patterns d'élévation du lactate (glycolytique ou hypoxique) et la perfusion cérébrale globale. Nos résultats ont montré que l'augmentation du lactate cérébral chez les patients avec TCC sévère était associée de manière prédominante à une glycolyse aérobie plutôt qu'à une hypoxie/ischémie. D'autre part, nous avons pu confirmer que les épisodes de lactate glycolytique étaient toujours associés à une perfusion cérébrale normale ou augmentée, alors que les épisodes de lactate hypoxique étaient associés à une hypoperfusion cérébrale. Conclusions et perspectives Nos résultats, qui ont permis de mieux comprendre le métabolisme cérébral du lactate chez les patients avec TCC sévère, soutiennent le concept que le lactate est produit dans des conditions aérobes et pourrait donc être utilisé comme source d'énergie par le cerveau lésé pour subvenir à des besoins augmentas. Etant donné que la dysfonction énergétique est une des probables causes de perte neuronale après traumatisme crânien, ces résultats ouvrent des perspectives thérapeutiques nouvelles après agression cérébrale chez l'homme, visant à tester un potentiel effet neuroprotecteur via l'administration de lactate exogène.
Resumo:
SUMMARYAstrocytes represent the largest cell population in the human brain. In addition to a well established role as metabolic support for neuronal activity, in the last years these cells have been found to accomplish other important and, sometimes, unexpected functions. The tight enwrapping of synapses by astrocytic processes and the predominant expression of glutamate uptake carriers in the astrocytic rather than neuronal plasma membranes brought to the definition of a critical involvement of astrocytes in the clearance of glutamate from synaptic junctions. Moreover, several publications showed that astrocytes are able to release chemical transmitters (gliotransmitters) suggesting their active implication in the control of synaptic functions. Among gliotransmitters, the best characterized is glutamate, which has been proposed to be released from astrocytes in a Ca2+ dependent manner via exocytosis of synaptic-like microvesicles.In my thesis I present results leading to substantial advancement of the understanding of the mechanisms by which astrocytes modulate synaptic activity in the hippocampus, notably at excitatory synapses on dentate granule cells. I show that tumor necrosis factor- alpha (TNFa), a molecule that is generally involved in immune system functions, critically controls astrocyte-to-synapse communication (gliotransmission) in the brain. With constitutive levels of TNFa present, activation of purinergic G protein-coupled receptors in astrocytes, called P2Y1 receptors, induces localized intracellular calcium ([Ca2+]j) elevation in astrocytic processes (measured by two-photon microscopy) followed by glutamate release and activation of pre-synaptic NMDA receptors resulting in synaptic potentiation. In preparations lacking TNFa, astrocytes respond with identical [Ca2+]i elevations but fail to induce neuromodulation. I find that TNFa specifically controls the glutamate release step of gliotransmission. Addition of very low (picomolar) TNFa concentrations to preparations lacking the cytokine, promptly reconstitutes both normal exocytosis in cultured astrocytes and gliotransmission in hippocampal slices. These data provide the first demonstration that gliotransmission and its synaptic effects are controlled not only by astrocyte [Ca2+]i elevations but also by permissive/homeostatic factors like TNFa.In addition, I find that higher and presumably pathological TNFa concentrations do not act just permissively but instead become direct and potent triggers of glutamate release from astrocytes, leading to a strong enhancement of excitatory synaptic activity. The TNFa action, like the one observed upon P2Y1R activation, is mediated by pre-synaptic NMDA receptors, but in this case the effect is long-lasting, and not reversible. Moreover, I report that a necessary molecular target for this action of TNFa is TNFR1, one of the two specific receptors for the cytokine, as I found that TNFa was unable to induce synaptic potentiation when applied in slices from TNFR1 knock-out (Tnfrlv") mice. I then created a double transgenic mouse model where TNFR1 is knocked out in all cells but can be re-expressed selectively in astrocytes and I report that activation of the receptors in these cells is sufficient to reestablish TNFa-dependent long-lasting potentiation of synaptic activity in the TNFR1 knock-out mice.I therefore discovered that TNFa is a primary molecule displaying both permissive and instructive roles on gliotransmission controlling synaptic functions. These reports might have profound implications for the understanding of both physiological and pathological processes associated to TNFa production, including inflammatory processes in the brain.RÉSUMÉLes astrocytes sont les cellules les plus abondantes du cerveau humain. Outre leur rôle bien établi dans le support métabolique de l'activité neuronale, d'autres fonctions importantes, et parfois inattendues de ces cellules ont été mises en lumière au cours de ces dernières années. Les astrocytes entourent étroitement les synapses de leurs fins processus qui expriment fortement les transporteurs du glutamate et permettent ainsi aux astrocytes de jouer un rôle critique dans l'élimination du glutamate de la fente synaptique. Néanmoins, les astrocytes semblent être capables de jouer un rôle plus intégratif en modulant l'activité synaptique, notamment par la libération de transmetteurs (gliotransmetteurs). Le gliotransmetteur le plus étudié est le glutamate qui est libéré par l'exocytose régulée de petites vésicules ressemblant aux vésicules synaptiques (SLMVs) via un mécanisme dépendant du calcium.Les résultats présentés dans cette thèse permettent une avancée significative dans la compréhension du mode de communication de ces cellules et de leur implication dans la transmission de l'information synaptique dans l'hippocampe, notamment des synapses excitatrices des cellules granulaires du gyrus dentelé. J'ai pu montrer que le « facteur de nécrose tumorale alpha » (TNFa), une cytokine communément associée au système immunitaire, est aussi fondamentale pour la communication entre astrocyte et synapse. Lorsqu'un niveau constitutif très bas de TNFa est présent, l'activation des récepteurs purinergiques P2Y1 (des récepteurs couplés à protéine G) produit une augmentation locale de calcium (mesurée en microscopie bi-photonique) dans l'astrocyte. Cette dernière déclenche ensuite une libération de glutamate par les astrocytes conduisant à l'activation de récepteurs NMDA présynaptiques et à une augmentation de l'activité synaptique. En revanche, dans la souris TNFa knock-out cette modulation de l'activité synaptique par les astrocytes n'est pas bien qu'ils présentent toujours une excitabilité calcique normale. Nous avons démontré que le TNFa contrôle spécifiquement l'exocytose régulée des SLMVs astrocytaires en permettant la fusion synchrone de ces vésicules et la libération de glutamate à destination des récepteurs neuronaux. Ainsi, nous avons, pour la première fois, prouvé que la modulation de l'activité synaptique par l'astrocyte nécessite, pour fonctionner correctement, des facteurs « permissifs » comme le TNFa, agissant sur le mode de sécrétion du glutamate astrocytaire.J'ai pu, en outre, démontrer que le TNFa, à des concentrations plus élevées (celles que l'on peut observer lors de conditions pathologiques) provoque une très forte augmentation de l'activité synaptique, agissant non plus comme simple facteur permissif mais bien comme déclencheur de la gliotransmission. Le TNFa provoque 1'activation des récepteurs NMD A pré-synaptiques (comme dans le cas des P2Y1R) mais son effet est à long terme et irréversible. J'ai découvert que le TNFa active le récepteur TNFR1, un des deux récepteurs spécifiques pour le TNFa. Ainsi, l'application de cette cytokine sur une tranche de cerveau de souris TNFR1 knock-out ne produit aucune modification de l'activité synaptique. Pour vérifier l'implication des astrocytes dans ce processus, j'ai ensuite mis au point un modèle animal doublement transgénique qui exprime le TNFR1 uniquement dans les astrocytes. Ce dernier m'a permis de prouver que l'activation des récepteurs TNFR1 astrocytaires est suffisante pour induire une augmentation de l'activité synaptique de manière durable.Nous avons donc découvert que le TNFa possède un double rôle, à la fois un rôle permissif et actif, dans le contrôle de la gliotransmission et, par conséquent, dans la modulation de l'activité synaptique. Cette découverte peut potentiellement être d'une extrême importance pour la compréhension des mécanismes physiologiques et pathologiques associés à la production du TNFa, en particulier lors de conditions inflammatoires.RÉSUMÉ GRAND PUBLICLes astrocytes représentent la population la plus nombreuse de cellules dans le cerveau humain. On sait, néanmoins, très peu de choses sur leurs fonctions. Pendant très longtemps, les astrocytes ont uniquement été considérés comme la colle du cerveau, un substrat inerte permettant seulement de lier les cellules neuronales entre elles. Il n'y a que depuis peu que l'on a découvert de nouvelles implications de ces cellules dans le fonctionnement cérébral, comme, entre autres, une fonction de support métabolique de l'activité neuronale et un rôle dans la modulation de la neurotransmission. C'est ce dernier aspect qui fait l'objet de mon projet de thèse.Nous avons découvert que l'activité des synapses (régions qui permettent la communication d'un neurone à un autre) qui peut être potentialisée par la libération du glutamate par les astrocytes, ne peut l'être que dans des conditions astrocytaires très particulières. Nous avons, en particulier, identifié une molécule, le facteur de nécrose tumorale alpha (TNFa) qui joue un rôle critique dans cette libération de glutamate astrocytaire.Le TNFa est surtout connu pour son rôle dans le système immunitaire et le fait qu'il est massivement libéré lors de processus inflammatoires. Nous avons découvert qu'en concentration minime, correspondant à sa concentration basale, le TNFa peut néanmoins exercer un rôle indispensable en permettant la communication entre l'astrocyte et le neurone. Ce mode de fonctionnement est assez probablement représentatif d'un processus physiologique qui permet d'intégrer la communication astrocyte/neurone au fonctionnement général du cerveau. Par ailleurs, nous avons également démontré qu'en quantité plus importante, le TNFa change son mode de fonctionnement et agit comme un stimulateur direct de la libération de glutamate par l'astrocyte et induit une activation persistante de l'activité synaptique. Ce mode de fonctionnement est assez probablement représentatif d'un processus pathologique.Nous sommes également arrivés à ces conclusions grâce à la mise en place d'une nouvelle souche de souris doublement transgéniques dans lesquelles seuls les astrocytes (etnon les neurones ou les autres cellules cérébrales) sont capables d'être activés par le TNFa.