504 resultados para temps libre, travail, situationisme, émancipation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : La première partie de ce travail de thèse est consacrée au canal à sodium épithélial (ENaC), l'élément clé du transport transépithélial de Na+ dans le néphron distal, le colon et les voies aériennes. Ce canal est impliqué dans certaines formes génétiques d'hypo- et d'hypertension (PHA I, syndrome de Liddle), mais aussi, indirectement, dans la mucoviscidose. La réabsorption transépithéliale de Na+ est principalement régulée par des hormones (aldostérone, vasopressine), mais aussi directement par le Na+, via deux phénomènes distincts, la « feedback inhibition » et la « self-inhibition » (SI). Ce second phénomène est dépendant de la concentration de Na+ extracellulaire, et montre une cinétique rapide (constante de temps d'environ 3 s). Son rôle physiologique serait d'assurer l'homogénéité de la réabsorption de Na+ et d'empêcher que celle-ci soit excessive lorsque les concentrations de Na+ sont élevées. Différents éléments appuient l'hypothèse de la présence d'un site de détection de la concentration du Na+ extracellulaire sur ENaC, gouvernant la SI. L'objectif de ce premier projet est de démontrer l'existence du site de détection impliqué dans la SI et de déterminer ses propriétés physiologiques et sa localisation. Nous avons montré que les caractéristiques de la SI (en termes de sélectivité et affinité ionique) sont différentes des propriétés de conduction du canal. Ainsi, nos résultats confirment l'hypothèse de l'existence d'un site de détection du Na+ (responsable de la transmission de l'information au mécanisme de contrôle de l'ouverture du canal), différent du site de conduction. Par ailleurs, ce site présente une affinité basse et indépendante du voltage pour le Na+ et le Li+ extracellulaires. Le site semble donc être localisé dans le domaine extracellulaire, plutôt que transmembranaire, de la protéine. L'étape suivante consiste alors à localiser précisément le site sur le canal. Des études précédentes, ainsi que des résultats préliminaires récemment obtenus, mettent en avant le rôle dans la self-inhibition du premiers tiers des boucles extracellulaires des sous-unités α et γ du canal. Le second projet tire son origine des limitations de la méthode classique pour l'étude des canaux ioniques, après expression dans les ovocytes de Xenopus laevis, par la méthode du voltage-clamp à deux électrodes, en particulier les limitations dues à la lenteur des échanges de solutions. En outre, cette méthode souffre de nombreux désavantages (manipulations délicates et peu rapides, grands volumes de solution requis). Plusieurs systèmes améliorés ont été élaborés, mais aucun ne corrige tous les désavantages de la méthode classique Ainsi, l'objectif ici est le développement d'un système, pour l'étude électrophysiologique sur ovocytes, présentant les caractéristiques suivantes : manipulation des cellules facilitée et réduite, volumes de solution de perfusion faibles et vitesse rapide d'échange de la perfusion. Un microsystème intégré sur une puce a été élaboré. Ces capacités de mesure ont été testées en utilisant des ovocytes exprimant ENaC. Des résultats similaires (courbes IV, courbes dose-réponse au benzamil) à ceux obtenus avec le système traditionnel ont été enregistrés avec le microsystème. Le temps d'échange de solution a été estimé à ~20 ms et des temps effectifs de changement ont été déterminés comme étant 8 fois plus court avec le nouveau système comparé au classique. Finalement, la SI a été étudiée et il apparaît que sa cinétique est 3 fois plus rapide que ce qui a été estimé précédemment avec le système traditionnel et son amplitude de 10 à 20 % plus importante. Le nouveau microsystème intégré apparaît donc comme adapté à la mesure électrophysiologique sur ovocytes de Xenopus, et possèdent des caractéristiques appropriées à l'étude de phénomènes à cinétique rapide, mais aussi à des applications de type « high throughput screening ». Summary : The first part of the thesis is related to the Epithelial Sodium Channel (ENaC), which is a key component of the transepithelial Na+ transport in the distal nephron, colon and airways. This channel is involved in hypo- and hypertensive syndrome (PHA I, Liddle syndrome), but also indirectly in cystic fibrosis. The transepithelial reabsorption of Na+ is mainly regulated by hormones (aldosterone, vasopressin), but also directly by Na+ itself, via two distinct phenomena, feedback inhibition and self-inhibition. This latter phenomenon is dependant on the extracellular Na+ concentration and has rapid kinetics (time constant of about 3 s). Its physiological role would be to prevent excessive Na+ reabsorption and ensure this reabsorption is homogenous. Several pieces of evidence enable to propose the hypothesis of an extracellular Na+ sensing site on ENaC, governing self-inhibition. The aim of this first project is to demonstrate the existence of the sensing site involved in self-inhibition and to determine its physiological properties and localization. We show self-inhibition characteristics (ionic selectivity and affinity) are different from the conducting properties of the channel. Our results support thus the hypothesis that the Na+ sensing site (responsible of the transmission of the information about the extracellular Na+ concentration to the channel gating mechanism), is different from the channel conduction site. Furthermore, the site has a low and voltage-insensitive affinity for extracellular Na+ or Li+. This site appears to be located in the extracellular domain rather than in the transmembrane part of the channel protein. The next step is then to precisely localize the site on the channel. Some previous studies and preliminary results we recently obtained highlight the role of the first third of the extracellular loop of the α and γ subunits of the channel in self-inhibition. The second project originates in the limitation of the classical two-electrode voltageclamp system classically used to study ion channels expressed in Xenopus /aevis oocytes, in particular limitations related to the slow solution exchange time. In addition, this technique undergoes several drawbacks (delicate manipulations, time consumption volumes). Several improved systems have been built up, but none corrected all these detriments. The aim of this second study is thus to develop a system for electrophysiological study on oocytes featuring an easy and reduced cell handling, small necessary perfusion volumes and fast fluidic exchange. This last feature establishes the link with the first project, as it should enable to improve the kinetics analysis of self-inhibition. A PDMS chip-based microsystem has been elaborated. Its electrophysiological measurement abilities have been tested using oocytes expressing ENaC. Similar measurements (IV curves of benzamil-sensitive currents, benzamil dose-response curves) have been obtained with this system, compared to the traditional one. The solution exchange time has been estimated at N20 ms and effective exchange times (on inward currents) have been determined as 8 times faster with the novel system compared to the classical one. Finally, self-inhibition has been studied and it appears its kinetics is 3 times faster and its amplitude 10 to 20 % higher than what has been previously estimated with the traditional system. The novel integrated microsystem appears therefore to be convenient for electrophysiological measurement on Xenopus oocytes, and displays features suitable for the study of fast kinetics phenomenon, but also high throughput screening applications. Résumé destiné large public : Le corps humain est composé d'organes, eux-mêmes constitués d'un très grand nombre de cellules. Chaque cellule possède une paroi appelée membrane cellulaire qui sépare l'intérieur de cette cellule (milieu intracellulaire) du liquide (milieu extracellulaire) dans lequel elle baigne. Le maintien de la composition stable de ce milieu extracellulaire est essentiel pour la survie des cellules et donc de l'organisme. Le sodium est un des composants majeurs du milieu extracellulaire, sa quantité dans celui-ci doit être particulièrement contrôlée. Le sodium joue en effet un rôle important : il conditionne le volume de ce liquide extracellulaire, donc, par la même, du sang. Ainsi, une grande quantité de sodium présente dans ce milieu va de paire avec une augmentation du volume sanguin, ce qui conduit l'organisme à souffrir d'hypertension. On se rend donc compte qu'il est très important de contrôler la quantité de sodium présente dans les différents liquides de l'organisme. Les apports de sodium dans l'organisme se font par l'alimentation, mais la quantité de sodium présente dans le liquide extracellulaire est contrôlée de manière très précise par le rein. Au niveau de cet organe, on appelle urine primaire le liquide résultant de la filtration du sang. Elle contient de nombreuses substances, des petites molécules, dont l'organisme a besoin (sodium, glucose...), qui sont ensuite récupérées dans l'organe. A la sortie du rein, l'urine finale ne contient plus que l'excédent de ces substances, ainsi que des déchets à éliminer. La récupération du sodium est plus ou moins importante, en fonction des ajustements à apporter à la quantité présente dans le liquide extracellulaire. Elle a lieu grâce à la présence de protéines, dans les membranes des cellules du rein, capables de le transporter et de le faire transiter de l'urine primaire vers le liquide extracellulaire, qui assurera ensuite sa distribution dans l'ensemble de l'organisme. Parmi ces protéines « transporteurs de sodium », nous nous intéressons à une protéine en particulier, appelée ENaC. Il a été montré qu'elle jouait un rôle important dans cette récupération de sodium, elle est en effet impliquée dans des maladies génétiques conduisant à l'hypo- ou à l'hypertension. De précédents travaux ont montré que lorsque le sodium est présent en faible quantité dans l'urine primaire, cette protéine permet d'en récupérer une très grande partie. A l'inverse, lorsque cette quantité de sodium dans l'urine primaire est importante, sa récupération par le biais d'ENaC est réduite. On parle alors d'autorégulation : la protéine elle-même est capable d'adapter son activité de transport en fonction des conditions. Ce phénomène d'autorégulation constitue a priori un mécanisme préventif visant à éviter une trop grande récupération de sodium, limitant ainsi les risques d'hypertension. La première partie de ce travail de thèse a ainsi consisté à clarifier le mécanisme d'autorégulation de la protéine ENaC. Ce phénomène se caractérise en particulier par sa grande vitesse, ce qui le rend difficile à étudier par les méthodes traditionnelles. Nous avons donc, dans une deuxième partie, développé un nouveau système permettant de mieux décrire et analyser cette « autorégulation » d'ENaC. Ce second projet a été mené en collaboration avec l'équipe de Martin Gijs de l'EPFL.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Six salariés sur dix ont un travail stressant. Comment fonctionne le stress ? Quels sont ses effets ? Dominique Chouanière présente l'état des connaissances scientifiques. Elle souligne qu'il faut développer la prévention à la source en identifiant les facteurs collectifs liés à l'organisation du travail.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le monde de l'action humanitaire a connu des développements importants durant les dernières décennies. Sur les terrains d'interventions, les crises et les conflits se sont fortement complexifiés, nécessitant la participation de spécialistes de nombreux domaines. Par ailleurs, les volumes financiers générés par les campagnes de dons et mis à disposition par les bailleurs de fonds ont considérablement augmenté. En corollaire de cette croissance financière, les exigences de contrôle et de traçabilité des fonds se sont renforcées. En lien avec ces éléments, le nombre de salariés dans les grandes organisations non gouvernementales a augmenté de manière exponentielle. Une littérature spécifique sur les modalités d'évaluation des performances, le management et le « leadership » des organisations dites du « tiers secteur » a d'ailleurs vu le jour, comme l'illustre la naissance, en 1990, de la revue « Nonprofit Management and Leadership ». Les pays bénéficiaires de l'aide ont également développé des exigences spécifiques envers les projets mis en oeuvre par les ONG. Par des phénomènes de « socialisation des standards occidentaux », ces derniers attendent des acteurs internationaux un certain niveau de qualité des programmes.Pour s'adapter à ces évolutions et répondre aux exigences d'efficacité auxquelles elles sont soumises, les organisations d'aide ont dû se transformer. Les grandes organisations ont ainsi connu durant les dernières décennies un mouvement de professionnalisation de leur structure, les conduisant à se rapprocher d'un modèle de fonctionnement que nous nommerons ici « institutionnel », à savoir formalisé et organisé. Nous employons ici le terme de professionnalisation dans l'appréciation qu'en font les acteurs du milieu humanitaire, à savoir en ce qu'il désigne « les restructurations internes auxquelles leurs organisations font face depuis la fin des années 1980 ». Différents indicateurs de cette professionnalisation au sein des ONG peuvent être identifiés, notamment une plus forte division du travail, le développement de statuts spécifiques, la salarisation croissante des métiers de l'humanitaire ou encore le recours aux fonds publics.Une conséquence également de cette évolution est l'entrée de nouveaux métiers sur la scène humanitaire. À côté des professions traditionnellement à l'origine des ONG (médecins, ingénieurs, juristes, etc.), la complexification et la diversification des tâches a rendu nécessaire de faire appel à des compétences professionnelles spécifiques dans des domaines tels que la communication, l'informatique ou la finance, pour ne citer que quelques exemples. Des connaissances et des pratiques spécifiques en matière de management des ONG se sont développées depuis la fin des années 1990. Le métier de logisticien est apparu, lequel est enseigné dans des structures spécialisées (par exemple par l'association Bioforce en France). Des formations académiques spécialisées dans le domaine de l'humanitaire et de la coopération ont également vu le jour, avec le but affiché de former des professionnels spécialistes de l'humanitaire. On peut par exemple citer le PIAH en Suisse (Programme interdisciniplinaire en action humanitaire, 2011), ou encore les formations dispensées par le CIHC aux États-Unis. [auteur]

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUME Les évidences montrant que les changements globaux affectent la biodiversité s'accumulent. Les facteurs les plus influant dans ce processus sont les changements et destructions d'habitat, l'expansion des espèces envahissantes et l'impact des changements climatiques. Une évaluation pertinente de la réponse des espèces face à ces changements est essentielle pour proposer des mesures permettant de réduire le déclin actuel de la biodiversité. La modélisation de la répartition d'espèces basée sur la niche (NBM) est l'un des rares outils permettant cette évaluation. Néanmoins, leur application dans le contexte des changements globaux repose sur des hypothèses restrictives et demande une interprétation critique. Ce travail présente une série d'études de cas investiguant les possibilités et limitations de cette approche pour prédire l'impact des changements globaux. Deux études traitant des menaces sur les espèces rares et en danger d'extinction sont présentées. Les caractéristiques éco-géographiques de 118 plantes avec un haut degré de priorité de conservation sont revues. La prévalence des types de rareté sont analysées en relation avec leur risque d'extinction UICN. La revue souligne l'importance de la conservation à l'échelle régionale. Une évaluation de la rareté à échelle globale peut être trompeuse pour certaine espèces car elle ne tient pas en compte des différents degrés de rareté que présente une espèce à différentes échelles spatiales. La deuxième étude test une approche pour améliorer l'échantillonnage d'espèces rares en incluant des phases itératives de modélisation et d'échantillonnage sur le terrain. L'application de l'approche en biologie de la conservation (illustrée ici par le cas du chardon bleu, Eryngium alpinum), permettrait de réduire le temps et les coûts d'échantillonnage. Deux études sur l'impact des changements climatiques sur la faune et la flore africaine sont présentées. La première étude évalue la sensibilité de 227 mammifères africains face aux climatiques d'ici 2050. Elle montre qu'un nombre important d'espèces pourrait être bientôt en danger d'extinction et que les parcs nationaux africains (principalement ceux situé en milieux xériques) pourraient ne pas remplir leur mandat de protection de la biodiversité dans le futur. La seconde étude modélise l'aire de répartition en 2050 de 975 espèces de plantes endémiques du sud de l'Afrique. L'étude propose l'inclusion de méthodes améliorant la prédiction des risques liés aux changements climatiques. Elle propose également une méthode pour estimer a priori la sensibilité d'une espèce aux changements climatiques à partir de ses propriétés écologiques et des caractéristiques de son aire de répartition. Trois études illustrent l'utilisation des modèles dans l'étude des invasions biologiques. Une première étude relate l'expansion de la laitue sáuvage (Lactuca serriola) vers le nord de l'Europe en lien avec les changements du climat depuis 250 ans. La deuxième étude analyse le potentiel d'invasion de la centaurée tachetée (Centaures maculosa), une mauvaise herbe importée en Amérique du nord vers 1890. L'étude apporte la preuve qu'une espèce envahissante peut occuper une niche climatique différente après introduction sur un autre continent. Les modèles basés sur l'aire native prédisent de manière incorrecte l'entier de l'aire envahie mais permettent de prévoir les aires d'introductions potentielles. Une méthode alternative, incluant la calibration du modèle à partir des deux aires où l'espèce est présente, est proposée pour améliorer les prédictions de l'invasion en Amérique du nord. Je présente finalement une revue de la littérature sur la dynamique de la niche écologique dans le temps et l'espace. Elle synthétise les récents développements théoriques concernant le conservatisme de la niche et propose des solutions pour améliorer la pertinence des prédictions d'impact des changements climatiques et des invasions biologiques. SUMMARY Evidences are accumulating that biodiversity is facing the effects of global change. The most influential drivers of change in ecosystems are land-use change, alien species invasions and climate change impacts. Accurate projections of species' responses to these changes are needed to propose mitigation measures to slow down the on-going erosion of biodiversity. Niche-based models (NBM) currently represent one of the only tools for such projections. However, their application in the context of global changes relies on restrictive assumptions, calling for cautious interpretations. In this thesis I aim to assess the effectiveness and shortcomings of niche-based models for the study of global change impacts on biodiversity through the investigation of specific, unsolved limitations and suggestion of new approaches. Two studies investigating threats to rare and endangered plants are presented. I review the ecogeographic characteristic of 118 endangered plants with high conservation priority in Switzerland. The prevalence of rarity types among plant species is analyzed in relation to IUCN extinction risks. The review underlines the importance of regional vs. global conservation and shows that a global assessment of rarity might be misleading for some species because it can fail to account for different degrees of rarity at a variety of spatial scales. The second study tests a modeling framework including iterative steps of modeling and field surveys to improve the sampling of rare species. The approach is illustrated with a rare alpine plant, Eryngium alpinum and shows promise for complementing conservation practices and reducing sampling costs. Two studies illustrate the impacts of climate change on African taxa. The first one assesses the sensitivity of 277 mammals at African scale to climate change by 2050 in terms of species richness and turnover. It shows that a substantial number of species could be critically endangered in the future. National parks situated in xeric ecosystems are not expected to meet their mandate of protecting current species diversity in the future. The second study model the distribution in 2050 of 975 endemic plant species in southern Africa. The study proposes the inclusion of new methodological insights improving the accuracy and ecological realism of predictions of global changes studies. It also investigates the possibility to estimate a priori the sensitivity of a species to climate change from the geographical distribution and ecological proprieties of the species. Three studies illustrate the application of NBM in the study of biological invasions. The first one investigates the Northwards expansion of Lactuca serriola L. in Europe during the last 250 years in relation with climate changes. In the last two decades, the species could not track climate change due to non climatic influences. A second study analyses the potential invasion extent of spotted knapweed, a European weed first introduced into North America in the 1890s. The study provides one of the first empirical evidence that an invasive species can occupy climatically distinct niche spaces following its introduction into a new area. Models fail to predict the current full extent of the invasion, but correctly predict areas of introduction. An alternative approach, involving the calibration of models with pooled data from both ranges, is proposed to improve predictions of the extent of invasion on models based solely on the native range. I finally present a review on the dynamic nature of ecological niches in space and time. It synthesizes the recent theoretical developments to the niche conservatism issues and proposes solutions to improve confidence in NBM predictions of the impacts of climate change and species invasions on species distributions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Les rongeurs utilisent leurs moustaches (vibrisses) pour explorer le milieu environnant. Chaque moustache est mue par un système des muscles. Les récepteurs situés à sa base transmettent les informations au système nerveux central. La transmission vers l'écorce se fait via trois neurones de relais qui se trouvent au niveau du ganglion trigéminé, du tronc cérébral et du thalamus. La représentation corticale d'une vibrisse est une concentration des axones thalamo-corticaux (ATC) autour desquelles s'organisent leurs cibles, les cellules de la couche IV. La structure peut être identifiée histologiquement en coupes tangentielles et porte le nom de « barrel » (« tonneau »). Cette correspondance vibrisse - barrel fait de ce système un model idéal pour étudier l'influence de l'activité périphérique sur l'établissement et le maintien des cartes somatotopiques. Notre laboratoire dispose d'une souche de souris qui a subi une mutation spontanée pour le gène codant l'adenylyl cyclase I (ACI). Cette enzyme membranaire catalyse la formation de l'AMPc et joue un rôle important dans le guidage axonal, la libération des neurotransmetteurs et l'intégration des signaux postsynaptiques. Nous avons démontré dans un premier temps que cette souris adulte ne développe pas de barrels. Cela est dû à un manque d'organisation des ATC et aussi des cellules de la couche IV. De plus, les résultats électrophysiologiques montrent que les informations venant des vibrisses adjacentes ne sont pas intégrées d'une manière normale. Dans ce travail de thèse, j'ai analysé la morphologie des ATC révélés individuellement avec de la biocytine. L'analyse quantitative des ATC a mis en évidence les points suivants: 1. Les axones de la souris normale (NOR) quittent le thalamus, traversent la capsule interne et la substance blanche sous-corticale et pénètrent dans le cortex somato-sensoriel primaire. A l'intérieur de l'écorce ils traversent au maximum 3 colonnes corticales adjacentes dont une contient le barrel cible. En passant à travers les couches VI et V, ces axones arborisent et convergent progressivement vers le barrel dans lequel ils forment une riche arborisation. Un petit nombre des branches « errantes », pleines de boutons synaptiques, pénètrent dans les barrels voisins. Deux axones NOR provenant de corps cellulaires très proches dans le thalamus peuvent avoir un cheminement très divergent lors de la traversée de la capsule interne et de la substance blanche sous-corticale mais, à leur entrée dans le cortex, ils sont distants d'au maximum 2 colonnes corticales de la colonne qui contient le barrel cible et ils convergent progressivement vers ce barrel. 2. Les axones de la souris mutante (BRL) ont le même trajet sous-cortical que les axones NOR, mais leur entrée dans le cortex somato-sensoriel primaire est aléatoire. A l'interface entre la substance blanche sous-corticale et le cortex, l'axone principal se divise rapidement en troncs axonaux qui traversent les couches VI et V d'une manière divergente pour arriver dans la couche IV. Cela contraste beaucoup avec la trajectoire des NOR qui convergent graduellement vers leur barrel cible. Le nombre de branches radiales que les axones BRL utilisent pour entrer dans le cortex et dans la couche IV est double par rapport aux axones NOR. Parmi ces branches, seules quelques-unes donnent des arborisations, les autres ne sont pas développées et leur morphologie est semblable à celle des branches formées par les axones de la souris normale lors du développement. Deux axones BRL issus de corps cellulaires proches dans le thalamus peuvent avoir une trajectoire très divergente jusqu'à leur entrée dans la couche IV, mais à ce niveau ils sont réorientés pour se retrouver et faire un nombre maximal de branches et boutons synaptiques dans la même région corticale. Dans un cas extrême, un des axones observés est entré dans le cortex à la limite entre l'aire somatosensorielle primaire et secondaire et a parcouru une distance de 2 mm pour retrouver son partenaire thalamique et donner avec celui-ci un nombre maximal de branches dans la même région de la couche IV. 3. Les mesures quantitatives ont montré que les arborisations corticales des axones NOR ont une longueur moyenne de 18mm et sont formées par 200 segments qui portent 1200 boutons synaptiques. Par rapport à la souris NOR, les axones BRL ont en moyenne la même longueur, le même nombre de segments et boutons synaptiques, mais donnent deux fois plus de branches radiales. La surface tangentielle occupée par les arborisations BRL dans la couche IV est 2 fois plus grande que celle des NOR. Cela signifie que les 1000 boutons synaptiques qui caractérisent les arborisations NOR et BRL dans la couche IV sont disséminés sur une surface tangentielle double chez les derniers, et donc que la densité des boutons par unité de surface corticale est en moyenne plus faible. En effet, l'augmentation de la surface corticale tangentielle des BRL est due aux surfaces de faible et moyenne densité synaptique (0 - 8 boutons / 400pn2) qui augmentent 2 fois tandis que les surfaces de haute densité synaptiques (8 - 64 boutons / 4001.tm2) sont les mêmes. Nous émettons l'hypothèse selon laquelle, durant le développement, les ATC de la souris BRL divergent et forment un nombre exubérant de branches. Grâce à cette divergence et aux branches supranuméraires, ils trouvent l'endroit de l'écorce où se trouvent leurs voisins thalamiques et arborisent abondamment dans cette région. Cependant, le déficit en AGI ne leurs permet pas par la suite, sous influence de l'activité périphérique, de retirer les branches qui se trouvent dans les endroits inappropriés de l'écorce, avec de possibles conséquences sur la discrimination tactile.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce travail de recherche dresse un panorama de l'état du développement des pratiques d'agriculture urbaine en Suisse et analyse le potentiel que celles-ci pourraient y développer, compte tenu des particularités du contexte national. La démarche adoptée suit une logique allant du général au particulier, de la théorie à la pratique, du descriptif vers l'analytique. Dans un premier temps, l'agriculture urbaine est abordée sous un angle conceptuel, comprenant un retour historique sur la relation ville-campagne et sur l'apparition récente du terme d'agriculture urbaine, un tour d'horizon de la littérature sur le sujet, une revue de ses diverses approches scientifiques et la circonscription des enjeux de sa définition. Dans un deuxième temps, l'agriculture urbaine est envisagée sous sa forme pratique, en Suisse comme à l'étranger. En ressort un inventaire étendu de ses différents types de mises en application, auquel correspond un panel d'atouts identifiés selon les trois versants du développement durable : social, écologique et économique. En troisième lieu les spécificités du contexte helvétique sont étudiées afin de comprendre quel est le cadre dans lequel le potentiel de l'agriculture urbaine pourrait se développer. Finalement, ce sont deux cas concrets d'agriculture urbaine qui sont analysés et évalués dans les détails, selon l'approche dite des régimes institutionnels des ressources naturelles (RIRN): le « plantage » lausannois du quartier de la Bourdonnette et le Stadiongarten dans le quartier Kreis 5 à Zurich. Au fil de cette recherche, il apparaît que l'agriculture urbaine révèle toute une série d'avantages en termes de développement durable, alors même que les villes suisses sont unanimement reconnues comme présentant un déficit dans ce domaine. De même, malgré les bienfaits importants que présentent ses diverses pratiques, l'agriculture urbaine reste encore très peu répandue en Suisse, le concept lui-même n'apparaissant que très rarement dans le discours des pouvoirs publics. Le principal frein à l'agriculture en ville est identifié comme étant le manque d'espace disponible dans les agglomérations, contrainte pourtant largement surmontable en y regardant de plus près. De par sa configuration topographique, le territoire suisse est particulièrement sujet à une étroite proximité entre espaces urbains et étendues agricoles, accroissant de ce fait la problématique de l'étalement urbain et du mitage du paysage. Parmi les enjeux de la lutte contre ces phénomènes concomitants, l'agriculture urbaine aurait un rôle important à jouer. En conclusion, une série de recommandations sont proposées afin que les projets d'agriculture urbaine puissent se développer et perdurer en Suisse. Abstract : This research paper provides an overview of the state of development of urban agriculture practices in Switzerland. It analyzes their potential of expansion while taking into account the particularities of the national context. The method follows a general to particular, theory to practice and descriptive to analytical reasoning. Firstly, urban agriculture is approached through a conceptual view, including a historical overview of the relationship between town and country and of the recent appearance of the term "urban agriculture". An outline of the literature on the subject, an examination of its various scientific approaches and riding issues of its definition are elaborated as well. In a second step, urban agriculture is considered in its practical form, both in Switzerland and abroad. From this we created an extensive inventory of various types of implementations which corresponds to a panel of assets identified according to the three aspects of sustainable development: social, ecology and economics. Thirdly the specificities of Swiss context are studied in order to understand the frame in which the potential of urban agriculture could be developed. Finally, two case studies of urban agriculture are analyzed and evaluated in detail, according to the so-called institutional regimes of natural resources (RIRN) approach: the "plantage" of the Bourdonnette neighborhood in Lausanne and the "Stadiongarten" in the Kreis 5 neighborhood in Zurich. Throughout this research, urban agriculture reveals a number of advantages in terms of sustainable development, even though the Swiss cities are unanimously recognized as having a deficit in this area. As well, despite the significant benefits that are its various practices, urban agriculture is still very uncommon in Switzerland, the concept itself appearing only rarely in public debates. The main obstacle to city agriculture is identified as the lack of available space in urban areas, however this constraint can easily be surpassed. By its topographical configuration, Switzerland is particularly prone to a close proximity between urban and agricultural spaces, thereby increasing the problems of urban sprawl. Among the stakes in the struggle against these interrelated phenomena, urban agriculture could play an important role. In conclusion, a series of recommendations are proposed so that urban agriculture projects can grow and persist in Switzerland.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.