998 resultados para Environnement réel
Resumo:
Le travail en situations d'urgence, notamment médicale, comporte de nombreux facteurs de risque pour la santé mentale. Cependant, des études récentes suggèrent que la reconnaissance de même que certains aspects relatifs au sens du travail pourraient permettre aux individus de préserver leur équilibre psychique malgré la présence de stresseurs importants.Nous avons effectué une étude portant sur la santé au travail pour des ambulanciers travaillant en Suisse romande. Dans un premier temps, une phase qualitative centrée sur l'observation du travail réel a été effectuée. Les observations ont été effectuées dans 11 services pour un total de 416 heures d'observation. Dans un second temps, un questionnaire a été développé et administré à l'ensemble des ambulanciers de Suisse romande.Notre étude a notamment permis de confirmer l'importance de la reconnaissance et du sens du travail pour les ambulanciers. [Auteurs]
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Au moment où nos sociétés contemporaines s'interrogent avec passion sur le statut de l'animal et sur la responsabilité éthique des êtres humains envers la création et l'environnement - jusqu'à la question des OGM -, cette étude est d'une brûlante actualité. Qu'en est-il de la notion de dignité de la créature, ancrée dans la Constituton fédérale? Est-elle, comme le prétendent certains, une coquille vide, un mot magique et creux, sans signification réelle? Quelle pourrait être sa portée pour les animaux prétendus inférieurs et pour les plantes? Les auteurs s'appuient sur la distinction entre dignité et valeur. Ils pennent leurs distances par rapport aux catégories d'anthropocentrisme, de pathocentrisme et et de biocentrisme, catégories conditionnant la plupart des théories éthiques au sujet de l'animal et de l'environnement. Il en résulte une nouvelle conception de la relation anthropologique en ^tre l'être humain, l'animal et la nature. La perspective de l'anthropo-relationalité sert de fondement à une approche respectueuse des animaux et des plantes, tout en reconnaissant la place et la responsabilité spécifiques de l'être humain et des sociétés démocratiques.
Resumo:
En el contexto de los regímenes globales del desarrollo y de la conservación, la categoría « autóctono » o « indígena » se vuelve una apuesta política, económica y cultural. En Bolivia, el nuevo marco de la gobernanza ambientalista parece dar la oportunidad a los « autóctonos » de las Tierras Bajas para obtener al fin una « ciudadanía », pero en realidad, ésta sigue siendo étnica y estratégica. Ella se define en oposición al "otro" y queda imbricada en complejos organizacionales que compiten entre si, que estructuran las pertenencias y desnaturalizan los fundamentos de la idea ciudadana.
Resumo:
This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.
Resumo:
Les multiples réformes qui ont touché les administrations publiques ont profondément transformé l'environnement de travail des employés, les projetant dans une ère nouvelle appelée ici "l'après-fonctionnariat". Ils font actuellement face à de nouvelles conditions d'emploi et manières de travailler ayant pour objectif de rendre le service public davantage performant. Avec quels impacts sur leurs identités et leurs motivations au travail ? Voici les résultats d'une recherche réalisée en Suisse.
Resumo:
Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.
Resumo:
Le développement de méthodes de mesure de la qualité des soins et les actions visant à son amélioration font partie intégrante de la pratique quotidienne. Les infections nosocomiales représentent un Indicateur Incontournable et leur prévention apparaît comme un champ d'action privilégié du concept de l'amélioration continue de la qualité des soins. Dans ce domaine, de nombreuses mesures ont fait l'objet d'études répondant à des critères méthodologiques de qualité élevée, dont les résultats sont hautement significatifs au plan statistique. Les interventions complexes concernant par exemple l'ensemble des patients d'un service ou d'une institution ne permettent que difficilement de satisfaire à ces exigences méthodologiques. Sous certaines conditions, elle peuvent cependant avoir un impact réel et parfois durable sur la qualité des soins. A titre d'exemple, nous discutons deux interventions complexes dans le domaine de la prévention des infections nosocomiales, résultant de démarches visant à une amélioration globale et durable de la qualité des soins. L'utilisation d'outils épidémiologiques adaptés permet également d'estimer le bénéfice des Interventions en milieu hospitalier conformément à ce que la communauté scientifique reconnaît comme étant une recherche clinique de qualité.
Resumo:
Résumé grand public :Le cerveau se compose de cellules nerveuses appelées neurones et de cellules gliales dont font partie les astrocytes. Les neurones communiquent entre eux par signaux électriques et en libérant des molécules de signalisation comme le glutamate. Les astrocytes ont eux pour charge de capter le glucose depuis le sang circulant dans les vaisseaux sanguins, de le transformer et de le transmettre aux neurones pour qu'ils puissent l'utiliser comme source d'énergie. L'astrocyte peut ensuite utiliser ce glucose de deux façons différentes pour produire de l'énergie : la première s'opère dans des structures appelées mitochondries qui sont capables de produire plus de trente molécules riches en énergie (ATP) à partir d'une seule molécule de glucose ; la seconde possibilité appelée glycolyse peut produire deux molécules d'ATP et un dérivé du glucose appelé lactate. Une théorie couramment débattue propose que lorsque les astrocytes capturent le glutamate libéré par les neurones, ils libèrent en réponse du lactate qui servirait de base énergétique aux neurones. Cependant, ce mécanisme n'envisage pas une augmentation de l'activité des mitochondries des astrocytes, ce qui serait pourtant bien plus efficace pour produire de l'énergie.En utilisant la microscopie par fluorescence, nous avons pu mesurer les changements de concentrations ioniques dans les mitochondries d'astrocytes soumis à une stimulation glutamatergique. Nous avons démontré que les mitochondries des astrocytes manifestent des augmentations spontanées et transitoires de leur concentrations ioniques, dont la fréquence était diminuée au cours d'une stimulation avec du glutamate. Nous avons ensuite montré que la capture de glutamate augmentait la concentration en sodium et acidifiait les mitochondries des astrocytes. En approfondissant ces mécanismes, plusieurs éléments ont suggéré que l'acidification induite diminuerait le potentiel de synthèse d'énergie d'origine mitochondriale et la consommation d'oxygène dans les astrocytes. En résumé, l'ensemble de ces travaux suggère que la signalisation neuronale impliquant le glutamate dicte aux astrocytes de sacrifier temporairement l'efficacité de leur métabolisme énergétique, en diminuant l'activité de leurs mitochondries, afin d'augmenter la disponibilité des ressources énergétiques utiles aux neurones.Résumé :La remarquable efficacité du cerveau à compiler et propager des informations coûte au corps humain 20% de son budget énergétique total. Par conséquent, les mécanismes cellulaires responsables du métabolisme énergétique cérébral se sont adéquatement développés pour répondre aux besoins énergétiques du cerveau. Les dernières découvertes en neuroénergétique tendent à démontrer que le site principal de consommation d'énergie dans le cerveau est situé dans les processus astrocytaires qui entourent les synapses excitatrices. Un nombre croissant de preuves scientifiques a maintenant montré que le transport astrocytaire de glutamate est responsable d'un coût métabolique important qui est majoritairement pris en charge par une augmentation de l'activité glycolytique. Cependant, les astrocytes possèdent également un important métabolisme énergétique de type mitochondrial. Par conséquent, la localisation spatiale des mitochondries à proximité des transporteurs de glutamate suggère l'existence d'un mécanisme régulant le métabolisme énergétique astrocytaire, en particulier le métabolisme mitochondrial.Afin de fournir une explication à ce paradoxe énergétique, nous avons utilisé des techniques d'imagerie par fluorescence pour mesurer les modifications de concentrations ioniques spontanées et évoquées par une stimulation glutamatergique dans des astrocytes corticaux de souris. Nous avons montré que les mitochondries d'astrocytes au repos manifestaient des changements individuels, spontanés et sélectifs de leur potentiel électrique, de leur pH et de leur concentration en sodium. Nous avons trouvé que le glutamate diminuait la fréquence des augmentations spontanées de sodium en diminuant le niveau cellulaire d'ATP. Nous avons ensuite étudié la possibilité d'une régulation du métabolisme mitochondrial astrocytaire par le glutamate. Nous avons montré que le glutamate initie dans la population mitochondriale une augmentation rapide de la concentration en sodium due à l'augmentation cytosolique de sodium. Nous avons également montré que le relâchement neuronal de glutamate induit une acidification mitochondriale dans les astrocytes. Nos résultats ont indiqué que l'acidification induite par le glutamate induit une diminution de la production de radicaux libres et de la consommation d'oxygène par les astrocytes. Ces études ont montré que les mitochondries des astrocytes sont régulées individuellement et adaptent leur activité selon l'environnement intracellulaire. L'adaptation dynamique du métabolisme énergétique mitochondrial opéré par le glutamate permet d'augmenter la quantité d'oxygène disponible et amène au relâchement de lactate, tous deux bénéfiques pour les neurones.Abstract :The remarkable efficiency of the brain to compute and communicate information costs the body 20% of its total energy budget. Therefore, the cellular mechanisms responsible for brain energy metabolism developed adequately to face the energy needs. Recent advances in neuroenergetics tend to indicate that the main site of energy consumption in the brain is the astroglial process ensheating activated excitatory synapses. A large body of evidence has now shown that glutamate uptake by astrocytes surrounding synapses is responsible for a significant metabolic cost, whose metabolic response is apparently mainly glycolytic. However, astrocytes have also a significant mitochondrial oxidative metabolism. Therefore, the location of mitochondria close to glutamate transporters raises the question of the existence of mechanisms for tuning their energy metabolism, in particular their mitochondrial metabolism.To tackle these issues, we used real time imaging techniques to study mitochondrial ionic alterations occurring at resting state and during glutamatergic stimulation of mouse cortical astrocytes. We showed that mitochondria of intact resting astrocytes exhibited individual spontaneous and selective alterations of their electrical potential, pH and Na+ concentration. We found that glutamate decreased the frequency of mitochondrial Na+ transient activity by decreasing the cellular level of ATP. We then investigated a possible link between glutamatergic transmission and mitochondrial metabolism in astrocytes. We showed that glutamate triggered a rapid Na+ concentration increase in the mitochondrial population as a result of plasma-membrane Na+-dependent uptake. We then demonstrated that neuronally released glutamate also induced a mitochondrial acidification in astrocytes. Glutamate induced a pH-mediated and cytoprotective decrease of mitochondrial metabolism that diminished oxygen consumption. Taken together, these studies showed that astrocytes contain mitochondria that are individually regulated and sense the intracellular environment to modulate their own activity. The dynamic regulation of astrocyte mitochondrial energy output operated by glutamate allows increasing oxygen availability and lactate production both being beneficial for neurons.
Resumo:
Syrian dry areas have been for several millennia a place of interaction between human populations and the environment. If environmental constraints and heterogeneity condition the human occupation and exploitation of resources, socio-political, economic and historical elements play a fundamental role. Since the late 1980s, Syrian dry areas are viewed as suffering a serious water crisis, due to groundwater overdraft. The Syrian administration and international development agencies believe that groundwater overexploitation is also leading to a decline of agricultural activities and to poverty increase. Action is thus required to address these problems.However, the overexploitation diagnosis needs to be reviewed. The overexploitation discourse appears in the context of Syria's opening to international organizations and to the market economy. It echoes the international discourse of "global water crisis". The diagnosis is based on national indicators recycling old Soviet data that has not been updated. In the post-Soviet era, the Syrian national water policy seems to abandon large surface water irrigation projects in favor of a strategy of water use rationalization and groundwater conservation in crisis regions, especially in the district of Salamieh.This groundwater conservation policy has a number of inconsistencies. It is justified for the administration and also probably for international donors, since it responds to an indisputable environmental emergency. However, efforts to conserve water are anecdotal or even counterproductive. The water conservation policy appears a posteriori as an extension of the national policy of food self-sufficiency. The dominant interpretation of overexploitation, and more generally of the water crisis, prevents any controversary approach of the status of resources and of the agricultural system in general and thus destroys any attempt to discuss alternatives with respect to groundwater management, allocation, and their inclusion in development programs.A revisited diagnosis of the situation needs to take into account spatial and temporal dimensions of the groundwater exploitation and to analyze the co-evolution of hydrogeological and agricultural systems. It should highlight the adjustments adopted to cope with environmental and economic variability, changes of water availability and regulatory measures enforcements. These elements play an important role for water availability and for the spatial, temporal, sectoral allocation of water resource. The groundwater exploitation in the last century has obviously had an impact on the environment, but the changes are not necessarily catastrophic.The current groundwater use in central Syria increases the uncertainty by reducing the ability of aquifers to buffer climatic changes. However, the climatic factor is not the only source of uncertainty. The high volatility of commodity prices, fuel, land and water, depending on the market but also on the will (and capacity) of the Syrian State to preserve social peace is a strong source of uncertainty. The research should consider the whole range of possibilities and propose alternatives that take into consideration the risks they imply for the water users, the political will to support or not the local access to water - thus involving a redefinition of the economic and social objectives - and finally the ability of international organizations to reconsider pre-established diagnoses.
Resumo:
Résumé de Thèse Proche de Horkheimer, d'Adorno ou encore de Benjamin, ce philosophe issu de l'École de Francfort ne manque pas moins d'attirer la curiosité. On a tôt fait de classer Herbert Marcuse (1898-1979) aux oubliettes alors que sa pensée était peu connue, nonobstant une médiatisation très importante qui a dépassé le cadre classique des universités. Ce philosophe allemand atypique dont le nom surgit notamment suite à la publication de L'Homme unidimensionnel fut abondamment lu mais peu systématisé. Repris à tort et à travers, instrumentalisé aux temps des révoltes étudiantes des années 60, il ne lègue pas moins une pensée qui doit apparaître sous une forme nouvelle et prospective. Cette recherche vise prioritairement à l'extraire de ce brouhaha qui l'enveloppa et menaça de le faire disparaître. Cet essai insiste sur un retour à l'exigence scientifique via l'exhumation des textes méconnus du grand public et une insertion indispensable dans l'histoire des penseurs philosophiques. Accéder à la connaissance de ce philosophe passe par un certain nombre de clefs parmi lesquelles le concept de nature. Pour y arriver, cependant, la quête des fondements d'une philosophie dont les sources sont plurielles et inconciliables s'impose comme étape primordiale et pleine de promesses. A la vérité, le peu de systématisation de la pensée marcusienne est en grande partie liée à cette « prolifération » de références auxquelles s'est adonné Marcuse, laissant une mince passerelle susceptible de dégager une architecture globale et cohérente de sa pensée. Certes, la présentation de Marcuse est restée jusque-là prisonnière de l'influence de Hegel, Marx et Freud. L'auteur de cette thèse tente de démontrer que la pensée marcusienne s'oriente à partir de Kant. Attaché à la tradition philosophique germanique de l'Aufklärung, l'oeuvre du philosophe francfortois combat toutes sortes d'irrationalités qui obstruent la voie menant vers un humanisme réel. La nature reste un concept polémique parce qu'il ne saurait se résumer à l'étant. Ni la nature intérieure, ni la nature extérieure ne se limitent à cet horizon dépourvu de subjectivité. Disciple de Heidegger, Marcuse définit la nature à partir du Dasein, un être-là qui est jeté dans l'histoire et qui porte en lui la qualité de l'historicité. Contre la société dite unidimensionnelle postindustrielle qui annonce l'acmé du capitalisme triomphant, les travaux de Marcuse visent un retour à la nature autant qu'ils font de celle-ci un futur. La nature n'est pas seulement ce qu'elle a été, elle est aussi ce qui est à être. En invalidant le consumérisme ambiant, il décrit la publicité marchande comme un acte de négation des vraies valeurs humaines. Ni la superfluité secrétée par le marché, ni les systèmes communiste (le marxisme soviétique et ses sbires) et capitaliste ne sont capables de provoquer l'idéal de l'humain. Le discours marcusien fécondé par la « Théorie Critique » invente le concept de « Grand Refus » adossé à la dialectique hégélienne, obligeant la conscience à veiller sur le réel pour le conduire vers l'émancipation plutôt que vers un « chemin qui ne mène nulle part ». Attachée à la concrétude et la transformation historique héritée de Marx, il réoriente le Dasein heideggérien en lui donnant plus de chair. Nature et historicité, cette réalité duelle se complique parce qu'elle incarne une difficile révolution qui nécessitera davantage d'imagination. Le « Grand Refus » aura besoin d'un allié plus subtile : l'esthétique qui laisse apparaître la Troisième critique kantienne. Au-delà de ce refuge dans l'art, on aura toujours besoin de Marcuse pour mieux comprendre nos sociétés en pleine mutation et pour habiter en conséquence notre monde perfectible.
Resumo:
The present dissertation analyzed the construct of attachment at different time points, specifically focusing on two phases of adoptive family life that have so far received little attention from investigators. Study 1 focused on the first months of adoption, and analyzed the development of the attachment relationship to new caregivers. The sample was composed of a small but homogeneous group (n=6) of Korean-born children, adopted by Italian parents. The Parent Attachment Diary (Dozier & Stovall, 1997) was utilized to assess the child's attachment behavior. We assessed these behavior for the first 3 months after placement into adoption. Results showed a double variability of attachment behavior: within subjects during the 3-months, and between subjects, with just half of the children developing a stable pattern of attachment. In order to test the growth trajectories of attachment behavior, Hierarchical Linear Models (Bryk & Raudenbush, 1992) were also applied, but no significant population trend was identified. Study 2 analyzed attachment among adoptees during the sensitive period of adolescence. Data was derived from an international collection (n= 104, from Belgium Italy, and Romania) of semi-structured clinical interviews (with adolescents and with their adoptive parents), as well as from questionnaires. The purpose of this study was to detect the role played by risk and protective factors on the adoptee's behavioral and socio-emotional outcomes. In addition, we tested the possible interactions between the different attachment representations within the adoptive family. Results showed that pre-adoptive risk predicted the adolescent's adjustment; however, parental representations constituted an important moderator of this relationship. Moreover, the adolescent's security of attachment partially mediated the relationship between age at placement and later behavioral problems. In conclusion, the two present attachment studies highlighted the notable rate of change of attachment behavior over time, which showed its underlying plasticity, and thus the possible reparatory value of the adoption practice. Since parents have been proven to play an important role, especially in adolescence, the post-adoption support acquires even more importance in order to help parents promoting a positive and stable relational environment over time. - L'objectif de cette thèse est de décrire la formation des relations d'attachement chez les enfants et les adolescents adoptés, lors de deux phases particulières de la vie de la famille adoptive, qui ont été relativement peu étudiées. L'Étude 1 analyse les premiers mois après l'adoption, avec le but de comprendre si, et comment, une relation d'attachement aux nouveaux parents se développe. L'échantillon est composé d'un petit groupe (n = 6) d'enfants provenant de Corée du Sud, adoptés par des parents Italiens. A l'aide du Parent Attachment Diary (Dozier & Stovall, 1997), des observations des comportements d'attachement de l'enfant ont été recueillies chaque jour au cours des 3 premiers mois après l'arrivée. Les résultats montrent une double variabilité des comportements d'attachement: au niveau inter- et intra-individuel ; au premier de ces niveaux, seuleme la moitié des enfants parvient à développer un pattern stable d'attachement ; au niveau intra-individuel, les trajectoires de développement des comportements d'attachement ont été testées à l'aide de Modèles Linéaires Hiérarchiques (Bryk et Raudenbush, 1992), mais aucune tendance significative n'a pu être révélée. L'Étude 2 vise à analyser l'attachement chez des enfants adoptés dans l'enfance, lors de la période particulièrement sensible de l'adolescence. Les données sont issues d'un base de données internationale (n = 104, Belgique, Italie et Roumanie), composée d' entretiens cliniques semi-structurées (auprès de l'adolescents et des ses parents adoptifs), ainsi que de questionnaires. Les analyses statistiques visent à détecter la présence de facteurs de risque et de protection relativement à l'attachement et aux problèmes de comportement de l'enfant adopté. En outre, la présence d'interactions entre les représentations d'attachement des membres de la famille adoptive est évaluée. Les résultats montrent que les risques associés à la période pré-adoptive prédisent la qualité du bien-être de l'adolescent, mais les représentations parentales constituent un modérateur important de cette relation. En outre, la sécurité de l'attachement du jeune adopté médiatise partiellement la relation entre l'âge au moment du placement et les problèmes de comportement lors de l'adolescence. En conclusion, à l'aide de multiples données relatives à l'attachement, ces deux études soulignent son évolution notable au fil du temps, ce qui sous-tend la présence d'une certaine plasticité, et donc la possible valeur réparatrice de la pratique de l'adoption. Comme les parents semblent jouer un rôle important de ce point de vue, surtout à l'adolescence, cela renforce la notion d'un soutien post-adoption, en vue d'aider les parents à la promotion d'un environnement relationnel favorable et stable. - Il presente lavoro è volto ad analizzare l'attaccamento durante le due fasi della vita della famiglia adottiva che meno sono state indagate dalla letteratura. Lo Studio 1 aveva l'obiettivo di analizzare i primi mesi che seguono il collocamento del bambino, al fine di capire se e come una relazione di attaccamento verso i nuovi genitori si sviluppa. Il campione è composto da un piccolo gruppo (n = 6) di bambini provenienti dalla Corea del Sud e adottati da genitori italiani. Attraverso il Parent Attachment Diary (Stovall e Dozier, 1997) sono stati osservati quotidianamente, e per i primi tre mesi, i comportamenti di attaccamento del bambino. I risultati hanno mostrato una duplice variabilità: a livello intraindividuale (nell'arco dei 3 mesi), ed interindividuale, poiché solo la metà dei bambini ha sviluppato un pattern stabile di attaccamento. Per verificare le traiettorie di sviluppo di tali comportamenti, sono stati applicati i Modelli Lineari Gerarchici (Bryk & Raudenbush, 1992), che però non hanno stimato una tendenza significativa all'interno della popolazione. Obiettivo dello Studio 2 è stato quello di esaminare l'attaccamento nelle famiglie i cui figli adottivi si trovavano nella delicata fase adolescenziale. I dati, provenienti da una raccolta internazionale (n = 104, Belgio, Italia e Romania), erano costituiti da interviste cliniche semi-strutturate (con gli adolescenti e i propri genitori adottivi) e da questionari. Le analisi hanno indagato il ruolo dei fattori di rischio sullo sviluppo socio-emotivo e sugli eventuali problemi comportamentali dei ragazzi. Inoltre, sono state esaminate le possibili interazioni tra le diverse rappresentazioni di attaccamento dei membri della famiglia adottiva. I risultati hanno mostrato che il rischio pre-adottivo predice l'adattamento dell'adolescente, sebbene le rappresentazioni genitoriali costituiscano un importante moderatore di questa relazione. Inoltre, la sicurezza dell'attaccamento dell'adolescente media parzialmente la relazione tra età al momento dell'adozione e problemi comportamentali in adolescenza. In conclusione, attraverso i molteplici dati relativi all'attaccamento, i due studi ne hanno evidenziato il cambiamento nel tempo, a riprova della sua plasticità, e pertanto sottolineano il possibile valore riparativo dell'adozione. Dal momento che i genitori svolgono un ruolo importante, soprattutto in adolescenza, il supporto nel post- adozione diventa centrale per aiutarli a promuovere un ambiente relazionale favorevole e stabile nel tempo.
Resumo:
La majorité des organelles d'une cellule adaptent leur nombre et leur taille pendant les processus de division cellulaire, de trafic vésiculaire ou suite à des changements environnementaux par des processus de fusion et de fragmentation membranaires. Ceci est valable notamment pour le golgi, les mitochondries, les péroxisomes et les lysosomes. La vacuole est le compartiment terminal de la voie endocytaire dans la levure Saccharomyces cerevisiae\ elle correspond aux lysosomes des cellules mammifères. Suite à un choc hyperosmotique, la vacuole se fragmente en plusieurs petites vésicules. Durant ce projet, cette fragmentation a été étudiée en utilisant la technique de microscopie confocale in vivo. J'ai observé que la division de la vacuole se produit d'une façon asymétrique. La première minute après le choc osmotique, les vacuoles rétrécissent et forment des longues invaginations tubulaires. Cette phase est dépendante de la protéine Vps1, un membre de la famille des protéines apparentées à la dynamine, ainsi que d'un gradient transmembranaire de protons. Pendant les 10-15 minutes qui suivent, des vésicules se détachent dans les régions où l'on observe les invaginations pendant la phase initiale. Cette deuxième phase qui mène à la fission des nouveaux compartiments vacuolaires dépend de la production du lipide PI(3,5)P2 par la protéine Fab1. J'ai établi la suite des événements du processus de fragmentation des vacuoles et propose la possibilité d'un rôle régulateur de la protéine kinase cycline-dépendante Pho85.¦En outre, j'ai tenté d'éclaircir plus spécifiquement le rôle de Vps1 pendant la fusion et fission des vacuoles. J'ai trouvé que tous les deux processus sont dépendants de l'activité GTPase de cette protéine. De plus l'association avec la membrane vacuolaire paraît régulée par le cycle d'hydrolyse du GTP. Vps1 peut lier la membrane sans la présence d'un autre facteur protéinique, ce qui permet de conclure à une interaction directe avec des lipides de la membrane. Cette interaction est au moins partiellement effectuée par le domaine GTPase, ce qui est une nouveauté pour un membre de cette famille de protéines. Une deuxième partie de Vps1, nommée insert B, est impliquée dans la liaison à la vacuole, soit par interaction directe avec la membrane, soit par régulation du domaine GTPase. En assumant que Vps1 détienne deux régions capables de liaison aux membranes, je conclus qu'elle pourrait fonctionner comme facteur de « tethering » lors de la fusion des vacuoles.¦-¦La cellule contient plusieurs sous-unités, appelées organelles, possédant chacune une fonction spécifique. Dépendant des processus qui s'y déroulent à l'intérieur, un environnement chimique spécifique est requis. Pour maintenir ces différentes conditions, les organelles sont séparées par des membranes. Lors de la division cellulaire ou en adaptation à des changements de milieu, les organelles doivent être capables de modifier leur morphologie. Cette adaptation a souvent lieu par fusion ou division des organelles. Le même principe est valable pour la vacuole dans la levure. La vacuole est une organelle qui sert principalement au stockage des aliments et à la dégradation des différents composants cellulaires. Alors que la fusion des vacuoles est un processus déjà bien décrit, la fragmentation des vacuoles a jusqu'ici été peu étudiée. Elle peut être induit par un choc osmotique: à cause de la concentration de sel élevé dans le milieu, le cytosol de la levure perd de l'eau. Par un flux d'eau de la vacuole au cytosol, la cellule est capable d'équilibrer celui-ci. Quand la vacuole perd du volume, elle doit réadapter le rapport entre surface membranaire et volume, ce qui se fait efficacement par une fragmentation d'une grande vacuole en plusieurs petites vésicules. Comment ce processus se déroule d'un point de vue morphologique n'a pas été décrit jusqu'à présent. En analysant la fragmentation vacuolaire par microscopie, j'ai trouvé que celle-ci se déroule en deux phases. Pendant la première minute suivant le choc osmotique, les vacuoles rétrécissent et forment des longues invaginations tubulaires. Cette phase dépend de la protéine Vps1, un membre de la famille des protéines apparentées à la dynamine, ainsi que du gradient transmembranaire de protons. Ce gradient s'établit par une pompe membranaire, la V-ATPase, qui transporte des protons dans la vacuole en utilisant l'énergie libérée par hydrolyse d'ATP. Après cette phase initiale, la formation de nouvelles vésicules vacuolaires dépend de la synthèse du lipide PI(3,5)P2.¦Dans la deuxième partie de l'étude, j'ai tenté de décrire comment Vps1 lie la membrane pour effectuer un remodelage de la vacuole. Vps1 est nécessaire pour la fusion et la fragmentation des vacuoles. J'ai découvert que tous les deux processus dépendent de sa capacité d'hydrolyser du GTP. Ainsi l'association avec la membrane est couplée au cycle d'hydrolyse du GTP. Vps1 peut lier la membrane sans la présence d'une autre protéine, et interagit donc très probablement avec les lipides de la membrane. Deux parties différentes de la protéine sont impliquées dans la liaison, dont une, inattendue, le domaine GTPase.¦-¦Numerous organelles undergo membrane fission and fusion events during cell division, vesicular traffic, or in response to changes in environmental conditions. Examples include Golgi (Acharya et al., 1998) mitochondria (Bleazard et al., 1999) peroxisomes (Kuravi et al., 2006) and lysosomes (Ward et al., 1997). In the yeast Saccharomyces cerevisiae the vacuole is the terminal component of the endocytic pathway and corresponds to lysosomes in mammalian cells. Yeast vacuoles fragment into multiple small vesicles in response to a hypertonic shock. This rapid and homogeneous reaction can serve as a model to study the requirements of the fragmentation process. Here, I investigated osmotically induced fragmentation by time-lapse microscopy. I observe that the small fragmentation products originate directly from the large central vacuole by asymmetric scission rather than by consecutive equal divisions and that fragmentation occurs in two distinct phases. During the first minute, vacuoles shrink and generate deep invaginations, leaving behind tubular structures. This phase requires the dynamin-like GTPase Vps1 and the vacuolar proton gradient. In the subsequent 10-15 minutes, vesicles pinch off from the tubular structures in a polarized fashion, directly generating fragmentation products of the final size. This phase depends on the production of phosphatidylinositol- 3,5-bisphosphate by the Fab1 complex. I suggest a possible regulation of vacuole fragmentation by the CDK Pho85. Based on my microscopy study I established a sequential involvement of the different fission factors.¦In addition to the morphological description of vacuole fragmentation I more specifically aimed to shed some light on the role of Vps1 in vacuole fragmentation and fusion. I find that both functions are dependent on the GTPase activity of the protein and that also the membrane association of the dynamin-like protein is coupled to the GTPase cycle. I found that Vps1 has the capacity for direct lipid binding on the vacuole and that this lipid binding is at least partially mediated through residues in the GTPase domain, a complete novelty for a dynamin family member. A second stretch located in the region of insert Β has also membrane-binding activity or regulates the association with the vacuole through the GTPase domain. Under the assumption of two membrane-binding regions I speculate on Vps1 as a possible tethering factor for vacuole fusion.
Resumo:
Les virus sont présents dans la plupart des environnements. Grâce aux outils moléculaires, il est maintenant possible de les mettre en évidence facilement, ce qui était difficile auparavant car cela nécessitait une infrastructure relativement complexe (cultures cellulaires ou inoculation à des animaux). En 2002, à l'aide de la métagénomique, une approche expérimentale a permis de montrer la présence de > 5 000 virus différents dans 200 litres d'eau de mer (Breitbart et al., 2002). Tous ces virus étaient essentiellement de nouvelles espèces. Ainsi, les études cherchant à détecter des virus pathogènes dans des échantillons environnementaux se sont multipliées afin de mieux comprendre leurs cycles vitaux, leurs voies de contamination et leur survie dans la nature. L'homme et les animaux contractent des virus essentiellement par ingestion d'eau contaminée ou par voies manuportée et aéroportée. Certains de ces virus (i.e. virus de la grippe aviaire H5N1, SRAS) sont à l'origine de sérieux problèmes de santé publique de par : leur dissémination rapide, leur caractère zoonotique et la difficulté à traiter les personnes atteintes.Les trois articles présentés dans cette note montrent 1) les propriétés de survie étonnantes de l'adénovirus dans les eaux souterraines ; 2) la dynamique saisonnière du norovirus également dans les eaux souterraines et 3) le rôle de la toux dans la dissémination du virus de la grippe. [Auteurs]