191 resultados para Grands magasins


Relevância:

10.00% 10.00%

Publicador:

Resumo:

THESIS ABSTRACTThis thesis project was aimed at studying the molecular mechanisms underlying learning and memory formation, in particular as they relate to the metabolic coupling between astrocytes and neurons. For that, changes in the metabolic activity of different mice brain regions after 1 or 9 days of training in an eight-arm radial maze were assessed by (14C) 2-deoxyglucose (2DG) autoradiography. Significant differences in the areas engaged during the behavioral task at day 1 (when animals are confronted for the first time to the learning task) and at day 9 (when animals are highly performing) have been identified. These areas include the hippocampus, the fornix, the parietal cortex, the laterodorsal thalamic nucleus and the mammillary bodies at day 1 ; and the anterior cingulate, the retrosplenial cortex and the dorsal striatum at day 9. Two of these cerebral regions (those presenting the greatest changes at day 1 and day 9: the hippocampus and the retrosplenial cortex, respectively) were microdissected by laser capture microscopy and selected genes related to neuron-glia metabolic coupling, glucose metabolism and synaptic plasticity were analyzed by RT-PCR. 2DG and gene expression analysis were performed at three different times: 1) immediately after the end of the behavioral paradigm, 2) 45 minutes and 3) 6 hours after training. The main goal of this study was the identification of the metabolic adaptations following the learning task. Gene expression results demonstrate that the learning task profoundly modulates the pattern of gene expression in time, meaning that these two cerebral regions with high 2DG signal (hippocampus and retrosplenial cortex) have adapted their metabolic molecular machinery in consequence. Almost all studied genes show a higher expression in the hippocampus at day 1 compared to day 9, while an increased expression was found in the retrosplenial cortex at day 9. We can observe these molecular adaptations with a short delay of 45 minutes after the end of the task. However, 6 hours after training a high gene expression was found at day 9 (compared to day 1) in both regions, suggesting that only one day of training is not sufficient to detect transcriptional modifications several hours after the task. Thus, gene expression data match 2DG results indicating a transfer of information in time (from day 1 to day 9) and in space (from the hippocampus to the retrosplenial cortex), and this at a cellular and a molecular level. Moreover, learning seems to modify the neuron-glia metabolic coupling, since several genes involved in this coupling are induced. These results also suggest a role of glia in neuronal plasticity.RESUME DU TRAVAIL DE THESECe projet de thèse a eu pour but l'étude des mécanismes moléculaires qui sont impliqués dans l'apprentissage et la mémoire et, en particulier, à les mettre en rapport avec le couplage métabolique existant entre les astrocytes et les neurones. Pour cela, des changements de l'activité métabolique dans différentes régions du cerveau des souris après 1 ou 9 jours d'entraînement dans un labyrinthe radial à huit-bras ont été évalués par autoradiographie au 2-désoxyglucose (2DG). Des différences significatives dans les régions engagées pendant la tâche comportementale au jour 1 (quand les animaux sont confrontés pour la première fois à la tâche) et au jour 9 (quand les animaux ont déjà appris) ont été identifiés. Ces régions incluent, au jour 1, l'hippocampe, le fornix, le cortex pariétal, le noyau thalamic laterodorsal et les corps mamillaires; et, au jour 9, le cingulaire antérieur, le cortex retrosplenial et le striatum dorsal. Deux de ces régions cérébrales (celles présentant les plus grands changements à jour 1 et à jour 9: l'hippocampe et le cortex retrosplenial, respectivement) ont été découpées par microdissection au laser et quelques gènes liés au couplage métabolique neurone-glie, au métabolisme du glucose et à la plasticité synaptique ont été analysées par RT-PCR. L'étude 2DG et l'analyse de l'expression de gènes ont été exécutés à trois temps différents: 1) juste après entraînement, 2) 45 minutes et 3) 6 heures après la fin de la tâche. L'objectif principal de cette étude était l'identification des adaptations métaboliques suivant la tâche d'apprentissage. Les résultats de l'expression de gènes démontrent que la tâche d'apprentissage module profondément le profile d'expression des gènes dans le temps, signifiant que ces deux régions cérébrales avec un signal 2DG élevé (l'hippocampe et le cortex retrosplenial) ont adapté leurs « machines moléculaires » en conséquence. Presque tous les gènes étudiés montrent une expression plus élevée dans l'hippocampe au jour 1 comparé au jour 9, alors qu'une expression accrue a été trouvée dans le cortex retrosplenial au jour 9. Nous pouvons observer ces adaptations moléculaires avec un retard court de 45 minutes après la fin de la tâche. Cependant, 6 heures après l'entraînement, une expression de gènes élevée a été trouvée au jour 9 (comparé à jour 1) dans les deux régions, suggérant que seulement un jour d'entraînement ne suffit pas pour détecter des modifications transcriptionelles plusieurs heures après la tâche. Ainsi, les données d'expression de gènes corroborent les résultats 2DG indiquant un transfert d'information dans le temps (de jour 1 à jour 9) et dans l'espace (de l'hippocampe au cortex retrosplenial), et ceci à un niveau cellulaire et moléculaire. D'ailleurs, la tâche d'apprentissage semble modifier le couplage métabolique neurone-glie, puisque de nombreux gènes impliqués dans ce couplage sont induits. Ces observations suggèrent un rôle important de la glie dans les mécanismes de plasticité du système nerveux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméLes champignons sont impliqués dans les cycles biogéochimiques de différentes manières. En particulier, ils sont reconnus en tant qu'acteurs clés dans la dégradation de la matière organique, comme fournisseurs d'éléments nutritifs via l'altération des minéraux mais aussi comme grands producteurs d'acide oxalique et de complexes oxalo-métalliques. Toutefois, peu de choses sont connues quant à leur contribution à la genèse d'autres types de minéraux, tel que le carbonate de calcium (CaCO3). Le CaCO3 est un minéral ubiquiste dans de nombreux écosystèmes et il joue un rôle essentiel dans les cycles biogéochimiques du carbone (C) et du calcium (Ca). Le CaCO3 peut être d'origine physico-chimique ou biogénique et de nombreux organismes sont connus pour contrôler ou induire sa biominéralisation. Les champignons ont souvent été soupçonnés d'être impliqué dans ce processus, cependant il existe très peu d'informations pour étayer cette hypothèse.Cette thèse a eu pour but l'étude de cet aspect négligé de l'impact des champignons dans les cycles biogéochimiques, par l'exploration de leur implication potentielle dans la formation d'un type particulier de CaCO3 secondaires observés dans les sols et dans les grottes des environnements calcaires. Dans les grottes, ces dépôts sont appelés moonmilk, alors que dans les sols on les appelle calcite en aiguilles. Cependant ces deux descriptions correspondent en fait au même assemblage microscopique de deux habitus particulier de la calcite: la calcite en aiguilles (au sens strict du terme cette fois-ci) et les nanofibres. Ces deux éléments sont des habitus aciculaires de la calcite, mais présentent des dimensions différentes. Leur origine, physico-chimique ou biologique, est l'objet de débats intenses depuis plusieurs années déjà.L'observation d'échantillons environnementaux avec des techniques de microscopie (microscopie électronique et micromorphologie), ainsi que de la microanalyse EDX, ont démontré plusieurs relations intéressantes entre la calcite en aiguilles, les nanofibres et des éléments organiques. Premièrement, il est montré que les nanofibres peuvent être organiques ou minérales. Deuxièmement, la calcite en aiguilles et les nanofibres présentent de fortes analogies avec des structures hyphales, ce qui permet de confirmer l'hypothèse de leur origine fongique. En outre, des expériences en laboratoire ont confirmé l'origine fongique des nanofibres, par des digestions enzymatiques d'hyphes fongiques. En effet, des structures à base de nanofibres, similaires à celles observées dans des échantillons naturels, ont pu être produites par cette approche. Finalement, des enrichissements en calcium ont été mesurés dans les parois des hyphes et dans des inclusions intrahyphales provenant d'échantillons naturels de rhizomorphes. Ces résultats suggèrent une implication de la séquestration de calcium dans la formation de la calcite en aiguilles et/ou des nanofibres.Plusieurs aspects restent à élucider, en particulier la compréhension des processus physiologiques impliqués dans la nucléation de calcite dans les hyphes fongiques. Cependant, les résultats obtenus dans cette thèse ont permis de confirmer l'implication des champignons dans la formation de la calcite en aiguilles et des nanofibres. Ces découvertes sont d'une grande importance dans les cycles biogéochimiques puisqu'ils apportent de nouveaux éléments dans le cycle couplé C-Ca. Classiquement, les champignons sont considérés comme étant impliqués principalement dans la minéralisation de la matière organique et dans l'altération minérale. Cette étude démontre que les champignons doivent aussi être pris en compte en tant qu'agents majeurs de la genèse de minéraux, en particulier de CaCO3. Ceci représente une toute nouvelle perspective en géomycologie quant à la participation des champignons au cycle biologique du C. En effet, la présence de ces précipitations de CaCO3 secondaires représente un court-circuit dans le cycle biologique du C puisque du C inorganique du sol se retrouve piégé dans de la calcite plutôt que d'être retourné dans l'atmosphère.AbstractFungi are known to be involved in biogeochemical cycles in numerous ways. In particular, they are recognized as key players in organic matter recycling, as nutrient suppliers via mineral weathering, as well as large producers of oxalic acid and metal-oxalate. However, little is known about their contribution to the genesis of other types of minerals such as calcium carbonate (CaCO3). Yet, CaC03 are ubiquitous minerals in many ecosystems and play an essential role in the biogeochemical cycles of both carbon (C) and calcium (Ca). CaC03 may be physicochemical or biogenic in origin and numerous organisms have been recognized to control or induce calcite biomineralization. While fungi have often been suspected to be involved in this process, only scarce information support this hypothesis.This Ph.D. thesis aims at investigating this disregarded aspect of fungal impact on biogeochemical cycles by exploring their possible implication in the formation of a particular type of secondary CaC03 deposit ubiquitously observed in soils and caves from calcareous environments. In caves, these deposits are known as moonmilk, whereas in soils, they are known as Needle Fibre Calcite (NFC - sensu lato). However, they both correspond to the same microscopic assemblage of two distinct and unusual habits of calcite: NFC {sensu stricto) and nanofibres. Both features are acicular habits of calcite displaying different dimensions. Whether these habits are physicochemical or biogenic in origin has been under discussion for a long time.Observations of natural samples using microscopic techniques (electron microscopy and micromorphology) and EDX microanalyses have demonstrated several interesting relationships between NFC, nanofibres, and organic features. First, it has shown that nanofibres can be either organic or minera! in nature. Second, both nanofibres and NFC display strong structural analogies with fungal hyphal features, supporting their fungal origin. Furthermore, laboratory experiments have confirmed the fungal origin of nanofibres through an enzymatic digestion of fungal hyphae. Indeed, structures made of nanofibres with similar features as those observed in natural samples have been produced. Finally, calcium enrichments have been measured in both cell walls and intrahyphal inclusions of hyphae from rhizomorphs sampled in the natural environment. These results point out an involvement of calcium sequestration in nanofibres and/or NFC genesis.Several aspects need further investigation, in particular the understanding of the physiological processes involved in hyphal calcite nucleation. However, the results obtained during this study have allowed the confirmation of the implication of fungi in the formation of both NFC and nanofibres. These findings are of great importance regarding global biogeochemical cycles as they bring new insights into the coupled C and Ca cycles. Conventionally, fungi are considered to be involved in organic matter mineralization and mineral weathering. In this study, we demonstrate that they must also be considered as major agents in mineral genesis, in particular CaC03. This is a completely new perspective in geomycology regarding the role of fungi in the short-term (or biological) C cycle. Indeed, the presence of these secondary CaC03 precipitations represents a bypass in the short- term carbon cycle, as soil inorganic C is not readily returned to the atmosphere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'objectif de la thèse est de comprendre le mode d'organisation économique spécifique aux petits centres urbains qui composent les espaces frontaliers sahéliens, en s'interrogeant sur leur concurrence ou leur complémentarité éventuelle à l'intérieur d'un régime de spatialité particulier. En s'appuyant sur l'exemple du carrefour économique de Gaya-Malanville-Kamba situé à la frontière entre le Niger, le Bénin et le Nigeria, il questionne le rôle de la ville-frontière ainsi que le jeu des acteurs marchands localement dominants, à partir de quatre grandes interrogations : Quelles sont les spécificités de l'Afrique sahélienne qui obligent à renouveler les approches géographiques de l'espace marchand? Quels sont les facteurs déterminants de l'activité économique frontalière? Les formes d'organisation de l'espace qui concourent à la structuration de l'économie sont-elles concurrentes ou coopératives? Les logiques économiques frontalières sont-elles compatibles avec l'orientation des programmes de développement adoptés par les pays sahéliens et leurs partenaires bi- ou multilatéraux? Dans une première partie, un modèle territorial de l'Afrique sahélienne permet de rendre compte de la prédominance des logiques circulatoires sur les logiques productives, une propriété essentielle de toute organisation économique confrontée à l'instabilité climatique. Dans une seconde partie, l'étude considère les facteurs déterminants de l'activité économique frontalière que sont le degré d'enclavement des territoires, la libre circulation des biens et des personnes, les relations concurrentielles ou coopératives qui lient les marchés ainsi que les liens clientélistes qui unissent patron et obligés. Une troisième partie est consacrée aux productions agricoles de tente organisées sous forme de coopératives paysannes ou d'initiatives privées. Une quatrième partie s'intéresse aux réseaux de l'import-export et du commerce de détail qui bénéficient de l'augmentation des besoins engendrée par l'urbanisation sahélienne. L'économie spatiale qui résulte de ces flux est organisée selon deux logiques distinctes : d'une part, les opportunités relatives à la production agricole conduisent certains investisseurs à intensifier l'irrigation pour satisfaire la demande des marchés urbains, d'autre part, les acteurs du capitalisme marchand, actifs dans l'import-export et la vente de détail, développent des réseaux informels et mobiles qui se jouent des différentiels nationaux. Les activités commerciales des villes-marchés connaissent alors des fluctuations liées aux entreprises productives et circulatoires de ces patrons, lesquelles concourent à l'organisation territoriale générale de l>Afrique sahélienne. Ces logiques évoluent dans un contexte fortement marqué par les politiques des institutions financières internationales, des agences bilatérales de coopération et des ONGs. Celles-ci se donnent pour ambition de transformer les économies, les systèmes politiques et les organisations sociales sahéliennes, en faisant la promotion du libéralisme, de la bonne gouvernance et de la société civile. Ces axes directeurs, qui constituent le champ de bataille contemporain du développement, forment un ensemble dans lequel la spécificité sahélienne notamment frontalière est rarement prise en compte. C'est pourquoi l'étude conclut en faveur d'un renouvellement des politiques de développement appliquées aux espaces frontaliers. Trois grands axes d'intervention peuvent alors être dégagés, lesquels permettent de réconcilier des acteurs et des logiques longtemps dissociés: ceux des espaces séparés par une limite administrative, ceux de la sphère urbaine et rurale et ceux du capitalisme marchand et de l'investissement agricole, en renforçant la coopération économique transfrontalière, en prenant en considération les interactions croissantes entre villes et campagnes et en appuyant les activités marchandes. Abstract: Urbanisation in West Africa is recent and fast. If only 10 % of the total population was living in urban areas in 1950, this proportion reached 40 % in 2000 and will be estimated to 60 % in 2025. Small and intermediate cities, located between the countryside and large metropolis, are particularly concerned with this process. They are nowadays considered as efficient vectors of local economic development because of fiscal or monetary disparities between states, which enable businessmen to develop particular skills based on local urban networks. The majority of theses networks are informal and extremely flexible, like in the Gaya - Malanville - Kamba region, located between Niger, Benin and Nigeria. Evidence show that this economic space is characterised by high potentialities (climatic and hydrological conditions, location on main economic West African axis) and few constraints (remoteness of some potentially high productive areas). In this context, this PhD deals with the economic relationships between the three market cities. Focusing on the links that unite the businessmen of the local markets - called patron; - it reveals the extreme flexibility of their strategies as well as the deeply informal nature of their activities. Through the analysis of examples taken from the commerce of agricultural products, import and export flows and detail activities, it studies the changes that have taken place in the city centres of Gaya, Malanville and Kamba. Meanwhile, this research shows how these cities represent a border economical area based on rival and complementary connections. In the first Part, it was necessary to reconsider the usual spatial analysis devoted to the question of economic centrality. As a matter of fact, the organisation of West African economic spaces is very flexible and mobile. Centrality is always precarious because of seasonal or temporary reasons. This is why the first chapters are devoted to the study of the specificity of the Sahelian territoriality. Two main elements are relevant: first the population diversity and second, the urban-rural linkages. In the second part, the study considers three main factors on which the cross-border economic networks are dependent: enclosure that prevents goods to reach the markets, administrative constraints that limit free trade between states and cities and the concurrent or complementary relationships between markets. A third part deals with the clientelist ties engaged between the patrons and their clients with the hypothesis that these relationships are based on reciprocity and inequality. A fourth part is devoted to' the study of the spatial organisation of commercial goods across the borders, as far as the agriculture commercial products, the import-export merchandises and the retail products are concerned. This leads to the conclusion that the economic activity is directly linked to urban growth. However, the study notices that there is a lack of efficient policies dealing with strengthening the business sector and improving the cross-border cooperation. This particularity allows us to favour new local development approaches, which would take into account the important potential of private economical actors. In the same time, the commercial flows should be regulated with the help of public policies, as long as they are specifically adapted to the problems that these areas have to deal with.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est maintenant accepté par une large part de la communauté scientifique que le climat est en train de changer sous l'influence des gaz à effet de serre émis par les activités humaines. Pour la Suisse, cela correspond à une augmentation des températures et à une diminution probable des précipitations estivales.Etant donné le manque de recul et de données historiques précises, l'influence des changements climatiques sur la biodiversité n'est encore connue que d'études ponctuelles limitées à certaines espèces. Celles-ci nous livrent néanmoins des signaux clairs de changement dans la distribution et la phénologie des espèces, généralement cohérents avec les résultats des modèles prédictifs pour le futur.Globalement, les espèces montrent une tendance à migrer vers les altitudes supérieures. Celles qui occupent aujourd'hui les altitudes les plus élevées vont probablement voir leur domaine se rétrécir. De grands risques d'extinction planent donc sur les espèces alpines, pour lesquelles la Suisse a une responsabilité toute particulière. Parallèlement, la diminution des précipitations estivales va augmenter les problèmes de sécheresses, ce qui pourrait conduire, par exemple, à une réduction des forêts en Valais central et à un assèchement prématuré des lieux de ponte des amphibiens. Inversement, certaines espèces thermophiles de basses altitudes pourraient profiter des nouvelles conditions en accroissant leur domaine de répartition, comme déjà observé chez certains insectes.En plus des changements climatiques, d'autres facteurs menacent indirectement les espèces. La forte fragmentation du territoire limitera la capacité des espèces à coloniser de nouveaux territoires par manque de connexions entre les milieux favorables. Un climat plus chaud permettra une intensification de l'agriculture en montagne, accompagnée des effets néfastes déjà bien connus en plaine, ou pourrait favoriser certaines maladies. De plus, les printemps plus précoces décaleront le développement de certaines espèces, ce qui pourrait fortement modifier les interactions entre espèces et les chaînes trophiques.Les conséquences des changements climatiques sur la biodiversité dépendront aussi des décisions prises au niveau national et international et des mesures prises pour la protection du climat. Afin de limiter les pertes, il est important de mettre en place des corridors favorisant la colonisation de nouvelles aires par les espèces et d'utiliser les synergies possibles entre protection de la biodiversité et lutte contre les changements climatiques. De plus, le monitoring des espèces les plus sensibles aidera à développer, avant qu'il ne soit trop tard, les mesures complémentaires nécessaires à leur conservation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Magmas of the arc-tholeiitic and calc-alkaline differentiation suites contribute substantially to the formation of continental crust in subduction zones. Different geochemical-petrological models have been put forward to achieve evolved magmas forming large volumes of tonalitic to granitic plutons, building an important part of the continental crust. Primary magmas produced in the mantle wedge overlying the subducted slab migrate through the mantle and the crust. During the transfer, magma can accumulate in intermediate reservoirs at different levels where crystallization leads to differentiation and the heat transfer from the magma, together with gained heat from solidification, lead to partial melting of the crust. Partial melts can be assimilated and mix with more primitive magma. Moreover, already formed crystal cumulates or crystal mushes can be recycled and reactivated to transfer to higher crustal levels. Magma transport in the crust involves fow through fractures within a brittle elastic rock. The solidified magma filled crack, a dyke, can crosscut previously formed geological structures and thus serves as a relative or absolute time marker. The study area is situated in the Adamello massif. The Adamello massif is a composite of plutons that were emplaced between 42 and 29 million years. A later dyke swarm intruded into the southern part of the Adamello Batholith. A fractionation model covering dyke compositions from picrobasalts to dacites results in the cummulative crystallization of 17% olivine, 2% Cr-rich spinel, 18% clinopyroxene, 41% amphibole, 4% plagioclase and 0.1% magnetite to achieve an andesitic composition out of a hydrous primitive picrobasalt. These rocks show a similar geochemical evolution as experimental data simulating fractional crystallization and associated magma differentiation at lower crustal depth (7-10 kbar). The peraluminous, corundum normative composition is one characteristic of more evolved dacitic magmas, which has been explained in a long lasting debate with two di_erent models. Melting of mafic crust or politic material provides one model, whereas an alternative is fractionation from primary mantle derived melts. Amphibole occurring in basaltic-andesitic and andesitic dyke rocks as fractionating cumulate phase extracted from lower crustal depth (6-7.5 kbar) is driving the magmas to peraluminous, corundum normative compositions, which are represented by tonalites forming most of the Adamello Batholith. Most primitive picrobasaltic dykes have a slightly steepened chondrite normalized rare earth elements (REE) pattern and the increased enrichment of light-REE (LREE) for andesites and dacites can be explained by the fractional crystallization model originating from a picrobasalt, taking the changing fractionating phase assemblage and temperature into account. The injection of hot basaltic magma (~1050°C) in a closely spaced dyke swarm increases the surface of the contact to the mainly tonalitic wallrock. Such a setting induces partial melting of the wall rock and selective assimilation. Partial melting of the tonalite host is further expressed through intrusion breccias from basaltic dykes. Heat conduction models with instantaneous magma injection for such a dyke swarm geometry can explain features of partial melting observed in the field. Geochemical data of minerals and bulk rock further underline the selective or bulk assimilation of the tonalite host rock at upper crustal levels (~2-3 kbar), in particular with regard to light ion lithophile elements (LILE) such as Sr, Ba and Rb. Primitive picrobasalts carry an immiscible felsic assimilant as enclaves that bring along refractory rutile and zircon with textures typically found in oceanic plagiogranites or high pressure/low-temperature metamorphic rocks in general. U-Pb data implies a lower Cretaceous age for zircon not yet described as assimilant in Eocene to Oligocene magmatic rocks of the Central Southern Alps. The distribution of post-plutonic dykes in large batholiths such as the Adamello is one of the key features for understanding the regional stress field during the post-batholith emplacement cooling history. The emplacement of the regional dyke swarm covering the southern part of the Adamello massif was associated with consistent left lateral strike-slip movement along magma dilatation planes, leading to en echelon segmentation of dykes. Through the dilation by magma of pre-existing weaknesses and cracks in an otherwise uniform host rock, the dyke propagation and according orientation in the horizontal plane adjusted continuously perpendicular to least compressive remote stress σ3, resulting in an inferred rotation of the remote principal stress field. Les magmas issus des zones de subduction contribuent substantiellement à la formation de la croûte continentale. Les plutons tonalitiques et granitiques représentent, en effet, une partie importante de la croûte continentale. Des magmas primaires produits dans le 'mantle wedge ', partie du manteau se trouvant au-dessus de la plaque plongeante dans des zones de subduction, migrent à travers le manteau puis la croûte. Pendant ce transfert, le magma peut s'accumuler dans des réservoirs intermédiaires à différentes profondeurs. Le stockage de magma dans ces réservoirs engendre, d'une part, la différentiation des magmas par cristallisation fractionnée et, d'autre part, une fusion partielle la croûte continentale préexistante associée au transfert de la chaleur des magmas vers l'encaissant. Ces liquides magmatiques issus de la croûte peuvent, ensuite, se mélanger avec des magmas primaires. Le transport du magma dans la croûte implique notamment un flux de magma à travers différentes fractures recoupant les roches encaissantes élastiques. Au cours de ce processus de migration, des cumulats de cristaux ou des agrégats de cristaux encore non-solidifiés, peuvent être recyclés et réactivés pour être transportés à des niveaux supérieures de la croûte. Le terrain d'étude est situé dans le massif d'Adamello. Celui-ci est composé de plusieurs plutons mis en place entre 42 et 29 millions d'années. Dans une phase tardive de l'activité magmatique liée à ce batholite, une série de filons de composition variable allant de picrobasalte à des compositions dacitiques s'est mise en place la partie sud du massif. Deux modèles sont proposés dans la littérature, pour expliquer la formation des magmas dacitiques caractérisés par des compositions peralumineux (i.e. à corindon normatif). Le premier modèle propose que ces magmas soient issus de la fusion de matériel mafique et pélitique présent dans la partie inférieur de la croûte, alors que le deuxième modèle suggère une évolution par cristallisation fractionnée à partir de liquides primaires issus du manteau. Un modèle de cristallisation fractionnée a pu être développé pour expliquer l'évolution des filons de l'Adamello. Ce modèle explique la formation des filons dacitiques par la cristallisation fractionnée de 17% olivine, 2% spinelle riche en Cr, 18% clinopyroxène, 41% amphibole, 4% plagioclase et 0.1% magnetite à partir de liquide de compositions picrobasaltiques. Ce modèle prend en considération les contraintes pétrologiques déduites de l'observation des différents filons ainsi que du champ de stabilité des différentes phases en fonction de la température. Ces roches montrent une évolution géochimique similaire aux données expérimentales simulant la cristallisation fractionnée de magmas évoluant à des niveaux inférieurs de la croûte (7-10 kbar). Le modèle montre, en particulier, le rôle prépondérant de l'amphibole, une phase qui contrôle en particulier le caractère peralumineux des magmas différentiés ainsi que leurs compositions en éléments en traces. Des phénomènes de fusion partielle de l'encaissant tonalitique lors de la mise en place de _lons mafiques sont observée sur le terrain. L'injection du magma basaltique chaud (~1050°C) sous forme de filons rapprochés augmente la surface du contact avec l'encaissante tonalitique. Une telle situation produit la fusion partielle des roches encaissantes nécessaire à l'incorporation d'enclaves mafiques observés au sein des tonalites. Pour comprendre les conditions nécessaires pour la fusion partielle des roches encaissantes, des modèles de conduction thermique pour une injection simultanée d'une série de filons ont été développées. Des données géochimiques sur les minéraux et sur les roches totales soulignent qu'au niveau supérieur de la croûte, l'assimilation sélective ou totale de l'encaissante tonalitique modifie la composition du liquide primaire pour les éléments lithophiles tel que le Sr, Ba et Rb. Un autre aspect important concernant la pétrologie des filons de l'Adamello est la présence d'enclaves felsiques dans les filons les plus primitifs. Ces enclaves montrent, en particulier, des textures proches de celles rencontrées dans des plagiogranites océaniques ou dans des roches métamorphiques de haute pression/basse température. Ces enclaves contiennent du zircon et du rutile. La datations de ces zircons à l'aide du géochronomètre U-Pb indique un âge Crétacé inférieur. Cet âge est important, car aucune roche de cet âge n'a été considérée comme un assimilant potentiel pour des roches magmatiques d'âge Eocène à Oligocène dans les Alpes Sud Centrales. La réparation spatiale des filons post-plutoniques dans des grands batholites tel que l'Adamello, est une caractéristique clé pour la compréhension des champs de contraintes lors du refroidissement du batholite. L'orientation des filons va, en particulier, indiqué la contrainte minimal au sein des roches encaissante. La mise en place de la série de filon recoupant la partie Sud du massif de l'Adamello est associée à un décrochement senestre, un décrochement que l'on peut lié aux contraintes tectoniques régionales auxquelles s'ajoutent l'effet de la dilatation produite par la mise en place du batholite lui-même. Ce décrochement senestre produit une segmentation en échelon des filons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans certaines portions des agglomérations (poches de pauvreté de centre-ville, couronnes suburbaines dégradées, espaces périurbains sans aménité), un cumul entre des inégalités sociales (pauvreté, chômage, etc.) et environnementales (exposition au bruit, aux risques industriels, etc.) peut être observé. La persistance de ces inégalités croisées dans le temps indique une tendance de fond : la capacité d'accéder à un cadre de vie de qualité n'est pas équitablement partagée parmi les individus. Ce constat interroge : comment se créent ces inégalités ? Comment infléchir cette tendance et faire la ville plus juste ?¦Apporter des réponses à cette problématique nécessite d'identifier les facteurs de causalités qui entrent en jeu dans le système de (re)production des inégalités urbaines. Le fonctionnement des marchés foncier et immobilier, la « tyrannie des petites décisions » et les politiques publiques à incidence spatiale sont principalement impliqués. Ces dernières, agissant sur tous les éléments du système, sont placées au coeur de ce travail. On va ainsi s'intéresser précisément à la manière dont les collectivités publiques pilotent la production de la ville contemporaine, en portant l'attention sur la maîtrise publique d'ouvrage (MPO) des grands projets urbains.¦Poser la question de la justice dans la fabrique de la ville implique également de questionner les référentiels normatifs de l'action publique : à quelle conception de la justice celle-ci doit- elle obéir? Quatre perspectives (radicale, substantialiste, procédurale et intégrative) sont caractérisées, chacune se traduisant par des principes d'action différenciés. Une méthodologie hybride - empruntant à la sociologie des organisations et à l'analyse des politiques publiques - vient clore le volet théorique, proposant par un détour métaphorique d'appréhender le projet urbain comme une pièce de théâtre dont le déroulement dépend du jeu d'acteurs.¦Cette méthodologie est utilisée dans le volet empirique de la recherche, qui consiste en une analyse de la MPO d'un projet urbain en cours dans la première couronne de l'agglomération lyonnaise : le Carré de Soie. Trois grands objectifs sont poursuivis : descriptif (reconstruire le scénario), analytique (évaluer la nature de la pièce : conte de fée, tragédie ou match d'improvisation ?) et prescriptif (tirer la morale de l'histoire). La description de la MPO montre le déploiement successif de quatre stratégies de pilotage, dont les implications sur les temporalités, le contenu du projet (programmes, morphologies) et les financements publics vont être déterminantes. Sur la base de l'analyse, plusieurs recommandations peuvent être formulées - importance de l'anticipation et de l'articulation entre planification et stratégie foncière notamment - pour permettre à la sphère publique de dominer le jeu et d'assurer la production de justice par le projet urbain (réalisation puis entretien des équipements et espaces publics, financement de logements de qualité à destination d'un large éventail de populations, etc.). Plus généralement, un décalage problématique peut être souligné entre les territoires stratégiques pour le développement de l'agglomération et les capacités de portage limitées des communes concernées. Ce déficit plaide pour le renforcement des capacités d'investissement de la structure intercommunale.¦La seule logique du marché (foncier, immobilier) mène à la polarisation sociale et à la production d'inégalités urbaines. Faire la ville juste nécessite une forte volonté des collectivités publiques, laquelle doit se traduire aussi bien dans l'ambition affichée - une juste hiérarchisation des priorités dans le développement urbain - que dans son opérationnalisation - une juste maîtrise publique d'ouvrage des projets urbains.¦Inner-city neighborhoods, poor outskirts, and peri-urban spaces with no amenities usually suffer from social and environmental inequalities, such as poverty, unemployment, and exposure to noise and industrial hazards. The observed persistence of these inequalities over time points to an underlying trend - namely, that access to proper living conditions is fundamentally unequal, thus eliciting the question of how such inequalities are effected and how this trend can be reversed so as to build a more equitable city.¦Providing answers to such questions requires that the causal factors at play within the system of (re)production of urban inequalities be identified. Real estate markets, "micromotives and macrobehavior", and public policies that bear on space are mostly involved. The latter are central in that they act on all the elements of the system. This thesis therefore focuses on the way public authorities shape the production of contemporary cities, by studying the public project ownership of major urban projects.¦The study of justice within the urban fabric also implies that the normative frames of reference of public action be questioned: what conception of justice should public action refer to? This thesis examines four perspectives (radical, substantialist, procedural, and integrative) each of which results in different principles of action. This theoretical part is concluded by a hybrid methodology that draws from sociology of organizations and public policy analysis and that suggests that the urban project may be understood as a play, whose outcome hinges on the actors' acting.¦This methodology is applied to the empirical analysis of the public project ownership of an ongoing urban project in the Lyon first-ring suburbs: the Carré de Soie. Three main objectives are pursued: descriptive (reconstructing the scenario), analytical (assessing the nature of the play - fairy tale, tragedy or improvisation match), and prescriptive (drawing the moral of the story). The description of the public project ownership shows the successive deployment of four control strategies, whose implications on deadlines, project content (programs, morphologies), and public funding are significant. Building on the analysis, several recommendations can be made to allow the public sphere to control the process and ensure the urban project produces equity (most notably, anticipation and articulation of planning and real- estate strategy, as well as provision and maintenance of equipment and public spaces, funding of quality housing for a wide range of populations, etc.). More generally, a gap can be highlighted between those territories that are strategic to the development of the agglomeration and the limited resources of the municipalities involved. This deficit calls for strengthening the investment abilities of the intermunicipal structure.¦By itself, the real-estate market logic brings about social polarization and urban inequalities. Building an equitable city requires a strong will on the part of public authorities, a will that must be reflected both in the stated ambition - setting priorities of urban development equitably - and in its implementation managing urban public projects fairly.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME DESTINE AUX NON SCIENTIFIQUESLe diabète est une maladie associée à un excès de glucose (sucre) dans le sang. Le taux de glucose sanguin augmente lorsque l'action d'une hormone, l'insuline, responsable du transport du glucose du sang vers les tissus de l'organisme diminue, ou lorsque les quantités d'insuline à disposition sont inadéquates.L'une des causes communes entre les deux grands types de diabète connus, le type 1 et le type 2, est la disparition des cellules beta du pancréas, spécialisées dans la sécrétion d'insuline, par mort cellulaire programmée aussi appelée apoptose. Alors que dans le diabète de type 1, la destruction des cellules beta est causée par notre propre système immunitaire, dans le diabète de type 2, la mort de ces cellules, est principalement causée par des concentrations élevées de graisses saturés ou de molécules impliquées dans l'inflammation que l'on rencontre en quantités augmentées chez les personnes obèses. Etant donné l'augmentation épidémique du nombre de personnes obèses de par le monde, on estime que le nombre de personnes diabétiques (dont une majorité sont des diabétiques de type 2), va passer de 171 million en l'an 2000, à 366 million en l'an 2030, expliquant la nécessité absolue de mettre au point de nouvelles stratégies thérapeutique pour combattre cette maladie.L'apoptose est un processus complexe dont la dérégulation induit de nombreuses affections allant du cancer jusqu'au diabète. L'activation de caspase 3, une protéine clé contrôlant la mort cellulaire, était connue pour systématiquement mener à la mort cellulaire programmée. Ces dernières années, notre laboratoire a décrit des mécanismes de survie qui sont activés par caspase 3 et qui expliquent sans doute pourquoi son activation ne mène pas systématiquement à la mort cellulaire. Lorsqu'elle est faiblement activée, caspase 3 clive une autre protéine appelée RasGAP en deux protéines plus courtes dont l'une, appelée le fragment Ν a la particularité de protéger les cellules contre l'apoptose.Durant ma thèse, j'ai été impliqué dans divers projets destinés à mieux comprendre comment le fragment Ν protégeait les cellules contre l'apoptose et à savoir s'il pouvait être utilisé comme outil thérapeutique dans les conditions de survenue d'un diabète expérimental. C'est dans ce but que nous avons créé une souris transgénique, appelée RIP-N, exprimant le fragment Ν spécifiquement dans les cellules beta. Comme attendu, les cellules beta de ces souris étaient plus résistantes à la mort induite par des composés connus pour induire le diabète, comme certaines molécules induisant l'inflammation ou les graisses saturées. Nous avons ensuite pu montrer que les souris RIP-N étaient plus résistantes à la survenue d'un diabète expérimental que ce soit par l'injection d'une drogue induisant l'apoptose des cellules beta, que ce soit dans un fond génétique caractérisé par une attaque spontanée des cellules beta par le système immunitaire ou dans le contexte d'un diabète de type 2 induit par l'obésité. Dans plusieurs des modèles animaux étudiés, nous avons pu montrer que le fragment Ν protégeait les cellules en activant une voie protectrice bien connue impliquant successivement les protéines Ras, PI3K et Akt ainsi qu'en bloquant la capacité d'Akt d'activer le facteur NFKB, connu pour être délétère pour la survie de la cellule beta. La capacité qu'a le fragment Ν d'activer Akt tout en prévenant l'activation de NFKB par Akt est par conséquent particulièrement intéressante dans l'intégration des signaux régulant la mort cellulaire dans le contexte de la survenue d'un diabète.La perspective d'utiliser le fragment Ν comme outil thérapeutique dépendra de notre capacité à activer les signaux protecteurs induits par le fragment Ν depuis l'extérieur de la cellule ou de dériver des peptides perméables aux cellules possédant les propriétés du fragment N.2 SUMMARYDiabetes mellitus is an illness associated with excess blood glucose. Blood glucose levels raise when the action of insulin decreases or when insulin is provided in inappropriate amounts. In type 1 diabetes (T1D) as well as in type 2 diabetes (T2D), the insulin secreting beta cells in the pancreas undergo controlled cell death also called apoptosis. Whereas in T1D, beta cells are killed by the immune system, in T2D, they are killed by several factors, among which are increased blood glucose levels, increased levels of harmful lipids or pro-inflammatory cytokines that are released by the dysfunctional fat tissue of obese people. Given the epidemic increase in the number of obese people throughout the world, the number of diabetic people (a majority of which are type 2 diabetes) is estimated to rise from 171 million affected people in the year 2000 to 366 million in 2030 explaining the absolute requirement for new therapies to fight the disease.Apoptosis is a very complex process whose deregulation leads to a wide range of diseases going from cancer to diabetes. Caspase 3 although known as a key molecule controlling apoptosis, has been shown to have various other functions. In the past few years, our laboratory has described a survival mechanism, that takes place at low caspase activity and that might explain how cells that activate their caspases for reasons other than apoptosis survive. In such conditions, caspase 3 cleaves another protein called RasGAP into two shorter proteins, one of which, called fragment N, protects cells from apoptosis.We decided to check whether fragment Ν could be used as a therapeutical tool in the context of diabetes inducing conditions. We thus derived a transgenic mouse line, called RIP-N, in which the expression of fragment Ν is restricted to beta cells. As expected, the beta cells of these mice were more resistant ex-vivo to cell death induced by diabetes inducing factors. We then showed that the RIP-N transgenic mice were resistant to streptozotocin induced diabetes, a mouse model mimicking type 1 diabetes, which correlated to fewer number of apoptotic beta cells in the pancreas of the transgenic mice compared to their controls. The RIP-N transgene also delayed overt diabetes development in the NOD background, a mouse model of autoimmune type 1 diabetes, and delayed the occurrence of obesity induced hyperglycemia in a mouse model of type 2-like diabetes. Interestingly, fragment Ν was mediating its protection by activating the protective Akt kinase, and by blocking the detrimental NFKB factor. Our future ability to activate the protective signals elicited by fragment Ν from the outside of cells or to derive cell permeable peptides bearing the protective properties of fragment Ν might condition our ability to use this protein as a therapeutic tool.3 RESUMELe diabète est une maladie associée à un excès de glucose plasmatique. La glycémie augmente lorsque l'action de l'insuline diminue ou lorsque les quantités d'insuline à disposition sont inadéquates. Dans le diabète de type 1 (D1) comme dans le diabète de type 2 (D2), les cellules beta du pancréas subissent la mort cellulaire programmée aussi appelée apoptose. Alors que dans le D1 les cellules beta sont tuées par le système immunitaire, dans le D2 elles sont tuées par divers facteurs parmi lesquels on trouve des concentrations élevées de glucose, d'acides gras saturés ou de cytokines pro-inflammatoires qui sont sécrétées en concentrations augmentées par le tissu adipeux dysfonctionnel des personnes obèses. Etant donné l'augmentation épidémique du nombre de personnes obèses de par le monde, on estime que le nombre de personnes diabétiques (dont une majorité sont des diabétiques de type 2), va passer de 171 million en l'an 2000, à 366 million en l'an 2030, justifiant la nécessité absolue de mettre au point de nouvelles stratégies thérapeutique pour combattre cette maladie.L'apoptose est un processus complexe dont la dérégulation induit de nombreuses affections allant du cancer jusqu'au diabète. Caspase 3, bien que connue comme étant une protéine clé contrôlant l'apoptose a bien d'autres fonctions démontrées. Ces dernières années, notre laboratoire a décrit un mécanisme de survie qui est activé lorsque caspase 3 est faiblement activée et qui explique probablement comment des cellules qui ont activé leurs caspases pour une autre raison que l'apoptose peuvent survivre. Dans ces conditions, caspase 3 clive une autre protéine appelée RasGAP en deux protéines plus courtes dont l'une, appelée le fragment Ν a la particularité de protéger les cellules contre l'apoptose.Nous avons donc décidé de vérifier si le fragment Ν pouvait être utilisé comme outil thérapeutique dans les conditions de survenue d'un diabète expérimental. Pour se faire, nous avons créé une souris transgénique, appelée RIP-N, exprimant le fragment Ν spécifiquement dans les cellules beta. Comme attendu, les cellules beta de ces souris étaient plus résistantes ex-vivo à la mort induite par des facteurs pro-diabétogènes. Nous avons ensuite pu montrer que les souris RIP-N étaient plus résistantes à la survenue d'un diabète induit par la streptozotocine, un drogue mimant la survenue d'un D1 et que ceci était corrélée à une diminution du nombre de cellules en apoptose dans le pancréas des souris transgéniques comparé à leurs contrôles. L'expression du transgène a aussi eu pour effet de retarder la survenue d'un diabète franc dans le fond génétique NOD, un modèle génétique de diabète de type 1 auto-immun, ainsi que de retarder la survenue d'une hyperglycémie dans un modèle murin de diabète de type 2 induit par l'obésité. Dans plusieurs des modèles animaux étudiés, nous avons pu montrer que le fragment Ν protégeait les cellules en activant la kinase protectrice Akt ainsi qu'en bloquant le facteur délétère NFKB. La perspective d'utiliser le fragment Ν comme outil thérapeutique dépendra de notre capacité à activer les signaux protecteurs induits par le fragment Ν depuis l'extérieur de la cellule ou de dériver des peptides perméables aux cellules possédant les propriétés du fragment

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract in English : Ubiquitous Computing is the emerging trend in computing systems. Based on this observation this thesis proposes an analysis of the hardware and environmental constraints that rule pervasive platforms. These constraints have a strong impact on the programming of such platforms. Therefore solutions are proposed to facilitate this programming both at the platform and node levels. The first contribution presented in this document proposes a combination of agentoriented programming with the principles of bio-inspiration (Phylogenesys, Ontogenesys and Epigenesys) to program pervasive platforms such as the PERvasive computing framework for modeling comPLEX virtually Unbounded Systems platform. The second contribution proposes a method to program efficiently parallelizable applications on each computing node of this platform. Résumé en Français : Basée sur le constat que les calculs ubiquitaires vont devenir le paradigme de programmation dans les années à venir, cette thèse propose une analyse des contraintes matérielles et environnementale auxquelles sont soumises les plateformes pervasives. Ces contraintes ayant un impact fort sur la programmation des plateformes. Des solutions sont donc proposées pour faciliter cette programmation tant au niveau de l'ensemble des noeuds qu'au niveau de chacun des noeuds de la plateforme. La première contribution présentée dans ce document propose d'utiliser une alliance de programmation orientée agent avec les grands principes de la bio-inspiration (Phylogénèse, Ontogénèse et Épigénèse). Ceci pour répondres aux contraintes de programmation de plateformes pervasives comme la plateforme PERvasive computing framework for modeling comPLEX virtually Unbounded Systems . La seconde contribution propose quant à elle une méthode permettant de programmer efficacement des applications parallélisable sur chaque noeud de calcul de la plateforme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La première partie de ce travail de thèse est consacrée au canal à sodium épithélial (ENaC), l'élément clé du transport transépithélial de Na+ dans le néphron distal, le colon et les voies aériennes. Ce canal est impliqué dans certaines formes génétiques d'hypo- et d'hypertension (PHA I, syndrome de Liddle), mais aussi, indirectement, dans la mucoviscidose. La réabsorption transépithéliale de Na+ est principalement régulée par des hormones (aldostérone, vasopressine), mais aussi directement par le Na+, via deux phénomènes distincts, la « feedback inhibition » et la « self-inhibition » (SI). Ce second phénomène est dépendant de la concentration de Na+ extracellulaire, et montre une cinétique rapide (constante de temps d'environ 3 s). Son rôle physiologique serait d'assurer l'homogénéité de la réabsorption de Na+ et d'empêcher que celle-ci soit excessive lorsque les concentrations de Na+ sont élevées. Différents éléments appuient l'hypothèse de la présence d'un site de détection de la concentration du Na+ extracellulaire sur ENaC, gouvernant la SI. L'objectif de ce premier projet est de démontrer l'existence du site de détection impliqué dans la SI et de déterminer ses propriétés physiologiques et sa localisation. Nous avons montré que les caractéristiques de la SI (en termes de sélectivité et affinité ionique) sont différentes des propriétés de conduction du canal. Ainsi, nos résultats confirment l'hypothèse de l'existence d'un site de détection du Na+ (responsable de la transmission de l'information au mécanisme de contrôle de l'ouverture du canal), différent du site de conduction. Par ailleurs, ce site présente une affinité basse et indépendante du voltage pour le Na+ et le Li+ extracellulaires. Le site semble donc être localisé dans le domaine extracellulaire, plutôt que transmembranaire, de la protéine. L'étape suivante consiste alors à localiser précisément le site sur le canal. Des études précédentes, ainsi que des résultats préliminaires récemment obtenus, mettent en avant le rôle dans la self-inhibition du premiers tiers des boucles extracellulaires des sous-unités α et γ du canal. Le second projet tire son origine des limitations de la méthode classique pour l'étude des canaux ioniques, après expression dans les ovocytes de Xenopus laevis, par la méthode du voltage-clamp à deux électrodes, en particulier les limitations dues à la lenteur des échanges de solutions. En outre, cette méthode souffre de nombreux désavantages (manipulations délicates et peu rapides, grands volumes de solution requis). Plusieurs systèmes améliorés ont été élaborés, mais aucun ne corrige tous les désavantages de la méthode classique Ainsi, l'objectif ici est le développement d'un système, pour l'étude électrophysiologique sur ovocytes, présentant les caractéristiques suivantes : manipulation des cellules facilitée et réduite, volumes de solution de perfusion faibles et vitesse rapide d'échange de la perfusion. Un microsystème intégré sur une puce a été élaboré. Ces capacités de mesure ont été testées en utilisant des ovocytes exprimant ENaC. Des résultats similaires (courbes IV, courbes dose-réponse au benzamil) à ceux obtenus avec le système traditionnel ont été enregistrés avec le microsystème. Le temps d'échange de solution a été estimé à ~20 ms et des temps effectifs de changement ont été déterminés comme étant 8 fois plus court avec le nouveau système comparé au classique. Finalement, la SI a été étudiée et il apparaît que sa cinétique est 3 fois plus rapide que ce qui a été estimé précédemment avec le système traditionnel et son amplitude de 10 à 20 % plus importante. Le nouveau microsystème intégré apparaît donc comme adapté à la mesure électrophysiologique sur ovocytes de Xenopus, et possèdent des caractéristiques appropriées à l'étude de phénomènes à cinétique rapide, mais aussi à des applications de type « high throughput screening ». Summary : The first part of the thesis is related to the Epithelial Sodium Channel (ENaC), which is a key component of the transepithelial Na+ transport in the distal nephron, colon and airways. This channel is involved in hypo- and hypertensive syndrome (PHA I, Liddle syndrome), but also indirectly in cystic fibrosis. The transepithelial reabsorption of Na+ is mainly regulated by hormones (aldosterone, vasopressin), but also directly by Na+ itself, via two distinct phenomena, feedback inhibition and self-inhibition. This latter phenomenon is dependant on the extracellular Na+ concentration and has rapid kinetics (time constant of about 3 s). Its physiological role would be to prevent excessive Na+ reabsorption and ensure this reabsorption is homogenous. Several pieces of evidence enable to propose the hypothesis of an extracellular Na+ sensing site on ENaC, governing self-inhibition. The aim of this first project is to demonstrate the existence of the sensing site involved in self-inhibition and to determine its physiological properties and localization. We show self-inhibition characteristics (ionic selectivity and affinity) are different from the conducting properties of the channel. Our results support thus the hypothesis that the Na+ sensing site (responsible of the transmission of the information about the extracellular Na+ concentration to the channel gating mechanism), is different from the channel conduction site. Furthermore, the site has a low and voltage-insensitive affinity for extracellular Na+ or Li+. This site appears to be located in the extracellular domain rather than in the transmembrane part of the channel protein. The next step is then to precisely localize the site on the channel. Some previous studies and preliminary results we recently obtained highlight the role of the first third of the extracellular loop of the α and γ subunits of the channel in self-inhibition. The second project originates in the limitation of the classical two-electrode voltageclamp system classically used to study ion channels expressed in Xenopus /aevis oocytes, in particular limitations related to the slow solution exchange time. In addition, this technique undergoes several drawbacks (delicate manipulations, time consumption volumes). Several improved systems have been built up, but none corrected all these detriments. The aim of this second study is thus to develop a system for electrophysiological study on oocytes featuring an easy and reduced cell handling, small necessary perfusion volumes and fast fluidic exchange. This last feature establishes the link with the first project, as it should enable to improve the kinetics analysis of self-inhibition. A PDMS chip-based microsystem has been elaborated. Its electrophysiological measurement abilities have been tested using oocytes expressing ENaC. Similar measurements (IV curves of benzamil-sensitive currents, benzamil dose-response curves) have been obtained with this system, compared to the traditional one. The solution exchange time has been estimated at N20 ms and effective exchange times (on inward currents) have been determined as 8 times faster with the novel system compared to the classical one. Finally, self-inhibition has been studied and it appears its kinetics is 3 times faster and its amplitude 10 to 20 % higher than what has been previously estimated with the traditional system. The novel integrated microsystem appears therefore to be convenient for electrophysiological measurement on Xenopus oocytes, and displays features suitable for the study of fast kinetics phenomenon, but also high throughput screening applications. Résumé destiné large public : Le corps humain est composé d'organes, eux-mêmes constitués d'un très grand nombre de cellules. Chaque cellule possède une paroi appelée membrane cellulaire qui sépare l'intérieur de cette cellule (milieu intracellulaire) du liquide (milieu extracellulaire) dans lequel elle baigne. Le maintien de la composition stable de ce milieu extracellulaire est essentiel pour la survie des cellules et donc de l'organisme. Le sodium est un des composants majeurs du milieu extracellulaire, sa quantité dans celui-ci doit être particulièrement contrôlée. Le sodium joue en effet un rôle important : il conditionne le volume de ce liquide extracellulaire, donc, par la même, du sang. Ainsi, une grande quantité de sodium présente dans ce milieu va de paire avec une augmentation du volume sanguin, ce qui conduit l'organisme à souffrir d'hypertension. On se rend donc compte qu'il est très important de contrôler la quantité de sodium présente dans les différents liquides de l'organisme. Les apports de sodium dans l'organisme se font par l'alimentation, mais la quantité de sodium présente dans le liquide extracellulaire est contrôlée de manière très précise par le rein. Au niveau de cet organe, on appelle urine primaire le liquide résultant de la filtration du sang. Elle contient de nombreuses substances, des petites molécules, dont l'organisme a besoin (sodium, glucose...), qui sont ensuite récupérées dans l'organe. A la sortie du rein, l'urine finale ne contient plus que l'excédent de ces substances, ainsi que des déchets à éliminer. La récupération du sodium est plus ou moins importante, en fonction des ajustements à apporter à la quantité présente dans le liquide extracellulaire. Elle a lieu grâce à la présence de protéines, dans les membranes des cellules du rein, capables de le transporter et de le faire transiter de l'urine primaire vers le liquide extracellulaire, qui assurera ensuite sa distribution dans l'ensemble de l'organisme. Parmi ces protéines « transporteurs de sodium », nous nous intéressons à une protéine en particulier, appelée ENaC. Il a été montré qu'elle jouait un rôle important dans cette récupération de sodium, elle est en effet impliquée dans des maladies génétiques conduisant à l'hypo- ou à l'hypertension. De précédents travaux ont montré que lorsque le sodium est présent en faible quantité dans l'urine primaire, cette protéine permet d'en récupérer une très grande partie. A l'inverse, lorsque cette quantité de sodium dans l'urine primaire est importante, sa récupération par le biais d'ENaC est réduite. On parle alors d'autorégulation : la protéine elle-même est capable d'adapter son activité de transport en fonction des conditions. Ce phénomène d'autorégulation constitue a priori un mécanisme préventif visant à éviter une trop grande récupération de sodium, limitant ainsi les risques d'hypertension. La première partie de ce travail de thèse a ainsi consisté à clarifier le mécanisme d'autorégulation de la protéine ENaC. Ce phénomène se caractérise en particulier par sa grande vitesse, ce qui le rend difficile à étudier par les méthodes traditionnelles. Nous avons donc, dans une deuxième partie, développé un nouveau système permettant de mieux décrire et analyser cette « autorégulation » d'ENaC. Ce second projet a été mené en collaboration avec l'équipe de Martin Gijs de l'EPFL.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fluides de coupe sont principalement utilisés pour leurs propriétés lubrifiantes et/ou pour leur qualité de refroidissement des pièces en métallurgie. Ils sont utilisés pour faciliter l'opération d'usinage et contribue à améliorer la durée de vie de l'outil utilisé. Ils permettent d'éloigner les copeaux de la zone de coupe, ce qui contribue à l'obtention d'un état de surface de qualité, et de refroidir le copeau et la pièce usinée afin de contribuer à la précision dimensionnelle de la pièce finie. Les usages des fluides de coupe sont en évolution depuis les années 2000. Il y a environ 15-30 ans, seules les huiles entières étaient utilisées. Aujourd'hui, l'utilisation des huiles varie selon le type d'application mais il est à noter toutefois que l'usage des huiles entières est en pleine décroissance depuis 2001, contrairement à celui des fluides aqueux (émulsions) en pleine expansion. Les fluides de coupe exposeraient selon l'étude SUMER plus de 1 million de travailleurs. Il existe deux grands secteurs principaux utilisateurs de ces fluides : le travail des métaux (qui expose selon l'INRS le plus grand nombre de salariés) et l'automobile (plus grand secteur utilisateur selon la CSNIL, Chambre Syndical Nationale de l'Industrie des Lubrifiants). De nombreux éléments existent autour de la prévention des risques liés à l'utilisation des fluides de coupe mais comme le rappelait l'INRS dans son rapport publié en 2002, la plupart des méthodes de prévention, collectives ou individuelles, bien que déjà connues, ne sont pas toujours appliquées, et notamment dans les petites entreprises. De plus les moyens de surveillance, bien que largement détaillés dans de nombreux guides, sont rarement mis en oeuvre. Néanmoins, des substances dangereuses peuvent se retrouver soit au sein de la formulation des fluides de coupe (comme certains additifs, biocides..), soit se former au cours du stockage (comme c'est le cas de pour la NDELA, N-nitroso diéthanolamine). Certaines substances ont déjà vu leur usage en tant que biocide être interdit en France, tel que le formaldéhyde ou encore l'acide borique. Des solutions de substitution existent déjà, telles que la micro-lubrification ou l'usinage à sec. Mais la mise en place ou la recherche de substituts s'accompagne souvent de difficultés en ce qui concerne l'adaptation du processus industriel. La mise en oeuvre des collaborations avec les fournisseurs doit donc être fortement encouragée. Enfin, il existe des zones d'ombre concernant les risques associés au développement microbiologique intervenant lors du vieillissement des fluides. L'utilisation grandissante de ces fluides de type aqueux est en lien avec ces problèmes de contamination microbienne des fluides ainsi que les pathologies respiratoires qui semblent y être associées. Cependant l'absence de référentiel exclut toute interprétation des résultats relatifs à ces agents microbiologiques retrouvés à la fois dans les fluides et les aérosols. Conclusions : En raison de la complexité de la formulation des fluides de coupe, il n'existe pas aujourd'hui de méthode de mesure fiable pour évaluer l'exposition à ces produits. Ainsi la mise en place d'une évaluation quantitative des risques sanitaires complète semble prématurée voire impossible. Il apparaît cependant nécessaire d'aller plus loin en matière de prévention : - une valeur limite pourrait être imposée concernant les quantités en amines secondaires précurseurs de nitrosamines, telle que développée dans le modèle allemand, le respect de cette réglementation allemande est déjà un argument mis en place par certains fournisseurs français ; - La micro-lubrification et la recherche de substitution doivent être encouragées ; - L'élaboration d'un référentiel microbiologique qui puisse tenir compte de la qualité des fluides et de la protection des travailleurs devrait être soutenue. [Auteurs]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ami, ou ennemi, le soleil ? Qui n'a jamais maudit un petit excès de bain de soleil sanctionné par une peau brûlée ? Mais en hiver, quand il se fait rare, l'huile de foie de morue est la panacée que prescrit la sagesse de nos grands-mères pour remplacer la vitamine D qu'en temps normal il nous aide à synthétiser. Pour pouvoir faire le point sur les dangers et les bénéfices du rayonnement solaire, il faut connaître son intensité et en particulier celle du rayonnement ultraviolet (UV) qui a une forte influence sur la santé.Durant ces dernières décades, une forte augmentation des cancers de la peau a été constatée dans les pays développés. La communauté médicale suppose que cette augmentation est liée à une plus forte exposition aux UV, qui serait elle-même due à des changements d'habitudes de la population (engouement pour les loisirs en plein air, pour les vacances sous les tropiques, popularité du bronzage, etc.) et éventuellement à un accroissement du rayonnement UV. [Auteurs]