994 resultados para Parigi,Grands,Ensembles.
Resumo:
Magmas of the arc-tholeiitic and calc-alkaline differentiation suites contribute substantially to the formation of continental crust in subduction zones. Different geochemical-petrological models have been put forward to achieve evolved magmas forming large volumes of tonalitic to granitic plutons, building an important part of the continental crust. Primary magmas produced in the mantle wedge overlying the subducted slab migrate through the mantle and the crust. During the transfer, magma can accumulate in intermediate reservoirs at different levels where crystallization leads to differentiation and the heat transfer from the magma, together with gained heat from solidification, lead to partial melting of the crust. Partial melts can be assimilated and mix with more primitive magma. Moreover, already formed crystal cumulates or crystal mushes can be recycled and reactivated to transfer to higher crustal levels. Magma transport in the crust involves fow through fractures within a brittle elastic rock. The solidified magma filled crack, a dyke, can crosscut previously formed geological structures and thus serves as a relative or absolute time marker. The study area is situated in the Adamello massif. The Adamello massif is a composite of plutons that were emplaced between 42 and 29 million years. A later dyke swarm intruded into the southern part of the Adamello Batholith. A fractionation model covering dyke compositions from picrobasalts to dacites results in the cummulative crystallization of 17% olivine, 2% Cr-rich spinel, 18% clinopyroxene, 41% amphibole, 4% plagioclase and 0.1% magnetite to achieve an andesitic composition out of a hydrous primitive picrobasalt. These rocks show a similar geochemical evolution as experimental data simulating fractional crystallization and associated magma differentiation at lower crustal depth (7-10 kbar). The peraluminous, corundum normative composition is one characteristic of more evolved dacitic magmas, which has been explained in a long lasting debate with two di_erent models. Melting of mafic crust or politic material provides one model, whereas an alternative is fractionation from primary mantle derived melts. Amphibole occurring in basaltic-andesitic and andesitic dyke rocks as fractionating cumulate phase extracted from lower crustal depth (6-7.5 kbar) is driving the magmas to peraluminous, corundum normative compositions, which are represented by tonalites forming most of the Adamello Batholith. Most primitive picrobasaltic dykes have a slightly steepened chondrite normalized rare earth elements (REE) pattern and the increased enrichment of light-REE (LREE) for andesites and dacites can be explained by the fractional crystallization model originating from a picrobasalt, taking the changing fractionating phase assemblage and temperature into account. The injection of hot basaltic magma (~1050°C) in a closely spaced dyke swarm increases the surface of the contact to the mainly tonalitic wallrock. Such a setting induces partial melting of the wall rock and selective assimilation. Partial melting of the tonalite host is further expressed through intrusion breccias from basaltic dykes. Heat conduction models with instantaneous magma injection for such a dyke swarm geometry can explain features of partial melting observed in the field. Geochemical data of minerals and bulk rock further underline the selective or bulk assimilation of the tonalite host rock at upper crustal levels (~2-3 kbar), in particular with regard to light ion lithophile elements (LILE) such as Sr, Ba and Rb. Primitive picrobasalts carry an immiscible felsic assimilant as enclaves that bring along refractory rutile and zircon with textures typically found in oceanic plagiogranites or high pressure/low-temperature metamorphic rocks in general. U-Pb data implies a lower Cretaceous age for zircon not yet described as assimilant in Eocene to Oligocene magmatic rocks of the Central Southern Alps. The distribution of post-plutonic dykes in large batholiths such as the Adamello is one of the key features for understanding the regional stress field during the post-batholith emplacement cooling history. The emplacement of the regional dyke swarm covering the southern part of the Adamello massif was associated with consistent left lateral strike-slip movement along magma dilatation planes, leading to en echelon segmentation of dykes. Through the dilation by magma of pre-existing weaknesses and cracks in an otherwise uniform host rock, the dyke propagation and according orientation in the horizontal plane adjusted continuously perpendicular to least compressive remote stress σ3, resulting in an inferred rotation of the remote principal stress field. Les magmas issus des zones de subduction contribuent substantiellement à la formation de la croûte continentale. Les plutons tonalitiques et granitiques représentent, en effet, une partie importante de la croûte continentale. Des magmas primaires produits dans le 'mantle wedge ', partie du manteau se trouvant au-dessus de la plaque plongeante dans des zones de subduction, migrent à travers le manteau puis la croûte. Pendant ce transfert, le magma peut s'accumuler dans des réservoirs intermédiaires à différentes profondeurs. Le stockage de magma dans ces réservoirs engendre, d'une part, la différentiation des magmas par cristallisation fractionnée et, d'autre part, une fusion partielle la croûte continentale préexistante associée au transfert de la chaleur des magmas vers l'encaissant. Ces liquides magmatiques issus de la croûte peuvent, ensuite, se mélanger avec des magmas primaires. Le transport du magma dans la croûte implique notamment un flux de magma à travers différentes fractures recoupant les roches encaissantes élastiques. Au cours de ce processus de migration, des cumulats de cristaux ou des agrégats de cristaux encore non-solidifiés, peuvent être recyclés et réactivés pour être transportés à des niveaux supérieures de la croûte. Le terrain d'étude est situé dans le massif d'Adamello. Celui-ci est composé de plusieurs plutons mis en place entre 42 et 29 millions d'années. Dans une phase tardive de l'activité magmatique liée à ce batholite, une série de filons de composition variable allant de picrobasalte à des compositions dacitiques s'est mise en place la partie sud du massif. Deux modèles sont proposés dans la littérature, pour expliquer la formation des magmas dacitiques caractérisés par des compositions peralumineux (i.e. à corindon normatif). Le premier modèle propose que ces magmas soient issus de la fusion de matériel mafique et pélitique présent dans la partie inférieur de la croûte, alors que le deuxième modèle suggère une évolution par cristallisation fractionnée à partir de liquides primaires issus du manteau. Un modèle de cristallisation fractionnée a pu être développé pour expliquer l'évolution des filons de l'Adamello. Ce modèle explique la formation des filons dacitiques par la cristallisation fractionnée de 17% olivine, 2% spinelle riche en Cr, 18% clinopyroxène, 41% amphibole, 4% plagioclase et 0.1% magnetite à partir de liquide de compositions picrobasaltiques. Ce modèle prend en considération les contraintes pétrologiques déduites de l'observation des différents filons ainsi que du champ de stabilité des différentes phases en fonction de la température. Ces roches montrent une évolution géochimique similaire aux données expérimentales simulant la cristallisation fractionnée de magmas évoluant à des niveaux inférieurs de la croûte (7-10 kbar). Le modèle montre, en particulier, le rôle prépondérant de l'amphibole, une phase qui contrôle en particulier le caractère peralumineux des magmas différentiés ainsi que leurs compositions en éléments en traces. Des phénomènes de fusion partielle de l'encaissant tonalitique lors de la mise en place de _lons mafiques sont observée sur le terrain. L'injection du magma basaltique chaud (~1050°C) sous forme de filons rapprochés augmente la surface du contact avec l'encaissante tonalitique. Une telle situation produit la fusion partielle des roches encaissantes nécessaire à l'incorporation d'enclaves mafiques observés au sein des tonalites. Pour comprendre les conditions nécessaires pour la fusion partielle des roches encaissantes, des modèles de conduction thermique pour une injection simultanée d'une série de filons ont été développées. Des données géochimiques sur les minéraux et sur les roches totales soulignent qu'au niveau supérieur de la croûte, l'assimilation sélective ou totale de l'encaissante tonalitique modifie la composition du liquide primaire pour les éléments lithophiles tel que le Sr, Ba et Rb. Un autre aspect important concernant la pétrologie des filons de l'Adamello est la présence d'enclaves felsiques dans les filons les plus primitifs. Ces enclaves montrent, en particulier, des textures proches de celles rencontrées dans des plagiogranites océaniques ou dans des roches métamorphiques de haute pression/basse température. Ces enclaves contiennent du zircon et du rutile. La datations de ces zircons à l'aide du géochronomètre U-Pb indique un âge Crétacé inférieur. Cet âge est important, car aucune roche de cet âge n'a été considérée comme un assimilant potentiel pour des roches magmatiques d'âge Eocène à Oligocène dans les Alpes Sud Centrales. La réparation spatiale des filons post-plutoniques dans des grands batholites tel que l'Adamello, est une caractéristique clé pour la compréhension des champs de contraintes lors du refroidissement du batholite. L'orientation des filons va, en particulier, indiqué la contrainte minimal au sein des roches encaissante. La mise en place de la série de filon recoupant la partie Sud du massif de l'Adamello est associée à un décrochement senestre, un décrochement que l'on peut lié aux contraintes tectoniques régionales auxquelles s'ajoutent l'effet de la dilatation produite par la mise en place du batholite lui-même. Ce décrochement senestre produit une segmentation en échelon des filons.
Resumo:
Dans certaines portions des agglomérations (poches de pauvreté de centre-ville, couronnes suburbaines dégradées, espaces périurbains sans aménité), un cumul entre des inégalités sociales (pauvreté, chômage, etc.) et environnementales (exposition au bruit, aux risques industriels, etc.) peut être observé. La persistance de ces inégalités croisées dans le temps indique une tendance de fond : la capacité d'accéder à un cadre de vie de qualité n'est pas équitablement partagée parmi les individus. Ce constat interroge : comment se créent ces inégalités ? Comment infléchir cette tendance et faire la ville plus juste ?¦Apporter des réponses à cette problématique nécessite d'identifier les facteurs de causalités qui entrent en jeu dans le système de (re)production des inégalités urbaines. Le fonctionnement des marchés foncier et immobilier, la « tyrannie des petites décisions » et les politiques publiques à incidence spatiale sont principalement impliqués. Ces dernières, agissant sur tous les éléments du système, sont placées au coeur de ce travail. On va ainsi s'intéresser précisément à la manière dont les collectivités publiques pilotent la production de la ville contemporaine, en portant l'attention sur la maîtrise publique d'ouvrage (MPO) des grands projets urbains.¦Poser la question de la justice dans la fabrique de la ville implique également de questionner les référentiels normatifs de l'action publique : à quelle conception de la justice celle-ci doit- elle obéir? Quatre perspectives (radicale, substantialiste, procédurale et intégrative) sont caractérisées, chacune se traduisant par des principes d'action différenciés. Une méthodologie hybride - empruntant à la sociologie des organisations et à l'analyse des politiques publiques - vient clore le volet théorique, proposant par un détour métaphorique d'appréhender le projet urbain comme une pièce de théâtre dont le déroulement dépend du jeu d'acteurs.¦Cette méthodologie est utilisée dans le volet empirique de la recherche, qui consiste en une analyse de la MPO d'un projet urbain en cours dans la première couronne de l'agglomération lyonnaise : le Carré de Soie. Trois grands objectifs sont poursuivis : descriptif (reconstruire le scénario), analytique (évaluer la nature de la pièce : conte de fée, tragédie ou match d'improvisation ?) et prescriptif (tirer la morale de l'histoire). La description de la MPO montre le déploiement successif de quatre stratégies de pilotage, dont les implications sur les temporalités, le contenu du projet (programmes, morphologies) et les financements publics vont être déterminantes. Sur la base de l'analyse, plusieurs recommandations peuvent être formulées - importance de l'anticipation et de l'articulation entre planification et stratégie foncière notamment - pour permettre à la sphère publique de dominer le jeu et d'assurer la production de justice par le projet urbain (réalisation puis entretien des équipements et espaces publics, financement de logements de qualité à destination d'un large éventail de populations, etc.). Plus généralement, un décalage problématique peut être souligné entre les territoires stratégiques pour le développement de l'agglomération et les capacités de portage limitées des communes concernées. Ce déficit plaide pour le renforcement des capacités d'investissement de la structure intercommunale.¦La seule logique du marché (foncier, immobilier) mène à la polarisation sociale et à la production d'inégalités urbaines. Faire la ville juste nécessite une forte volonté des collectivités publiques, laquelle doit se traduire aussi bien dans l'ambition affichée - une juste hiérarchisation des priorités dans le développement urbain - que dans son opérationnalisation - une juste maîtrise publique d'ouvrage des projets urbains.¦Inner-city neighborhoods, poor outskirts, and peri-urban spaces with no amenities usually suffer from social and environmental inequalities, such as poverty, unemployment, and exposure to noise and industrial hazards. The observed persistence of these inequalities over time points to an underlying trend - namely, that access to proper living conditions is fundamentally unequal, thus eliciting the question of how such inequalities are effected and how this trend can be reversed so as to build a more equitable city.¦Providing answers to such questions requires that the causal factors at play within the system of (re)production of urban inequalities be identified. Real estate markets, "micromotives and macrobehavior", and public policies that bear on space are mostly involved. The latter are central in that they act on all the elements of the system. This thesis therefore focuses on the way public authorities shape the production of contemporary cities, by studying the public project ownership of major urban projects.¦The study of justice within the urban fabric also implies that the normative frames of reference of public action be questioned: what conception of justice should public action refer to? This thesis examines four perspectives (radical, substantialist, procedural, and integrative) each of which results in different principles of action. This theoretical part is concluded by a hybrid methodology that draws from sociology of organizations and public policy analysis and that suggests that the urban project may be understood as a play, whose outcome hinges on the actors' acting.¦This methodology is applied to the empirical analysis of the public project ownership of an ongoing urban project in the Lyon first-ring suburbs: the Carré de Soie. Three main objectives are pursued: descriptive (reconstructing the scenario), analytical (assessing the nature of the play - fairy tale, tragedy or improvisation match), and prescriptive (drawing the moral of the story). The description of the public project ownership shows the successive deployment of four control strategies, whose implications on deadlines, project content (programs, morphologies), and public funding are significant. Building on the analysis, several recommendations can be made to allow the public sphere to control the process and ensure the urban project produces equity (most notably, anticipation and articulation of planning and real- estate strategy, as well as provision and maintenance of equipment and public spaces, funding of quality housing for a wide range of populations, etc.). More generally, a gap can be highlighted between those territories that are strategic to the development of the agglomeration and the limited resources of the municipalities involved. This deficit calls for strengthening the investment abilities of the intermunicipal structure.¦By itself, the real-estate market logic brings about social polarization and urban inequalities. Building an equitable city requires a strong will on the part of public authorities, a will that must be reflected both in the stated ambition - setting priorities of urban development equitably - and in its implementation managing urban public projects fairly.
Resumo:
RESUME DESTINE AUX NON SCIENTIFIQUESLe diabète est une maladie associée à un excès de glucose (sucre) dans le sang. Le taux de glucose sanguin augmente lorsque l'action d'une hormone, l'insuline, responsable du transport du glucose du sang vers les tissus de l'organisme diminue, ou lorsque les quantités d'insuline à disposition sont inadéquates.L'une des causes communes entre les deux grands types de diabète connus, le type 1 et le type 2, est la disparition des cellules beta du pancréas, spécialisées dans la sécrétion d'insuline, par mort cellulaire programmée aussi appelée apoptose. Alors que dans le diabète de type 1, la destruction des cellules beta est causée par notre propre système immunitaire, dans le diabète de type 2, la mort de ces cellules, est principalement causée par des concentrations élevées de graisses saturés ou de molécules impliquées dans l'inflammation que l'on rencontre en quantités augmentées chez les personnes obèses. Etant donné l'augmentation épidémique du nombre de personnes obèses de par le monde, on estime que le nombre de personnes diabétiques (dont une majorité sont des diabétiques de type 2), va passer de 171 million en l'an 2000, à 366 million en l'an 2030, expliquant la nécessité absolue de mettre au point de nouvelles stratégies thérapeutique pour combattre cette maladie.L'apoptose est un processus complexe dont la dérégulation induit de nombreuses affections allant du cancer jusqu'au diabète. L'activation de caspase 3, une protéine clé contrôlant la mort cellulaire, était connue pour systématiquement mener à la mort cellulaire programmée. Ces dernières années, notre laboratoire a décrit des mécanismes de survie qui sont activés par caspase 3 et qui expliquent sans doute pourquoi son activation ne mène pas systématiquement à la mort cellulaire. Lorsqu'elle est faiblement activée, caspase 3 clive une autre protéine appelée RasGAP en deux protéines plus courtes dont l'une, appelée le fragment Ν a la particularité de protéger les cellules contre l'apoptose.Durant ma thèse, j'ai été impliqué dans divers projets destinés à mieux comprendre comment le fragment Ν protégeait les cellules contre l'apoptose et à savoir s'il pouvait être utilisé comme outil thérapeutique dans les conditions de survenue d'un diabète expérimental. C'est dans ce but que nous avons créé une souris transgénique, appelée RIP-N, exprimant le fragment Ν spécifiquement dans les cellules beta. Comme attendu, les cellules beta de ces souris étaient plus résistantes à la mort induite par des composés connus pour induire le diabète, comme certaines molécules induisant l'inflammation ou les graisses saturées. Nous avons ensuite pu montrer que les souris RIP-N étaient plus résistantes à la survenue d'un diabète expérimental que ce soit par l'injection d'une drogue induisant l'apoptose des cellules beta, que ce soit dans un fond génétique caractérisé par une attaque spontanée des cellules beta par le système immunitaire ou dans le contexte d'un diabète de type 2 induit par l'obésité. Dans plusieurs des modèles animaux étudiés, nous avons pu montrer que le fragment Ν protégeait les cellules en activant une voie protectrice bien connue impliquant successivement les protéines Ras, PI3K et Akt ainsi qu'en bloquant la capacité d'Akt d'activer le facteur NFKB, connu pour être délétère pour la survie de la cellule beta. La capacité qu'a le fragment Ν d'activer Akt tout en prévenant l'activation de NFKB par Akt est par conséquent particulièrement intéressante dans l'intégration des signaux régulant la mort cellulaire dans le contexte de la survenue d'un diabète.La perspective d'utiliser le fragment Ν comme outil thérapeutique dépendra de notre capacité à activer les signaux protecteurs induits par le fragment Ν depuis l'extérieur de la cellule ou de dériver des peptides perméables aux cellules possédant les propriétés du fragment N.2 SUMMARYDiabetes mellitus is an illness associated with excess blood glucose. Blood glucose levels raise when the action of insulin decreases or when insulin is provided in inappropriate amounts. In type 1 diabetes (T1D) as well as in type 2 diabetes (T2D), the insulin secreting beta cells in the pancreas undergo controlled cell death also called apoptosis. Whereas in T1D, beta cells are killed by the immune system, in T2D, they are killed by several factors, among which are increased blood glucose levels, increased levels of harmful lipids or pro-inflammatory cytokines that are released by the dysfunctional fat tissue of obese people. Given the epidemic increase in the number of obese people throughout the world, the number of diabetic people (a majority of which are type 2 diabetes) is estimated to rise from 171 million affected people in the year 2000 to 366 million in 2030 explaining the absolute requirement for new therapies to fight the disease.Apoptosis is a very complex process whose deregulation leads to a wide range of diseases going from cancer to diabetes. Caspase 3 although known as a key molecule controlling apoptosis, has been shown to have various other functions. In the past few years, our laboratory has described a survival mechanism, that takes place at low caspase activity and that might explain how cells that activate their caspases for reasons other than apoptosis survive. In such conditions, caspase 3 cleaves another protein called RasGAP into two shorter proteins, one of which, called fragment N, protects cells from apoptosis.We decided to check whether fragment Ν could be used as a therapeutical tool in the context of diabetes inducing conditions. We thus derived a transgenic mouse line, called RIP-N, in which the expression of fragment Ν is restricted to beta cells. As expected, the beta cells of these mice were more resistant ex-vivo to cell death induced by diabetes inducing factors. We then showed that the RIP-N transgenic mice were resistant to streptozotocin induced diabetes, a mouse model mimicking type 1 diabetes, which correlated to fewer number of apoptotic beta cells in the pancreas of the transgenic mice compared to their controls. The RIP-N transgene also delayed overt diabetes development in the NOD background, a mouse model of autoimmune type 1 diabetes, and delayed the occurrence of obesity induced hyperglycemia in a mouse model of type 2-like diabetes. Interestingly, fragment Ν was mediating its protection by activating the protective Akt kinase, and by blocking the detrimental NFKB factor. Our future ability to activate the protective signals elicited by fragment Ν from the outside of cells or to derive cell permeable peptides bearing the protective properties of fragment Ν might condition our ability to use this protein as a therapeutic tool.3 RESUMELe diabète est une maladie associée à un excès de glucose plasmatique. La glycémie augmente lorsque l'action de l'insuline diminue ou lorsque les quantités d'insuline à disposition sont inadéquates. Dans le diabète de type 1 (D1) comme dans le diabète de type 2 (D2), les cellules beta du pancréas subissent la mort cellulaire programmée aussi appelée apoptose. Alors que dans le D1 les cellules beta sont tuées par le système immunitaire, dans le D2 elles sont tuées par divers facteurs parmi lesquels on trouve des concentrations élevées de glucose, d'acides gras saturés ou de cytokines pro-inflammatoires qui sont sécrétées en concentrations augmentées par le tissu adipeux dysfonctionnel des personnes obèses. Etant donné l'augmentation épidémique du nombre de personnes obèses de par le monde, on estime que le nombre de personnes diabétiques (dont une majorité sont des diabétiques de type 2), va passer de 171 million en l'an 2000, à 366 million en l'an 2030, justifiant la nécessité absolue de mettre au point de nouvelles stratégies thérapeutique pour combattre cette maladie.L'apoptose est un processus complexe dont la dérégulation induit de nombreuses affections allant du cancer jusqu'au diabète. Caspase 3, bien que connue comme étant une protéine clé contrôlant l'apoptose a bien d'autres fonctions démontrées. Ces dernières années, notre laboratoire a décrit un mécanisme de survie qui est activé lorsque caspase 3 est faiblement activée et qui explique probablement comment des cellules qui ont activé leurs caspases pour une autre raison que l'apoptose peuvent survivre. Dans ces conditions, caspase 3 clive une autre protéine appelée RasGAP en deux protéines plus courtes dont l'une, appelée le fragment Ν a la particularité de protéger les cellules contre l'apoptose.Nous avons donc décidé de vérifier si le fragment Ν pouvait être utilisé comme outil thérapeutique dans les conditions de survenue d'un diabète expérimental. Pour se faire, nous avons créé une souris transgénique, appelée RIP-N, exprimant le fragment Ν spécifiquement dans les cellules beta. Comme attendu, les cellules beta de ces souris étaient plus résistantes ex-vivo à la mort induite par des facteurs pro-diabétogènes. Nous avons ensuite pu montrer que les souris RIP-N étaient plus résistantes à la survenue d'un diabète induit par la streptozotocine, un drogue mimant la survenue d'un D1 et que ceci était corrélée à une diminution du nombre de cellules en apoptose dans le pancréas des souris transgéniques comparé à leurs contrôles. L'expression du transgène a aussi eu pour effet de retarder la survenue d'un diabète franc dans le fond génétique NOD, un modèle génétique de diabète de type 1 auto-immun, ainsi que de retarder la survenue d'une hyperglycémie dans un modèle murin de diabète de type 2 induit par l'obésité. Dans plusieurs des modèles animaux étudiés, nous avons pu montrer que le fragment Ν protégeait les cellules en activant la kinase protectrice Akt ainsi qu'en bloquant le facteur délétère NFKB. La perspective d'utiliser le fragment Ν comme outil thérapeutique dépendra de notre capacité à activer les signaux protecteurs induits par le fragment Ν depuis l'extérieur de la cellule ou de dériver des peptides perméables aux cellules possédant les propriétés du fragment
Resumo:
Abstract in English : Ubiquitous Computing is the emerging trend in computing systems. Based on this observation this thesis proposes an analysis of the hardware and environmental constraints that rule pervasive platforms. These constraints have a strong impact on the programming of such platforms. Therefore solutions are proposed to facilitate this programming both at the platform and node levels. The first contribution presented in this document proposes a combination of agentoriented programming with the principles of bio-inspiration (Phylogenesys, Ontogenesys and Epigenesys) to program pervasive platforms such as the PERvasive computing framework for modeling comPLEX virtually Unbounded Systems platform. The second contribution proposes a method to program efficiently parallelizable applications on each computing node of this platform. Résumé en Français : Basée sur le constat que les calculs ubiquitaires vont devenir le paradigme de programmation dans les années à venir, cette thèse propose une analyse des contraintes matérielles et environnementale auxquelles sont soumises les plateformes pervasives. Ces contraintes ayant un impact fort sur la programmation des plateformes. Des solutions sont donc proposées pour faciliter cette programmation tant au niveau de l'ensemble des noeuds qu'au niveau de chacun des noeuds de la plateforme. La première contribution présentée dans ce document propose d'utiliser une alliance de programmation orientée agent avec les grands principes de la bio-inspiration (Phylogénèse, Ontogénèse et Épigénèse). Ceci pour répondres aux contraintes de programmation de plateformes pervasives comme la plateforme PERvasive computing framework for modeling comPLEX virtually Unbounded Systems . La seconde contribution propose quant à elle une méthode permettant de programmer efficacement des applications parallélisable sur chaque noeud de calcul de la plateforme
Resumo:
Résumé : La première partie de ce travail de thèse est consacrée au canal à sodium épithélial (ENaC), l'élément clé du transport transépithélial de Na+ dans le néphron distal, le colon et les voies aériennes. Ce canal est impliqué dans certaines formes génétiques d'hypo- et d'hypertension (PHA I, syndrome de Liddle), mais aussi, indirectement, dans la mucoviscidose. La réabsorption transépithéliale de Na+ est principalement régulée par des hormones (aldostérone, vasopressine), mais aussi directement par le Na+, via deux phénomènes distincts, la « feedback inhibition » et la « self-inhibition » (SI). Ce second phénomène est dépendant de la concentration de Na+ extracellulaire, et montre une cinétique rapide (constante de temps d'environ 3 s). Son rôle physiologique serait d'assurer l'homogénéité de la réabsorption de Na+ et d'empêcher que celle-ci soit excessive lorsque les concentrations de Na+ sont élevées. Différents éléments appuient l'hypothèse de la présence d'un site de détection de la concentration du Na+ extracellulaire sur ENaC, gouvernant la SI. L'objectif de ce premier projet est de démontrer l'existence du site de détection impliqué dans la SI et de déterminer ses propriétés physiologiques et sa localisation. Nous avons montré que les caractéristiques de la SI (en termes de sélectivité et affinité ionique) sont différentes des propriétés de conduction du canal. Ainsi, nos résultats confirment l'hypothèse de l'existence d'un site de détection du Na+ (responsable de la transmission de l'information au mécanisme de contrôle de l'ouverture du canal), différent du site de conduction. Par ailleurs, ce site présente une affinité basse et indépendante du voltage pour le Na+ et le Li+ extracellulaires. Le site semble donc être localisé dans le domaine extracellulaire, plutôt que transmembranaire, de la protéine. L'étape suivante consiste alors à localiser précisément le site sur le canal. Des études précédentes, ainsi que des résultats préliminaires récemment obtenus, mettent en avant le rôle dans la self-inhibition du premiers tiers des boucles extracellulaires des sous-unités α et γ du canal. Le second projet tire son origine des limitations de la méthode classique pour l'étude des canaux ioniques, après expression dans les ovocytes de Xenopus laevis, par la méthode du voltage-clamp à deux électrodes, en particulier les limitations dues à la lenteur des échanges de solutions. En outre, cette méthode souffre de nombreux désavantages (manipulations délicates et peu rapides, grands volumes de solution requis). Plusieurs systèmes améliorés ont été élaborés, mais aucun ne corrige tous les désavantages de la méthode classique Ainsi, l'objectif ici est le développement d'un système, pour l'étude électrophysiologique sur ovocytes, présentant les caractéristiques suivantes : manipulation des cellules facilitée et réduite, volumes de solution de perfusion faibles et vitesse rapide d'échange de la perfusion. Un microsystème intégré sur une puce a été élaboré. Ces capacités de mesure ont été testées en utilisant des ovocytes exprimant ENaC. Des résultats similaires (courbes IV, courbes dose-réponse au benzamil) à ceux obtenus avec le système traditionnel ont été enregistrés avec le microsystème. Le temps d'échange de solution a été estimé à ~20 ms et des temps effectifs de changement ont été déterminés comme étant 8 fois plus court avec le nouveau système comparé au classique. Finalement, la SI a été étudiée et il apparaît que sa cinétique est 3 fois plus rapide que ce qui a été estimé précédemment avec le système traditionnel et son amplitude de 10 à 20 % plus importante. Le nouveau microsystème intégré apparaît donc comme adapté à la mesure électrophysiologique sur ovocytes de Xenopus, et possèdent des caractéristiques appropriées à l'étude de phénomènes à cinétique rapide, mais aussi à des applications de type « high throughput screening ». Summary : The first part of the thesis is related to the Epithelial Sodium Channel (ENaC), which is a key component of the transepithelial Na+ transport in the distal nephron, colon and airways. This channel is involved in hypo- and hypertensive syndrome (PHA I, Liddle syndrome), but also indirectly in cystic fibrosis. The transepithelial reabsorption of Na+ is mainly regulated by hormones (aldosterone, vasopressin), but also directly by Na+ itself, via two distinct phenomena, feedback inhibition and self-inhibition. This latter phenomenon is dependant on the extracellular Na+ concentration and has rapid kinetics (time constant of about 3 s). Its physiological role would be to prevent excessive Na+ reabsorption and ensure this reabsorption is homogenous. Several pieces of evidence enable to propose the hypothesis of an extracellular Na+ sensing site on ENaC, governing self-inhibition. The aim of this first project is to demonstrate the existence of the sensing site involved in self-inhibition and to determine its physiological properties and localization. We show self-inhibition characteristics (ionic selectivity and affinity) are different from the conducting properties of the channel. Our results support thus the hypothesis that the Na+ sensing site (responsible of the transmission of the information about the extracellular Na+ concentration to the channel gating mechanism), is different from the channel conduction site. Furthermore, the site has a low and voltage-insensitive affinity for extracellular Na+ or Li+. This site appears to be located in the extracellular domain rather than in the transmembrane part of the channel protein. The next step is then to precisely localize the site on the channel. Some previous studies and preliminary results we recently obtained highlight the role of the first third of the extracellular loop of the α and γ subunits of the channel in self-inhibition. The second project originates in the limitation of the classical two-electrode voltageclamp system classically used to study ion channels expressed in Xenopus /aevis oocytes, in particular limitations related to the slow solution exchange time. In addition, this technique undergoes several drawbacks (delicate manipulations, time consumption volumes). Several improved systems have been built up, but none corrected all these detriments. The aim of this second study is thus to develop a system for electrophysiological study on oocytes featuring an easy and reduced cell handling, small necessary perfusion volumes and fast fluidic exchange. This last feature establishes the link with the first project, as it should enable to improve the kinetics analysis of self-inhibition. A PDMS chip-based microsystem has been elaborated. Its electrophysiological measurement abilities have been tested using oocytes expressing ENaC. Similar measurements (IV curves of benzamil-sensitive currents, benzamil dose-response curves) have been obtained with this system, compared to the traditional one. The solution exchange time has been estimated at N20 ms and effective exchange times (on inward currents) have been determined as 8 times faster with the novel system compared to the classical one. Finally, self-inhibition has been studied and it appears its kinetics is 3 times faster and its amplitude 10 to 20 % higher than what has been previously estimated with the traditional system. The novel integrated microsystem appears therefore to be convenient for electrophysiological measurement on Xenopus oocytes, and displays features suitable for the study of fast kinetics phenomenon, but also high throughput screening applications. Résumé destiné large public : Le corps humain est composé d'organes, eux-mêmes constitués d'un très grand nombre de cellules. Chaque cellule possède une paroi appelée membrane cellulaire qui sépare l'intérieur de cette cellule (milieu intracellulaire) du liquide (milieu extracellulaire) dans lequel elle baigne. Le maintien de la composition stable de ce milieu extracellulaire est essentiel pour la survie des cellules et donc de l'organisme. Le sodium est un des composants majeurs du milieu extracellulaire, sa quantité dans celui-ci doit être particulièrement contrôlée. Le sodium joue en effet un rôle important : il conditionne le volume de ce liquide extracellulaire, donc, par la même, du sang. Ainsi, une grande quantité de sodium présente dans ce milieu va de paire avec une augmentation du volume sanguin, ce qui conduit l'organisme à souffrir d'hypertension. On se rend donc compte qu'il est très important de contrôler la quantité de sodium présente dans les différents liquides de l'organisme. Les apports de sodium dans l'organisme se font par l'alimentation, mais la quantité de sodium présente dans le liquide extracellulaire est contrôlée de manière très précise par le rein. Au niveau de cet organe, on appelle urine primaire le liquide résultant de la filtration du sang. Elle contient de nombreuses substances, des petites molécules, dont l'organisme a besoin (sodium, glucose...), qui sont ensuite récupérées dans l'organe. A la sortie du rein, l'urine finale ne contient plus que l'excédent de ces substances, ainsi que des déchets à éliminer. La récupération du sodium est plus ou moins importante, en fonction des ajustements à apporter à la quantité présente dans le liquide extracellulaire. Elle a lieu grâce à la présence de protéines, dans les membranes des cellules du rein, capables de le transporter et de le faire transiter de l'urine primaire vers le liquide extracellulaire, qui assurera ensuite sa distribution dans l'ensemble de l'organisme. Parmi ces protéines « transporteurs de sodium », nous nous intéressons à une protéine en particulier, appelée ENaC. Il a été montré qu'elle jouait un rôle important dans cette récupération de sodium, elle est en effet impliquée dans des maladies génétiques conduisant à l'hypo- ou à l'hypertension. De précédents travaux ont montré que lorsque le sodium est présent en faible quantité dans l'urine primaire, cette protéine permet d'en récupérer une très grande partie. A l'inverse, lorsque cette quantité de sodium dans l'urine primaire est importante, sa récupération par le biais d'ENaC est réduite. On parle alors d'autorégulation : la protéine elle-même est capable d'adapter son activité de transport en fonction des conditions. Ce phénomène d'autorégulation constitue a priori un mécanisme préventif visant à éviter une trop grande récupération de sodium, limitant ainsi les risques d'hypertension. La première partie de ce travail de thèse a ainsi consisté à clarifier le mécanisme d'autorégulation de la protéine ENaC. Ce phénomène se caractérise en particulier par sa grande vitesse, ce qui le rend difficile à étudier par les méthodes traditionnelles. Nous avons donc, dans une deuxième partie, développé un nouveau système permettant de mieux décrire et analyser cette « autorégulation » d'ENaC. Ce second projet a été mené en collaboration avec l'équipe de Martin Gijs de l'EPFL.
Resumo:
We showed earlier how to predict the writhe of any rational knot or link in its ideal geometric configuration, or equivalently the average of the 3D writhe over statistical ensembles of random configurations of a given knot or link (Cerf and Stasiak 2000 Proc. Natl Acad. Sci. USA 97 3795). There is no general relation between the minimal crossing number of a knot and the writhe of its ideal geometric configuration. However, within individual families of knots linear relations between minimal crossing number and writhe were observed (Katritch et al 1996 Nature 384 142). Here we present a method that allows us to express the writhe as a linear function of the minimal crossing number within Conway families of knots and links in their ideal configuration. The slope of the lines and the shift between any two lines with the same
Resumo:
En Suisse, un peu moins de 5 % de la population se déclarent musulmans. Originaires pour la majeure partie des grandes vagues migratoires de la fin du XXe siècle, les musulmans helvétiques sont le plus souvent identifiés individuellement. Ce livre présente la réalité institutionnelle et peu connue de l'islam en Suisse à partir de plusieurs enquêtes menées sur la manière dont il s'organise. Sa présence est très diversifiée selon les contextes cantonaux différents et les origines culturelles bien contrastées d'un musulman des Balkans, du Maghreb ou de la Turquie. Ces recherches menées par des sociologues et des politologues dessinent une mosaïque qui montre à partir de l'islam pratiquant et confessant qu'il ne peut être réduit aux formes conservatrices et violentes que certains considèrent comme la traduction obligée de toute posture musulmane. Cet ouvrage propose un portrait contrasté de l'islam en Suisse avec, d'une part, des ensembles qui tentent d'organiser légitimement leur culte et de maintenir leur héritage religieux et, d'autre part, des défis déterminants à relever pour l'intégration des fidèles, comme les liens avec le pays d'origine, l'indépendance financière des mosquées ou les questions relatives aux revendications religieuses ou culturelles de l'identité musulmane. A partir de la réalité musulmane, ce livre expose toute l'ambiguïté de nos sociétés « tolérantes » et « ouvertes », mais démunies et contradictoires face à l'émergence récente de la pluralité religieuse.
Resumo:
La présente recherche se propose de désobstruer un certain nombre de catégories « esthétiques », au sens étendu du terme, de leur métaphysique implicite. La thèse que je souhaite défendre se présente sous la forme d'un paradoxe : d'une part, le sens originel d'« esthétique » a été perdu de vue, d'autre part, malgré cet oubli, quiconque s'interroge philosophiquement sur les beaux-arts reçoit, nolens volens, Baumgarten en héritage. Avec AEsthetica (1750/1758), ouvrage inachevé et hautement problématique, nous pourrions dire, citant René Char, qu'il s'agit-là d'un « héritage précédé d'aucun testament ». En d'autres termes, ce qui nous échoit nous occupe, voire nous préoccupe, sans que nous disposions des outils conceptuels pour nous y rapporter librement. Soyons clairs, je ne soutiens pas que l'esthétique philosophique, telle qu'elle s'énonce à ses débuts, soit un passage obligé pour penser l'art, et ce d'autant plus qu'il ne s'agit pas d'un passage, mais proprement d'une impasse. Ce que je veux dire, c'est que Kant répond à Baumgarten, et que Hegel répond à Kant et ainsi de suite. Il n'y a pas de tabula rasa dans l'histoire de la pensée, et l'oubli de l'historicité d'une pensée est le meilleur moyen de la neutraliser en simple supplément culturel, tout en demeurant entièrement captifs de ses présupposés.Au départ, la question qui motivait implicitement la rédaction de cette recherche se formulait ainsi : « Dans quelle mesure la philosophie énonce-t-elle quelque chose d'important au sujet des beaux-arts ? » Au fil du temps, la question s'est inversée pour devenir : « Qu'est-ce que les écrits sur les beaux- arts, tels qu'ils foisonnent au 18e siècle, nous enseignent à propos de la philosophie et des limites inhérentes à sa manière de questionner ?» Et gardons-nous de penser qu'une telle inversion cantonne la question de l'esthétique, au sens très large du terme, à n'être qu'une critique immanente à l'histoire de la philosophie. Si la philosophie était une « discipline » parmi d'autres, un « objet » d'étude possible dans la liste des matières universitaires à choix, elle ne vaudrait pas, à mon sens, une seule heure de peine. Mais c'est bien parce que la philosophie continue à orienter la manière dont nous nous rapportons au « réel », au « monde » ou à l'« art » - je place les termes entre guillemets pour indiquer qu'il s'agit à la fois de termes usuels et de concepts philosophiques - que les enjeux de la question de l'esthétique, qui est aussi et avant tout la question du sentir, excèdent l'histoire de la philosophie.Pour introduire aux problèmes soulevés par l'esthétique comme discipline philosophique, j'ai commencé par esquisser à grands traits la question du statut de l'image, au sens le plus général du terme. Le fil conducteur a été celui de l'antique comparaison qui conçoit la poésie comme une « peinture parlante » et la peinture comme une « poésie muette ». Dans le prolongement de cette comparaison, le fameux adage ut pictura poesis erit a été conçu comme le véritable noeud de toute conception esthétique à venir.Il s'est avéré nécessaire d'insister sur la double origine de la question de l'esthétique, c'est-à-dire la rencontre entre la pensée grecque et le christianisme. En effet, l'un des concepts fondamentaux de l'esthétique, le concept de création et, plus spécifiquement la possibilité d'une création ex nihiio, a été en premier lieu un dogme théologique. Si j'ai beaucoup insisté sur ce point, ce n'est point pour établir une stricte identité entre ce dogme théologique et le concept de création esthétique qui, force est de l'admettre, est somme toute souvent assez flottant dans les écrits du 18e siècle. L'essor majeur de la notion de création, couplée avec celle de génie, sera davantage l'une des caractéristiques majeures du romantisme au siècle suivant. La démonstration vise plutôt à mettre en perspective l'idée selon laquelle, à la suite des théoriciens de l'art de la Renaissance, les philosophes du Siècle des Lumières ont accordé au faire artistique ou littéraire une valeur parfaitement inédite. Si l'inventeur du terme « esthétique » n'emploie pas explicitement le concept de création, il n'en demeure pas moins qu'il attribue aux poètes et aux artistes le pouvoir de faire surgir des mondes possibles et que ceux-ci, au même titre que d'autres régions de l'étant, font l'objet d'une saisie systématique qui vise à faire apparaître la vérité qui leur est propre. Par l'extension de l'horizon de la logique classique, Baumgarten inclut les beaux-arts, à titre de partie constituante des arts libéraux, comme objets de la logique au sens élargi du terme, appelée « esthético- logique ». L'inclusion de ce domaine spécifique d'étants est justifiée, selon les dires de son auteur, par le manque de concrétude de la logique formelle. Or, et cela n'est pas le moindre des paradoxes de l'esthétique, la subsomption des beaux-arts sous un concept unitaire d'Art et la portée noétique qui leur est conférée, s'opère à la faveur du sacrifice de leur singularité et de leur spécificité. Cela explique le choix du titre : « métaphysique de l'Art » et non pas « métaphysique de l'oeuvre d'art » ou « métaphysique des beaux-arts ». Et cette aporîe constitutive de la première esthétique est indépassable à partir des prémices que son auteur a établies, faisant de la nouvelle discipline une science qui, à ce titre, ne peut que prétendre à l'universalité.Au 18e siècle, certaines théories du beau empruntent la voie alternative de la critique du goût. J'ai souhaité questionner ces alternatives pour voir si elles échappent aux problèmes posés par la métaphysique de l'Art. Ce point peut être considéré comme une réplique à Kant qui, dans une note devenue célèbre, soutient que « les Allemands sont les seuls à se servir du mot "esthétique" pour désigner ce que d'autres appellent la critique du goût ». J'ai démontré que ces deux termes ne sont pas synonymes bien que ces deux positions philosophiques partagent et s'appuient sur des présupposés analogues.La distinction entre ces deux manières de penser l'art peut être restituée synthétiquement de la sorte : la saisie systématique des arts du beau en leur diversité et leur subsomption en un concept d'Art unitaire, qui leur attribue des qualités objectives et une valeur de vérité indépendante de toute saisie subjective, relègue, de facto, la question du jugement de goût à l'arrière-plan. La valeur de vérité de l'Art, définie comme la totalité des qualités intrinsèques des oeuvres est, par définition, non tributaire du jugement subjectif. Autrement dit, si les oeuvres d'art présentent des qualités intrinsèques, la question directrice inhérente à la démarche de Baumgarten ne peut donc nullement être celle d'une critique du goût, comme opération subjective {Le. relative au sujet, sans que cela soit forcément synonyme de « relativisme »), mais bien la quête d'un fondement qui soit en mesure de conférer à l'esthétique philosophique, en tant que métaphysique spéciale, sa légitimité.Ce qui distingue sur le plan philosophique le projet d'une métaphysique de l'Art de celui d'une esthétique du goût réside en ceci que le premier est guidé, a priori, par la nécessité de produire un discours valant universellement, indépendant des oeuvres d'art, tandis que le goût, pour s'exercer, implique toujours une oeuvre singulière, concrète, sans laquelle celui-ci ne reste qu'à l'état de potentialité. Le goût a trait au particulier et au contingent, sans être pour autant quelque chose d'aléatoire. En effet, il n'est pas un véritable philosophe s'interrogeant sur cette notion qui n'ait entrevu, d'une manière ou d'une autre, la nécessité de porter le goût à la hauteur d'un jugement, c'est-à-dire lui conférer au moins une règle ou une norme qui puisse le légitimer comme tel et le sauver du relativisme, pris en son sens le plus péjoratif. La délicatesse du goût va même jusqu'à être tenue pour une forme de « connaissance », par laquelle les choses sont appréhendées dans toute leur subtilité. Les différents auteurs évoqués pour cette question (Francis Hutcheson, David Hume, Alexander Gerard, Louis de Jaucourt, Montesquieu, Voltaire, D'Alembert, Denis Diderot, Edmund Burke), soutiennent qu'il y a bien quelque chose comme des « normes » du goût, que celles-ci soient inférées des oeuvres de génie ou qu'elles soient postulées a priori, garanties par une transcendance divine ou par la bonté de la Nature elle-même, ce qui revient, en dernière instance au même puisque le geste est similaire : rechercher dans le suprasensible, dans l'Idée, un fondement stable et identique à soi en mesure de garantir la stabilité de l'expérience du monde phénoménal.La seconde partie de la recherche s'est articulée autour de la question suivante : est-ce que les esthétiques du goût qui mesurent la « valeur » de l'oeuvre d'art à l'aune d'un jugement subjectif et par l'intensité du sentiment échappent aux apories constitutives de la métaphysique de l'Art ?En un sens, une réponse partielle à cette question est déjà contenue dans l'expression « esthétique du goût ». Cette expression ne doit pas être prise au sens d'une discipline ou d'un corpus unifié : la diversité des positions présentées dans cette recherche, bien que non exhaustive, suffit à le démontrer. Mais ce qui est suggéré par cette expression, c'est que ces manières de questionner l'art sont plus proches du sens original du terme aisthêsis que ne l'est la première esthétique philosophique de l'histoire de la philosophie. L'exercice du goût est une activité propre du sentir qui, en même temps, est en rapport direct avec la capacité intellectuelle à discerner les choses et à un juger avec finesse et justesse.Avec le goût esthétique s'invente une espèce de « sens sans organe » dont la teneur ontologique est hybride, mais dont le nom est identique à celui des cinq sens qui procurent la jouissance sensible la plus immédiate et la moins raisonnable qui soit. Par la reconnaissance de l'existence d'un goût « juste » et « vrai », ou à défaut, au moins de l'existence d'une « norme » indiscutable de celui-ci, c'est-à-dire de la possibilité de formuler un jugement de goût une tentative inédite de spîritualisation de la sensibilité a lieu.Par conséquent, il est loin d'être évident que ce que j'ai appelé les esthétiques du goût échappent à un autre aspect aporétique de la métaphysique de l'Art, à savoir : passer à côté du caractère singulier de telle ou telle oeuvre afin d'en dégager les traits universels qui permettent au discours de s'étayer. Dans une moindre mesure, cela est même le cas dans les Salons de Diderot où, trop souvent, le tableau sert de prétexte à l'élaboration d'un discours brillant.Par contre, tout l'intérêt de la question du goût réside en ceci qu'elle présente, de façon particulièrement aiguë, les limites proprement métaphysiques dont l'esthétique, à titre de discipline philosophique, se fait la légataire et tente à sa manière d'y remédier par une extension inédite du concept de vérité et sa caractérisai ion en termes de vérité « esthéticologique » au paragraphe 427 de Y Esthétique. Cela dit, le fait même que dans l'empirisme la sensibilité s'oppose, une fois de plus, à l'intellect comme source de la naissance des idées - même si c'est dans la perspective d'une réhabilitation de la sensibilité -, indique que l'horizon même de questionnement demeure inchangé. Si le goût a pu enfin acquérir ses lettres de noblesse philosophique, c'est parce qu'il a été ramené, plus ou moins explicitement, du côté de la raison. Le jugement portant sur les arts et, de manière plus générale, sur tout ce qui est affaire de goût ne saurait se limiter au sentiment de plaisir immédiat. Le vécu personnel doit se transcender en vertu de critères qui non seulement permettent de dépasser le relativisme solipsiste, mais aussi de donner forme à l'expérience vécue afin qu'elle manifeste à chaque fois, et de façon singulière, une portée universelle.Le goût, tel qu'il devient un topos des discours sur l'art au 18e siècle, peut, à mon sens, être interprété comme l'équivalent de la glande pinéale dans la physiologie cartésienne : l'invention d'un « je ne sais quoi » situé on ne sait où, sorte d'Hermès qui assure la communication entre l'âme et le corps et sert l'intermédiaire entre l'intellect et la sensibilité. L'expérience décrite dans l'exercice du goût implique de facto une dimension par définition occultée par la métaphysique de l'Art : le désir. Pour goûter, il faut désirer et accepter d'être rempli par l'objet de goût. Dans l'exercice du goût, le corps est en jeu autant que l'intellect, il s'agit d'une expérience totale dans laquelle aucune mise à distance théorétique n'est, en un premier temps, à même de nous prémunir de la violence des passions qui nous affectent. L'ambiguïté de cette notion réside précisément dans son statut ontologiquement problématique. Mais cette incertitude est féconde puisqu'elle met en exergue le caractère problématique de la distinction entre corps et esprit. Dans la notion de goût est contenue l'idée que le corps pense aussi et que, par voie de conséquence, la sensibilité n'est pas dépourvue de dimension spirituelle. Reste que formuler les choses de la sorte revient à rejouer, en quelque sorte, l'antique diaphorâ platonicienne et à convoquer, une fois de plus, les grandes oppositions métaphysiques telles que corps et âme, sensible et intelligible, matière et forme.La troisième partie est entièrement consacrée à Shaftesbury qui anticipe le statut ontologiquement fort de l'oeuvre d'art (tel qu'il sera thématisé par Baumgarten) et l'allie à une critique du goût. Cet auteur peut être considéré comme une forme d'exception qui confirme la règle puisque sa métaphysique de l'Art laisse une place prépondérante à une critique du goût. Mais le cumul de ces deux caractéristiques opposées un peu schématiquement pour les besoins de la démonstration n'invalide pas l'hypothèse de départ qui consiste à dire que la saisie philosophique de la question du goût et l'invention conjointe de l'esthétique au 18e siècle sont deux tentatives de trouver une issue au problème du dualisme des substances.Cette recherche doit être prise comme une forme de propédeutique à la fois absolument nécessaire et parfaitement insuffisante. Après Baumgarten et le siècle du goût philosophique, les propositions de dépassement des apories constitutives d'une tradition qui pense l'art à partir de couples d'oppositions métaphysiques tels qu'âme et corps, forme et matière, ainsi que leurs traductions dans les arts visuels (dessin et couleur ou encore figuration et abstraction), n'ont pas manqué. Il aurait fallu in fine s'effacer pour laisser la place aux plasticiens eux-mêmes, mais aussi aux poètes, non plus dans l'horizon de Y ut pictura, mais lorsqu'ils expriment, sans verser dans l'analyse conceptuelle, leurs rencontres avec telle ou telle oeuvre (je pense à Baudelaire lorsqu'il évoque Constantin Guys, à Charles Ferdinand Ramuz lorsqu'il rend hommage à Cézanne ou encore à Pascal Quignard lorsqu'il raconte les fresques de la maison des Dioscures à Pompéi, pour ne citer que trois noms qui affleurent immédiatement à ma mémoire tant leur souvenir est vivace et leur exemple un modèle). Et puis il s'agit, malgré tout, de ne pas renoncer pour autant au discours esthétique, c'est- à-dire à la philosophie, mais de réinterroger les catégories dont nous sommes les légataires et de penser avec et au-delà des limites qu'elles nous assignent. Mais cela ferait l'objet d'un autre ouvrage.
Resumo:
En Suisse, un peu moins de 5 % de la population se déclarent musulmans. Originaires pour la majeure partie des grandes vagues migratoires de la fin du XXe siècle, les musulmans helvétiques sont le plus souvent identifiés individuellement. Ce livre présente la réalité institutionnelle et peu connue de l'islam en Suisse à partir de plusieurs enquêtes menées sur la manière dont il s'organise. Sa présence est très diversifiée selon les contextes cantonaux différents et les origines culturelles bien contrastées d'un musulman des Balkans, du Maghreb ou de la Turquie. Ces recherches menées par des sociologues et des politologues dessinent une mosaïque qui montre à partir de l'islam pratiquant et confessant qu'il ne peut être réduit aux formes conservatrices et violentes que certains considèrent comme la traduction obligée de toute posture musulmane. Cet ouvrage propose un portrait contrasté de l'islam en Suisse avec, d'une part, des ensembles qui tentent d'organiser légitimement leur culte et de maintenir leur héritage religieux et, d'autre part, des défis déterminants à relever pour l'intégration des fidèles, comme les liens avec le pays d'origine, l'indépendance financière des mosquées ou les questions relatives aux revendications religieuses ou culturelles de l'identité musulmane. A partir de la réalité musulmane, ce livre expose toute l'ambiguïté de nos sociétés « tolérantes » et « ouvertes », mais démunies et contradictoires face à l'émergence récente de la pluralité religieuse.
Resumo:
Les fluides de coupe sont principalement utilisés pour leurs propriétés lubrifiantes et/ou pour leur qualité de refroidissement des pièces en métallurgie. Ils sont utilisés pour faciliter l'opération d'usinage et contribue à améliorer la durée de vie de l'outil utilisé. Ils permettent d'éloigner les copeaux de la zone de coupe, ce qui contribue à l'obtention d'un état de surface de qualité, et de refroidir le copeau et la pièce usinée afin de contribuer à la précision dimensionnelle de la pièce finie. Les usages des fluides de coupe sont en évolution depuis les années 2000. Il y a environ 15-30 ans, seules les huiles entières étaient utilisées. Aujourd'hui, l'utilisation des huiles varie selon le type d'application mais il est à noter toutefois que l'usage des huiles entières est en pleine décroissance depuis 2001, contrairement à celui des fluides aqueux (émulsions) en pleine expansion. Les fluides de coupe exposeraient selon l'étude SUMER plus de 1 million de travailleurs. Il existe deux grands secteurs principaux utilisateurs de ces fluides : le travail des métaux (qui expose selon l'INRS le plus grand nombre de salariés) et l'automobile (plus grand secteur utilisateur selon la CSNIL, Chambre Syndical Nationale de l'Industrie des Lubrifiants). De nombreux éléments existent autour de la prévention des risques liés à l'utilisation des fluides de coupe mais comme le rappelait l'INRS dans son rapport publié en 2002, la plupart des méthodes de prévention, collectives ou individuelles, bien que déjà connues, ne sont pas toujours appliquées, et notamment dans les petites entreprises. De plus les moyens de surveillance, bien que largement détaillés dans de nombreux guides, sont rarement mis en oeuvre. Néanmoins, des substances dangereuses peuvent se retrouver soit au sein de la formulation des fluides de coupe (comme certains additifs, biocides..), soit se former au cours du stockage (comme c'est le cas de pour la NDELA, N-nitroso diéthanolamine). Certaines substances ont déjà vu leur usage en tant que biocide être interdit en France, tel que le formaldéhyde ou encore l'acide borique. Des solutions de substitution existent déjà, telles que la micro-lubrification ou l'usinage à sec. Mais la mise en place ou la recherche de substituts s'accompagne souvent de difficultés en ce qui concerne l'adaptation du processus industriel. La mise en oeuvre des collaborations avec les fournisseurs doit donc être fortement encouragée. Enfin, il existe des zones d'ombre concernant les risques associés au développement microbiologique intervenant lors du vieillissement des fluides. L'utilisation grandissante de ces fluides de type aqueux est en lien avec ces problèmes de contamination microbienne des fluides ainsi que les pathologies respiratoires qui semblent y être associées. Cependant l'absence de référentiel exclut toute interprétation des résultats relatifs à ces agents microbiologiques retrouvés à la fois dans les fluides et les aérosols. Conclusions : En raison de la complexité de la formulation des fluides de coupe, il n'existe pas aujourd'hui de méthode de mesure fiable pour évaluer l'exposition à ces produits. Ainsi la mise en place d'une évaluation quantitative des risques sanitaires complète semble prématurée voire impossible. Il apparaît cependant nécessaire d'aller plus loin en matière de prévention : - une valeur limite pourrait être imposée concernant les quantités en amines secondaires précurseurs de nitrosamines, telle que développée dans le modèle allemand, le respect de cette réglementation allemande est déjà un argument mis en place par certains fournisseurs français ; - La micro-lubrification et la recherche de substitution doivent être encouragées ; - L'élaboration d'un référentiel microbiologique qui puisse tenir compte de la qualité des fluides et de la protection des travailleurs devrait être soutenue. [Auteurs]
Resumo:
Ami, ou ennemi, le soleil ? Qui n'a jamais maudit un petit excès de bain de soleil sanctionné par une peau brûlée ? Mais en hiver, quand il se fait rare, l'huile de foie de morue est la panacée que prescrit la sagesse de nos grands-mères pour remplacer la vitamine D qu'en temps normal il nous aide à synthétiser. Pour pouvoir faire le point sur les dangers et les bénéfices du rayonnement solaire, il faut connaître son intensité et en particulier celle du rayonnement ultraviolet (UV) qui a une forte influence sur la santé.Durant ces dernières décades, une forte augmentation des cancers de la peau a été constatée dans les pays développés. La communauté médicale suppose que cette augmentation est liée à une plus forte exposition aux UV, qui serait elle-même due à des changements d'habitudes de la population (engouement pour les loisirs en plein air, pour les vacances sous les tropiques, popularité du bronzage, etc.) et éventuellement à un accroissement du rayonnement UV. [Auteurs]
Resumo:
A criminal investigation requires to search and to interpret vestiges of a criminal act that happened in a past time. The forensic investigator arises in this context as a critical reader of the investigation scene, in search of physical traces that should enable her to tell a story of the offence/crime which allegedly occurred. The challenge of any investigator is to detect and recognise relevant physical traces in order to provide forensic clues for investigation and intelligence purposes. Inspired by this obser- vation, the current research focuses on the following questions : What is a relevant physical trace? And, how does the forensic investigator know she is facing one ? The interest of such questions is to provide a definition of a dimension often used in forensic science but never studied in its implications and operations. This doctoral research investigates scientific paths that are not often explored in forensic science, by using semiotic and sociological tools combined with statistical data analysis. The results are shown following a semiotic path, strongly influenced by Peir- ce's studies, and a second track, called empirical, where investigations data were analysed and forensic investigators interviewed about their work practices in the field. By the semiotic track, a macroscopic view is given of a signification process running from the discove- red physical trace at the scene to what is evaluated as being relevant for the investigator. The physical trace is perceived in the form of several signs, whose meaning is culturally codified. The reasoning should consist of three main steps : 1- What kind of source does the discovered physical trace refer to ? 2- What cause/activity is at the origin of this source in the specific context of the case ? 3- What story can be told from these observations ? The stage 3 requires to reason in creating hypotheses that should explain the presence of the discovered trace coming from an activity ; the specific activity that is related to the investigated case. To validate this assumption, it would depend on their ability to respond to a rule of relevancy. The last step is the symbolisation of the relevancy. The rule would consist of two points : the recognition of the factual/circumstantial relevancy (Is the link between the trace and the case recognised with the formulated hypothesis ? ) and appropriate relevancy (What investment is required to collect and analyse the discovered trace considering the expected outcome at the investigation/intelligence level?). This process of meaning is based on observations and a conjectural reasoning subject to many influences. In this study, relevancy in forensic science is presented as a conventional dimension that is symbolised and conditioned by the context, the forensic investigator's practice and her workplace environment (culture of the place). In short, the current research states relevancy results of the interactions between parameters from situational, structural (or organisational) and individual orders. The detection, collection and analysis of relevant physical traces at scenes depends on the knowledge and culture mastered by the forensic investigator. In the study of the relation relevant trace-forensic investigator, this research introduces the KEE model as a conceptual map that illustrates three major areas of forensic knowledge and culture acquisition, involved in the research and evaluation of the relevant physical trace. Through the analysis of the investigation data and interviews, the relationship between those three parameters and the relevancy was highlighted. K, for knowing, embodies a rela- tionship to the immediate knowledge allowing to give an overview of the reality at a specific moment ; an important point since relevancy is signified in a context. E, for education, is considered through its relationship with relevancy via a culture that tends to become institutionalised ; it represents the theoretical knowledge. As for the parameter E, for experience, it exists in its relation to relevancy in the adjustments of the strategies of intervention (i.e a practical knowledge) of each practitioner having modulated her work in the light of success and setbacks case after case. The two E parameters constitute the library resources for the semiotic recognition process and the K parameter ensures the contextualisation required to set up the reasoning and to formulate explanatory hypotheses for the discovered physical traces, questioned in their relevancy. This research demonstrates that the relevancy is not absolute. It is temporal and contextual; it is a conventional and relative dimension that must be discussed. This is where the whole issue of the meaning of what is relevant to each stakeholder of the investigation process rests. By proposing a step by step approach to the meaning process from the physical trace to the forensic clue, this study aims to provide a more advanced understanding of the reasoning and its operation, in order to streng- then forensic investigators' training. This doctoral research presents a set of tools critical to both pedagogical and practical aspects for crime scene management while identifying key-influences with individual, structural and situational dimensions. - Une enquête criminelle consiste à rechercher et à faire parler les vestiges d'un acte incriminé passé. L'investigateur forensique se pose dans ce cadre comme un lecteur critique des lieux à la recherche de traces devant lui permettre de former son récit, soit l'histoire du délit/crime censé s'être produit. Le challenge de tout investigateur est de pouvoir détecter et reconnaître les traces dites pertinentes pour fournir des indices forensiques à buts d'enquête et de renseignement. Inspirée par un tel constat, la présente recherche pose au coeur de ses réflexions les questions suivantes : Qu'est-ce qu'une trace pertinente ? Et, comment fait le forensicien pour déterminer qu'il y fait face ? L'intérêt de tels questionnements se comprend dans la volonté de définir une dimension souvent utili- sée en science forensique, mais encore jamais étudiée dans ses implications et fonctionnements. Cette recherche se lance dans des voies d'étude encore peu explorées en usant d'outils sémiotiques et des pratiques d'enquêtes sociologiques combinés à des traitements statistiques de données. Les résultats sont représentés en suivant une piste sémiotique fortement influencée par les écrits de Peirce et une seconde piste dite empirique où des données d'interventions ont été analysées et des investigateurs forensiques interviewés sur leurs pratiques de travail sur le terrain. Par la piste sémiotique, une vision macroscopique du processus de signification de la trace en élément pertinent est représentée. La trace est perçue sous la forme de plusieurs signes dont la signification est codifiée culturellement. Le raisonnement se formaliserait en trois principales étapes : 1- Quel type de source évoque la trace détectée? 2- Quelle cause/activité est à l'origine de cette source dans le contexte précis du cas ? 3- Quelle histoire peut être racontée à partir de ces observations ? Cette dernière étape consiste à raisonner en créant des hypothèses devant expliquer la présence de la trace détectée suite à une activité posée comme étant en lien avec le cas investigué. Pour valider ces hypothèses, cela dépendrait de leur capacité à répondre à une règle, celle de la pertinence. Cette dernière étape consiste en la symbolisation de la pertinence. La règle se composerait de deux points : la reconnaissance de la pertinence factuelle (le lien entre la trace et le cas est-il reconnu dans l'hypothèse fournie?) et la pertinence appropriée (quel est l'investissement à fournir dans la collecte et l'exploitation de la trace pour le bénéfice attendu au niveau de l'investigation/renseignement?). Tout ce processus de signification se base sur des observations et un raisonnement conjectural soumis à de nombreuses influences. Dans cette étude, la pertinence en science forensique se formalise sous les traits d'une dimension conventionnelle, symbolisée, conditionnée par le contexte, la pratique de l'investigateur forensique et la culture du milieu ; en somme cette recherche avance que la pertinence est le fruit d'une interaction entre des paramètres d'ordre situationnel, structurel (ou organisationnel) et individuel. Garantir la détection, la collecte et l'exploitation des traces pertinentes sur les lieux dépend de la connaissance et d'une culture maîtrisées par le forensicien. Dans l'étude du rapport trace pertinente-investigateur forensique, la présente recherche pose le modèle SFE comme une carte conceptuelle illustrant trois grands axes d'acquisition de la connaissance et de la culture forensiques intervenant dans la recherche et l'évaluation de la trace pertinente. Par l'analyse des données d'in- terventions et des entretiens, le rapport entre ces trois paramètres et la pertinence a été mis en évidence. S, pour savoir, incarne un rapport à la connaissance immédiate pour se faire une représentation d'une réalité à un instant donné, un point important pour une pertinence qui se comprend dans un contexte. F, pour formation, se conçoit dans son rapport à la pertinence via cette culture qui tend à s'institutionnaliser (soit une connaissance théorique). Quant au paramètre E, pour expérience, il se comprend dans son rapport à la pertinence dans cet ajustement des stratégies d'intervention (soit une connaissance pratique) de chaque praticien ayant modulé leur travail au regard des succès et échecs enregistrés cas après cas. F et E formeraient la bibliothèque de ressources permettant le processus de reconnaissance sémiotique et S assurerait la contextualisation nécessaire pour poser le raisonnement et formuler les hypothèses explicatives pour les traces détectées et questionnées dans leur pertinence. Ce travail démontre que la pertinence n'est pas absolue. Elle est temporelle et contextuelle, c'est une dimension conventionnelle relative et interprétée qui se doit d'être discutée. C'est là que repose toute la problématique de la signification de ce qui est pertinent pour chaque participant du processus d'investigation. En proposant une lecture par étapes du processus de signification depuis la trace à l'indice, l'étude vise à offrir une compréhension plus poussée du raisonnement et de son fonctionnement pour renforcer la formation des intervenants forensiques. Cette recherche présente ainsi un ensemble d'outils critiques à portée tant pédagogiques que pratiques pour la gestion des lieux tout en identifiant des influences-clé jouées par des dimensions individuelles, structurelles et situationnelles.
Resumo:
Parmi les régimes sociaux pour les personnes sans emploi en âge de travailler, l'aide sociale compte parmi ceux qui ont été confrontés aux plus grands changements au cours des vingt dernières années. Durant cette période, le nombre et le profil des bénéficiaires a évolué à un tel point qu'il devient aujourd'hui difficile de considérer l'aide sociale uniquement sous le prisme d'un dernier filet de protection sociale intervenant pour une minorité d'individus fortement marginalisés socialement. Aujourd'hui, accompagnant une hausse régulière du nombre de bénéficiaires, le public de l'aide sociale est devenu beaucoup plus hétérogène, incorporant une frange de plus en plus importante de personnes pour qui le chômage de longue durée ou le sous-emploi constituent de fait le principal problème. Loin d'être un phénomène typiquement suisse, la transformation radicale du public touchant des prestations d'aide sociale a en fait touché l'ensemble des pays européens. Ces développements questionnent fondamentalement la mission de l'aide sociale. Traditionnellement, deux missions ont été au centre de l'aide sociale : garantir le minimum vital et favoriser l'intégration sociale des personnes les plus marginalisées socialement. Toutefois, aujourd'hui, avec l'émergence de nouveaux publics, se pose crucialement la question de la réorientation des régimes d'aide sociale vers une prise en charge visant le retour sur le premier marché du travail à plus ou moins long terme. De quels types de mesures de réinsertion professionnelle et de services de placement les bénéficiaires de l'aide sociale disposent-ils en Suisse ? Quels dispositifs organisationnels permettent-ils de garantir une prise en charge orientée vers l'emploi adaptée aux bénéficiaires de l'aide sociale ? En Suisse, bien que la réinsertion professionnelle soit désormais considérée comme une mission intégrale de l'aide sociale au niveau politique, il existe encore peu d'études empiriques sur les pratiques effectives mises en place dans les différents cantons en matière d'aide à la réinsertion professionnelle des bénéficiaires de l'aide sociale. Sans prétendre à l'exhaustivité, cette étude dresse un état des lieux de la situation actuelle en Suisse sur la base des quelques études existantes et d'une enquête par questionnaire réalisée auprès des responsables cantonaux en 2011. Malgré d'importantes différences entre et à l'intérieur des cantons et de nombreuses lacunes dans les données statistiques, un des principaux résultats qui ressort de cette étude est que l'accès des bénéficiaires de l'aide sociale à une prise en charge orientée emploi en Suisse reste problématique à plusieurs égards. En effet, alors que l'offre développée par les services sociaux en matière de mesures de réinsertion professionnelle reste souvent restreinte, d'autres pratiques telles que la collaboration interinstitutionnelle ou le recours aux ORP pour les services de placement présentent aussi plusieurs limites. Une comparaison avec la situation en Allemagne, qui a complètement réorganisé la prise en charge de ses chômeurs de longue durée en 2005 en créant une prestation financière et une structure de prise en charge spécifique à cette catégorie de sans-emplois, confirme le potentiel d'amélioration des efforts réalisés en Suisse, particulièrement en ce qui concerne l'importance accordée au retour à l'emploi et l'accès aux mesures de réinsertion professionnelle les plus prometteuses. Toutefois, et malgré une réduction significative du nombre de chômeurs de longue durée depuis l'introduction de la réforme Hartz IV en 2005, l'expérience allemande indique que la mise sur pied d'une structure spécialisée n'est pas non plus sans créer des problèmes, et que, plus généralement, il est difficile d'imputer le succès d'une politique de réinsertion professionnelle pour les bénéficiaires de l'aide sociale uniquement à son modèle organisationnel.