1000 resultados para théorie de la reconnaissance
Resumo:
Abstract : The role of order effects has been widely shown and discussed in areas such as memory and social impression formation. This work focuses in a first half on order effects influencing the verdict chosen at the end of a criminal trial. Contrary to impression formation but according to trial's characteristics, it has been hypothesised that a recency effect would influence the verdict's choice. Three groups of students (N = 576) received a mock trial resume with a specific order stemming from the combination of three witnesses, one expert and two ocular witnesses. Results show a recency effect, the last testimony provoking significantly more acquittals if discriminating, and more condemnations if incriminating. The second half of this work starts from Gestalt and sociopsychological researches presenting numerous insights into cognitive organization of perceptions and opinions. It has been postulated that a witness probative value will change according to the emitted verdict, an incriminating witness or expert possessing a higher probative value in a condemning verdict than in an innocenting one, on the other hand a discriminating witness or expert having a higher probative value in an acquittal than in a condemnation. Results using a seven points scale measuring witnesses' probative value confirm this hypothesis. Argumentations written by the subjects to explain their verdict and refering to the accusing expert also show a congruency effect as categories of arguments are identical in case of condemnation or acquittal, the only difference between both types of verdicts residing in the frequency of these categories following the judgement, higher use of incriminating arguments in case of guiltiness and higher use of discriminating ones if the accused is found innocent. Résumé : L'intervention des effets sériels a fait l'objet de nombreuses recherches dans le domaine de la mémoire et de la formation d'impression en psychologie sociale. Ce travail s'intéresse dans une première partie aux effets d'ordre pouvant influencer le choix du verdict à la fin d'un procès pénal. Contrairement aux résultats obtenus en matière de formation d'impression, mais conformément aux caractéristiques d'un procès, l'hypothèse de l'intervention d'un effet de récence a été formulée, affirmant que les derniers témoins influencent le plus le choix du verdict. Trois groupes d'étudiants (N = 576) ont lu le résumé d'un procès fictif présentant trois témoignages, deux témoins visuels à décharge et un expert à charge. Chaque groupe recevait un ordre spécifique de présentation des témoins de sorte que l'expert se trouvait en première, deuxième ou troisième position. Les résultats montrent un effet de récence, le dernier témoin provoquant davantage d'acquittements s'il est disculpant et davantage de condamnations s'il est inculpant. La seconde partie de ce travail émane des recherches effectuées dans le domaine de la théorie de la forme et de la psychologie sociale ayant un intérêt marqué pour l'organisation cognitive de nos perceptions et de nos opinions. L'hypothèse que nous avons posée souligne le lien entretenu entre l'évaluation de la force probante d'un témoin et le verdict émis : un témoignage discriminant possédera plus de poids en cas d'acquittement qu'en cas de condamnation, inversement un témoignage incriminant aura plus de poids en cas de condamnation qu'en cas d'acquittement. L'utilisation d'une échelle en sept points mesurant la force probante des deux types de témoins confirme cette hypothèse, l'estimation de la valeur accordée à un même témoin variant selon le type de verdict choisi. Les argumentations de chaque verdict ont également montré que les catégories d'arguments se référant à l'expert étaient identiques en cas de condamnation ou d'acquittement de l'inculpé, par contre les fréquences de ces catégories entretiennent un lien congruent avec le verdict, celles inculpantes étant majoritairement utilisées pour asseoir la culpabilité mais peu représentées en cas d'acquittement, inversement celles disculpantes apparaissant bien plus lorsqu'il s'agit d'innocenter l'inculpé que pour le condamner.
Resumo:
La formation en psychothérapie comportementale et cognitive en Europe suit des exigences variées selon les pays, malgré les standards communs de formation dans ce domaine émis par l'EABCT. En général les pays qui ont une réglementation légale de la psychothérapie ont des critères de reconnaissance plus sévères que ceux de l'EABCT, alors que les autres tendent à s'aligner sur les règles de l'Association. Dans les programmes de formation, le rôle de la supervision varie également d'un pays à l'autre. Ces variations touchent aussi bien la quantité de supervisions demandées, ses modalités d'application, que les critères de reconnaissance des superviseurs. L'EABCT a récemment publié des recommandations pour la reconnaissance des superviseurs, pour garantir que les superviseurs soient spécifiquement formés à cette activité. Ces critères sont plus sévères que ceux de la plupart des associations de TCC ou des règlementations nationales du titre de psychothérapeute, ce qui peut poser des problèmes d'implémentation, même dans les pays qui disposent d'une législation en matière de psychothérapie. Nous assistons à une tendance allant vers une professionnalisation plus grande de l'activité de supervision. Cette professionnalisation, pour autant qu'elle soit scientifiquement fondée, mérite sans doute d'être défendue. Il s'agira cependant d'être attentif au fait qu'un excès de règlements ne bloque pas les possibilités de formation et par conséquence la diffusion des TCC, notamment dans les régions où elles sont encore peu implantées.
Resumo:
Quelles représentations de la schizophrénie les psychiatres vont-ils construire à travers l'étude des écrits asilaires des patients et des scientifiques dans la première moitié du XXème siècle? Le psychiatre helvétique Hans Steck (1891-1980), qui a travaillé à l'Asile psychiatrique de Cery de 1920 à 1960 et qui s'est fait connaître du public grâce à l'oeuvre d'Aloïse Corbaz, reconnue comme auteure d'art brut par Jean Dubuffet en 1945, constitue le fil rouge de la thèse. Dans le contexte des mouvements tels que Γ "art psychopathologique" et Γ "art brut", Steck étudie les théories de "la mentalité primitive et les peintures magiques des schizophrènes". En 1927, il se tourne vers les théories évolutionnistes de la régression et les premières études de Lévy-Bruhl pour avancer l'idée qu'il existe un "parallélisme schizo-primitif'. Puis il développe des explications de la pensée délirante, à partir des théories exposées lors du Premier Congrès International de Psychiatrie en 1950. Enfin, adoptant la perspective phénoménologique, il explique que "la fonction de l'art et la fonction du délire visent à reconstituer un monde viable pour le malade". En ce sens, l'expression artistique, bien que n'entrant pas dans le champ de la psychothérapie, fournit des indicateurs de l'état psychique du malade en même temps qu'elle contribue à son bien-être. Sont abordés les problèmes concernant la reconnaissance de Γ "auteur" interné, dont les oeuvres appartiennent soit aux archives médicales, soit au musée. La pérennité des critères qui définissent les oeuvres d'"art psychopathologique" ou d'"art brut" est également mise en question. Enfin, le rôle essentiel de l'écriture à l'hôpital, tant pour les patients que pour les soignants, fait l'objet de nombreux développements. - What representations of schizophrenia have psychiatrists been constructing when studying writings by patients and scientists in mental asylums in the first half of the 20th century? The Swiss psychiatrist Hans Steck (1891-1980) is the protagonist of this dissertation. From 1920 to 1960, he has been working at the "Asile psychiatrique de Cery" near Lausanne. Steck is known thanks to the paintings of Aloïse Corbaz, an artist recognized by Jean Dubuffet as belonging to the "art brut" movement in 1945. In the context of movements like "art psychopathologique" and "art brut," Steck studies theories of "primitive character and magic paintings of schizophrenics." In 1927, Steck engages with theories of regression and Lévy-Bruhl's early studies in order to push the idea of a "parallelism schizo-primitif." On the occasion of the First International Congress of psychiatry held in Paris in 1950, Steck develops explanations for the "pensée délirante." Finally, turning to a phenomenological point of view, he explains, "the function of art and the function of the delusion help the patient to reconstruct a viable environment for the sick person." In this way, artistic expression is not thought of as a psychotherapeutical means, but provides insight into the state of mind of a mentally sick person at the same time as contributing to his well-being. The dissertation discusses whether the "author's" work belongs in medical archives or museums. The continuity of "psychopathological art" and "art brut" criteria will be discussed. Finally, the essential role that writing played in the hospital for the patients as well as for the medical staff is presented.
Resumo:
Abstract The study of fossil Tethyan continental margins implies the consideration of the oceanic domains to which they were connected. The advent of plate tectonics confirmed the importance of the detection of accretion-related mélanges. Ophiolitic mélanges are derived from both an upper ophiolitic obducting plate and a lower oceanic plate. Besides ophiolitic elements, the mélanges may incorporate parts of a magmatic arc and dismembered fragments of a passive continental margin. As the lower plate usually totally disappears during the obduction process, it can only be reconstructed from its elements found in the mélanges. Because of their key location at active margin boundaries, preserved accretion-related mélanges provide strong constraints on the geological evolution of former oceanic domains and their adjacent margins. The identification of Palaeotethyan remnants as accretionary series or reworked during the Late Triassic Eo-Cimmerian event, as well as the recognition of HugluPindos marginal sequences in southern Turkey and in the external Hellenides represent the main achievements of this work, making possible to establish new palaeogeographical correlations. The Mersin mélanges (Turkey), together with the Antalya and Mamonia (Cyprus) domains, are characterized by a series of exotic units found now south of the main Taurus range and compose the South-Taurides Exotic Units. The Mersin mélanges are subdivided in a Triassic and a Late Cretaceous unit. These units consist of the remnants of three major Tethyan oceans, the Palaeotethys, the Neotethys and the Huglu-Pindos. The definition and inventory of the Upper Antalya Nappes (Turkey) are still a matter of controversies and often conflicting interpretations. The recognition of Campanian radiolarians on top of the Kerner Gorge unit directly overlain by the Ordovician Seydi§ehir Fm. of the Tahtah Dag Nappe outlines a tectonic contact and demonstrates that the Upper Antalya Nappes system is composed of three different nappes, the Kerner Gorge, Bakirli and the Tahtah Dag nappes. Additionally, a limestone block in a doubtful tectonic position at the base of the Upper Antalya Nappes yielded for the first time two middle Viséan associations of foraminifers and problematic algae. The Tavas Nappe in the Lycian Nappes (Turkey) is classically divided into the Karadag, Teke Dere, Köycegiz and Haticeana units. As for the Mersin mélanges, the Tavas Nappe is highly composite and includes dismembered units belonging to the Palaeotethyan, Neotethyan and HugluPindos realms. The Karadag unit consists of a Gondwana-type platform succession ranging from the Late Devonian to the Late Triassic. It belongs to the Cimmerian Taurus terrane and was part of the northern passive margin of the Neotethys. The Teke Dere unit is composed of different parts of the Palaeotethyan succession including Late Carboniferous OIB-type basalts, Carboniferous MORB-type basalts, an Early Carboniferous siliciclastic series and a Middle Permian arc sequence. The microfauna and microflora identified in different horizons within the Teke Dere unit share strong biogeographical affinities with the northern Palaeotethyan borders. Kubergandian limestones in primary contact above the Early Carboniferous siliciclastics yielded a rich and diverse microfauna and microflora also identified in reworked cobbles within the Late Triassic Gevne Fm. of the Aladag unit (Turkey). The sedimentological evolution of the Köycegiz and Haticeana series is in many points similar to classical Pindos sequences. These series originated in the Huglu-Pindos Ocean along the northern passive margin of the Anatolian (Turkish transect) and Sitia-Pindos (Greek transect) terranes. Conglomerates at the base of the Lentas Unit in southern Crete (Greece) yielded a microfauna and microflora presenting also strong affinities with the northern borders of the Palaeotethys. This type of reworked sediments at the base of Pindos-like series would suggest a derivation from the Palaeotethyan active margin. -Résumé (French abstract) L'étude des marges continentales fossiles de l'espace téthysien implique d'étudier les domaines océaniques qui y étaient rattachés. Les progrès de la tectonique des plaques ont confirmé l'importance de la reconnaissance des mélanges d'accrétion. Les mélanges ophiolitiques dérivent d'une plaque supérieure ophiolitique qui obducte, et d'une plaque inférieure océanique. En plus d'éléments ophiolitiques, les mélanges peuvent aussi incorporer des parties d'un arc magmatique, ou des fragments d'une marge continentale passive. Comme la plaque inférieure disparaît généralement complètement durant le processus d'obduction, elle ne peut être reconstruite qu'au travers de ses éléments trouvés dans les mélanges. A cause de leur situation aux limites de marges actives, les mélanges d'accrétion bien préservés permettent de contraindre l'évolution géologique d'anciens océans et de leurs marges. L'identification de vestiges de la Paléotéthys en série d'accrétion ou remaniés lors de l'orogenèse éo-cimmérienne au Trias supérieur, ainsi que l'observation de séquences marginales de Huglu-Pinde en Turquie du sud et dans les Hellénides externes représentent les principaux résultats de ce travail, permettant d'établir de nouvelles corrélations paléogéographiques. Les mélanges de Mersin (Turquie), avec les domaines d'Antalya et de Mamonia (Chypre), sont caractérisés par des unités exotiques se trouvant au sud de la chaîne taurique, et forment les Unités Exotiques Sud-Tauriques. Les mélanges de Mersin sont subdivisés en une unité triasique, et une autre du Crétacé supérieur. Ces unités comprennent les reliques de trois principaux océans téthysiens, la Paléotéthys, la Néotéthys et Huglu-Pinde. L'inventaire et la définition des nappes supérieures d'Antalya (Turquie) sont encore matière à controverse et donne lieu à des interprétations conflictuelles. La découverte de radiolaires campaniens au sommet de l'unité de la Gorge de Kemer, directement recouverts par la formation ordovicienne de Seydisehir de la nappe du Tahtali Dag met en évidence un contact tectonique et démontre que les nappes supérieures sont composées de trois différentes nappes, celle de la Gorge de Kemer, celle du Bakirli et celle Tahtali Dag. De plus, un bloc de calcaire dont la position tectonique demeure incertaine à la base des nappes supérieures a fourni pour la première fois deux associations viséennes de foraminifères et d'algues problématiques. La nappe de Tavas dans les nappes lyciennes (Turquie) est séparée en unités du Karadag, du Teke Dere, de Köycegiz et d'Haticeana. Comme pour les mélanges de Mersin, la nappe de Tavas est composite et inclut des unités appartenant à la Paléotéthys, à la Néotéthys et à Huglu-Pinde. L'unité du Karadag est une plateforme carbonatée de type Gondwana se développant du Dévonien supérieur au Trias supérieur. Elle appartient au domaine cimmérien du Taurus et formait la marge nord de la Néotéthys. L'unité du Teke Dere est composée de différentes écailles paléotéthysiennes et inclut des basaltes d'île océanique du Carbonifère supérieur, des basaltes de ride océanique du Carbonifère, une série siliciclastique du Carbonifère supérieur et un arc du Permien moyen. Les microfaunes et -flores trouvées à différents niveaux de la série du Teke Dere partagent de fortes affinités paléogéographiques avec les marges nord de la Paléotéthys. Des calcaires du Kubergandien en contact primaire au-dessus de la série siliciclastique a donné de riches microfaunes et -flores, également identifiées dans des galets remaniés dans la formation de Gevne du Trias supérieur de l'Aladag. L'évolution sédimentologique des séries de Köycegiz et d'Haticeana sont très similaires aux séries classiques du Pinde. Ces séquences prennent leur racine dans l'océan de Huglu-Pinde, le long de la marge passive nord anatolienne (profil turc) et de la marge de Sitia-Pinde (profil grec). Des conglomérats à la base de l'unité de Lentas au sud de la Crète (Grèce) ont donné des microfaunes et flores partageant également de fortes similitudes avec les bordures nord de la Paléotéthys. Le type de sédiments remaniés à la base d'unités de type Pinde suggère une dérivation depuis la marge active de la Paléotéthys. -Résumé grand public (non-specialized abstract) Au début du 20ème siècle, Alfred Wegener bouleverse les croyances géologiques de l'époque et publie plusieurs articles sur la dérive ou la translation des continents. En utilisant des arguments géographiques (similarités des lignes de côte), paléontologiques (faunes et flores similaires) et climatiques (dépôts tropicaux et glaciaires), Wegener explique qu'il y a plusieurs millions d'années, les terres émergées actuelles ne devaient former qu'un seul et grand continent. La fin du 20ème siècle verra l'avènement de la théorie de la tectonique des plaques suite à la reconnaissance du cycle de Wilson, des rides médio-océaniques, des anomalies magnétiques dans les océans et des sutures océaniques qui représentent les reliques d'océans disparus. Le Cycle de Wilson se caractérise par une suite d'évènements géologiques majeurs pouvant se résumer de la manière suivante : (1) séparation d'un craton continental en deux parties, créant une limite de plaque divergente. C'est ce que l'on appelle un rift; (2) développement et croissance d'un océan entre ces deux blocs. Des roches magmatiques remontent à la surface de la terre et forment une chaîne de montagne sous-marine que l'on appelle ride médio-océanique ou dorsale. L'océan continue de se développer, et des sédiments se déposent à sa surface formant la suite ophiolitique ou trinité de Steinmann; (3) après une phase d'expansion plus ou moins longue, les conditions imposées aux limites des plaques à la surface de la terre changent, et l'océan se met à se refermer par disparition progressive (subduction) de sa croûte océanique sous une croûte continentale par exemple. Ceci crée une nouvelle limite de plaque, convergente cette fois; (4) la subduction de la plaque océanique sous la plaque continentale provoque une remontée de magma formant des chaînes volcaniques à la surface de la Terre ; (5) une fois que la plaque océanique a complètement disparu, les deux blocs préalablement séparés par l'océan font collision, formant ainsi une chaîne de montagne. Les chaînes de montagnes sont de manière générale formées par un empilement plus ou moins complexe de nappes. C'est au coeur de certaines de ces nappes que se trouvent les vestiges de l'océan disparu. Un des objectifs de ce travail était la recherche de ces vestiges dans le domaine téthysien de la Méditerranée orientale. Pour ce faire, nous avons parcourus une grande partie du sud de la Turquie, nous sommes allés à Chypre, dans le Sultanat d'Oman, en Iran, en Crète, et nous avons visités quelques îles grecques du Dodécanèse. La région de la Méditerranée orientale est une zone qui a été tectoniquement très active, et qui continue de l'être de nos jours par des phénomènes de subduction (ex. les volcans de Santorin), et par des mouvements coulissants entre des plaques continentales (ex. la faille nord-anatolienne) qui donnent régulièrement lieu à des tremblements de terre. Pour le géologue, la complexité de ces zones d'étude réside dans le fait que les chaînes de montagne actuelles ne contiennent en général pas seulement les restes d'un océan, mais bien de plusieurs bassins océaniques qui se sont succédés dans l'espace et dans le temps. Les nappes qui se trouvent au sud de la Turquie et dans le Dodécanèse forment un important jalon dans la chaîne alpine qui s'étend depuis les Alpes jusque dans l'Himalaya. L'idée d'un continuum au coeur de ce système se basait principalement sur l'âge des océans et sur la reconnaissance de similarités dans l'évolution des séries sédimentaires. La localisation des vestiges de la Paléotéthys ainsi que l'identification des séries sédimentaires ayant appartenu à l'océan de HugluPinde repris sous forme de nappes en Turquie et en Grèce sont cruciales pour permettre de bonnes corrélations locales et régionales. La reconnaissance, la compréhension et l'interprétation de ces séries sédimentaires permettront d'élaborer un modèle d'évolution géodynamique régional, s'appuyant sur des faits de terrains indiscutables, et prenant en compte les contraintes globales que ce genre d'exercice implique.
Evaluation in vitro de la réactivité des particules fines et ultrafines : rapport scientifique final
Resumo:
Une des percées les plus importantes dans la recherche sur les nanoparticules (ambiantes et manufacturées) a été la reconnaissance de leur potentiel à générer un stress oxydatif au niveau cellulaire. Dans cette optique, la mesure du potentiel oxydant intrinsèque des particules pourrait présenter une première étape dans l'évaluation des dangers. Ce projet méthodologique avait pour but de caractériser le potentiel oxydant de différentes nanoparticules « modèles » (ambiantes et manufacturées) au moyen de trois tests acellulaires (Test DTT, Test DCFH, Test oxymétrique) et d'utiliser ces résultats pour proposer une méthode de « référence ». D'autre part, nous avons appliqué la méthode sélectionnée à deux cas (exposition d'ouvriers à des particules de combustion et évaluation du danger de différentes nanoparticules manufacturées) afin de déterminer quels sont les paramètres qui influencent la mesure. Les résultats obtenus indiquent que la préparation des suspensions joue un rôle dans la mesure de ce potentiel oxydant. La réactivité dépend de la concentration du surfactant et de la durée de sonication. D'autre part, l'ordre de réactivité est dépendant de la métrique utilisée (masse ou surface) pour exprimer les résultats. Parmi les trois tests considérés, le test DTT pourrait être le plus utile pour effectuer une évaluation initiale du danger potentiel de nanoparticules ambiantes ou manufacturées. Ce test pourrait être intégré dans une stratégie d'évaluation de la toxicité des nanoparticules. Le test DTT correspond bien un test intégratif. Pour des situations de travail dans lesquelles les particules de combustion sont majoritaires, les paramètres physico-chimiques qui corrèlent de manière significative avec la réactivité DTT sont la surface des particules, les concentrations de carbone organique, la somme des concentrations de quatre quinones et les concentrations de fer et cuivre. Un nombre plus faible de corrélations est observé dans des ateliers mécaniques, suggérant que d'autres composés non mesurés interviennent également dans cette réactivité. Concernant les nanoparticules carbonées manufacturées, les fonctions chimiques de surface corrélées avec la réactivité DTT sont des fonctions acides et des fonctions inconnues pouvant dismuter. D'autre part, la solubilité et la possibilité de former des complexes avec le DTT sur la surface des NP manufacturées influencent le résultat de réactivité.
Resumo:
Phénomène reconnu de longue date, dont les rhéteurs et les écrivains ont même souvent vanté l'efficacité pour réaliser un portrait moral convaincant, la caractérisation langagière des personnages n'a été que peu observée selon une perspective générale, comme si son étude ne pouvait s'envisager en dehors du projet esthétique d'un auteur particulier. Cependant, on peut envisager la caractérisation langagière comme procédant d'une poétique du récit, c'est-à-dire comme un mécanisme du texte narratif, dont certaines constantes peuvent être décrites. L'objectif du présent travail est ainsi de mettre au jour les conditions, tant textuelles que contextuelles, devant être réunies pour que certains aspects des discours rapportés fassent sens en tant qu'éléments de caractérisation. La nature indirecte de ce phénomène demande en effet de porter une attention particulière à ce qui relève des conditions de production et d'interprétation du texte, autrement dit des éléments contextuels que le texte convoque (liés à la langue, aux genres, au « texte » de la culture, etc.) afin de (re)construire par inférence ce qui est dit « sans être dit ». Ainsi la caractérisation langagière reposet- elle sur la reconnaissance d'un rôle thématique endossé par le personnage, rôle défini en partie par certains « habitus » discursifs. Mais il importe également de considérer la caractérisation langagière comme un effet de la textualité. Cela concerne d'abord des unités manipulées par les auteurs (mots, structures syntaxiques, phonologie...). Néanmoins, rien ne se joue sur un unique élément ; au contraire, d'une part, il faut qu'une série de traits s'organisent en un réseau isotope, et cela de la réplique isolée au texte entier ; d'autre part, la caractérisation dérive encore des relations que le discours d'un personnage entretient avec des discours avoisinants, en premier lieu celui du narrateur. Se concentrant sur des oeuvres comiques ou satiriques des XVIIe et XVIIIe siècles, l'approche proposée ici veut également tenir compte d'une tradition rhétorique et poétique qui associe portrait moral et parole représentée, tradition encore très présente dans un tel corpus, qui a par ailleurs l'avantage de laisser entrer dans le monde de la fiction des personnages de toutes conditions, dotés de leurs langages spécifiques.
Resumo:
La présente thèse met en évidence trois rôles des champignons dans la voie oxalate-carbonate. (i) La dynamique fongique de production des cristaux d'oxalate de calcium montre une diminution du nombre de ces cristaux comparativement à ceux préalablement produits. Afin de confirmer ce résultat, une méthode analytique faisant usage de la chromatographie liquide mesurant l'oxalate total, a été mise en pratique. De plus, des champignons à pourriture blanche ont été cultivés sur un milieu Schlegel couramment utilisé par les bactériologistes pour montrer la dissolution bactérienne des oxalates de calcium. Certains champignons se sont révélés positifs au test. (ii) Une approche en microcosme a été employée pour comprendre le rôle respectif des champignons et des bactéries dans la voie oxalate-carbonate. Champignons et bactéries sont la composante biologique du système oxalate-carbonate et sont donc ajoutés au sol des microcosmes selon les séries : (A) champignons seuls, (B) bactéries seules et (C) champignons et bactéries ensemble. En prenant en considération la variable oxalate et en opérant une approche factorielle en accord avec la théorie de la hiérarchie, les séries additionnelles suivantes ont été étudiées : (D) champignon plus oxalate, (E) bactéries plus oxalate et (F) champignon et bactéries ensemble plus oxalate. En présence d'oxalate de calcium les résultats des quantités de champignon vivant (évaluées par dosage de l'ergostérol) au cours du temps montrent que la rapidité de colonisation des microcosmes est accélérée de trois semaines ; c'est une fertilisation du sol opérée par l'oxalate qui favorise la biomasse vivante du champignon. Les champignons à leur tour survivent sur le long terme (3 mois) seulement en présence des bactéries sinon leur biomasse vivante reste faible. Par conséquent, c'est l'interaction entre champignons et bactéries sous forme de coexistence qui permet leur survie réciproque. Les champignons interagissent en synergie avec les bactéries dans le sol du microcosme mais les bactéries, moteur de l'alcalinisation du sol, survivent plus longtemps et atteignent des populations plus élevées seulement quand le champignon et l'oxalate sont présents. En plus des résultats sur les quantités de champignons et de bactéries, le suivi du pH pour toutes les séries des microcosmes examinées laisse apparaître une propriété émergente. Pour l'unique série (F), il se produit une alcalinisation du milieu de deux unités et demie de pH. L'hypothèse de base selon laquelle l'oxalate est responsable d'une favorisation de la voie oxalate-carbonate a été vérifiée. Le rôle des champignons est de favoriser les populations bactériennes sous l'action fertilisante de l'oxalate. (iii) L'origine du calcium, une des questions à résoudre les plus importantes afin que la voie oxalate-carbonate agisse comme un puits de carbone, a été abordée théoriquement, par une littérature élargie, et expérimentalement en boîte de Pétri, en utilisant la colonisation fongique. Le rôle des champignons est de transloquer et libérer du calcium activement et passivement dans le sol.
Resumo:
Dans le domaine de la perception, l'apprentissage est contraint par la présence d'une architecture fonctionnelle constituée d'aires corticales distribuées et très spécialisées. Dans le domaine des troubles visuels d'origine cérébrale, l'apprentissage d'un patient hémi-anopsique ou agnosique sera limité par ses capacités perceptives résiduelles, mais un déficit de reconnaissance visuelle de nature apparemment perceptive, peut également être associé à une altération des représentations en mémoire à long terme. Des réseaux neuronaux distincts pour la reconnaissance - cortex temporal - et pour la localisation des sons - cortex pariétal - ont été décrits chez l'homme. L'étude de patients cérébro-lésés confirme le rôle des indices spatiaux dans un traitement auditif explicite du « where » et dans la discrimination implicite du « what ». Cette organisation, similaire à ce qui a été décrit dans la modalité visuelle, faciliterait les apprentissages perceptifs. Plus généralement, l'apprentissage implicite fonde une grande partie de nos connaissances sur le monde en nous rendant sensible, à notre insu, aux règles et régularités de notre environnement. Il serait impliqué dans le développement cognitif, la formation des réactions émotionnelles ou encore l'apprentissage par le jeune enfant de sa langue maternelle. Le caractère inconscient de cet apprentissage est confirmé par l'étude des temps de réaction sériels de patients amnésiques dans l'acquisition d'une grammaire artificielle. Son évaluation pourrait être déterminante dans la prise en charge ré-adaptative. [In the field of perception, learning is formed by a distributed functional architecture of very specialized cortical areas. For example, capacities of learning in patients with visual deficits - hemianopia or visual agnosia - from cerebral lesions are limited by perceptual abilities. Moreover a visual deficit in link with abnormal perception may be associated with an alteration of representations in long term (semantic) memory. Furthermore, perception and memory traces rely on parallel processing. This has been recently demonstrated for human audition. Activation studies in normal subjects and psychophysical investigations in patients with focal hemispheric lesions have shown that auditory information relevant to sound recognition and that relevant to sound localisation are processed in parallel, anatomically distinct cortical networks, often referred to as the "What" and "Where" processing streams. Parallel processing may appear counterintuitive from the point of view of a unified perception of the auditory world, but there are advantages, such as rapidity of processing within a single stream, its adaptability in perceptual learning or facility of multisensory interactions. More generally, implicit learning mechanisms are responsible for the non-conscious acquisition of a great part of our knowledge about the world, using our sensitivity to the rules and regularities structuring our environment. Implicit learning is involved in cognitive development, in the generation of emotional processing and in the acquisition of natural language. Preserved implicit learning abilities have been shown in amnesic patients with paradigms like serial reaction time and artificial grammar learning tasks, confirming that implicit learning mechanisms are not sustained by the cognitive processes and the brain structures that are damaged in amnesia. In a clinical perspective, the assessment of implicit learning abilities in amnesic patients could be critical for building adapted neuropsychological rehabilitation programs.]
Resumo:
Introduction : Depuis plusieurs années, la pratique a développé une nouvelle forme d'utilisation de la propriété immobilière : le time-sharing, que l'on appelle aussi couramment propriété en temps partagé ou multipropriété. Son objectif est de permettre à plusieurs personnes de bénéficier du même logement de vacances en prévoyant une répartition temporelle de leur usage. Actuellement, il n'existe dans le système juridique suisse aucune disposition légale qui traite expressément du time-sharing, mais ce concept peut être valablement établi sur la base du droit en vigueur en ayant recours à différentes constructions. En effet, le droit contractuel, le droit des sociétés et les droits réels sont autant de moyens utilisés par la pratique pour atteindre le but fixé. Le choix entre ces diverses alternatives n'est toutefois pas anodin, car il détermine de manière directe la position juridique du time-sharer vis-à-vis des tiers et des personnes qui font partie de la même structure que lui. Le système du time-sharing a suscité un véritable engouement auprès des consommateurs, mais il a également donné lieu à de nombreux abus dont la presse s'est faite l'écho. Pour ces raisons, le législateur envisage aujourd'hui d'introduire des dispositions légales protectrices permettant de délimiter précisément les droits et obligations dont le time-sharer acquiert la titularité. Cette intervention législative ne consiste toutefois pas en une réglementation du time-sharing, mais uniquement en l'élaboration de normes générales qui doivent s'appliquer lors de la conclusion du contrat d'acquisition et qui se veulent compatibles avec les différentes constructions juridiques possibles. Nous avons choisi, pour la présente étude, d'examiner les possibilités qu'offrent les droits réels pour établir le partage de la jouissance d'un appartement et d'analyser la construction qui assure au consommateur la position la plus stable : celle de copropriétaire d'une part de propriété par étages. Les caractéristiques propres au time-sharing qui nous intéresse sont ainsi les suivantes : 1) Le time-sharer est un véritable propriétaire immobilier. Le droit de propriété assure une position forte à son titulaire qui bénéficie alors de tous les attributs et toutes les garanties de ce droit absolu. Mais le fait que plusieurs personnes acquièrent le même objet, nous met en présence du concept de propriété collective qu'il faut analyser afin d'expliquer la construction juridique du time-sharing en droits réels. 2) L'appartement reste toujours le même. L'objectif principal du consommateur est d'acquérir un droit de propriété sur un logement qu'il a lui-même choisi. Nous excluons ainsi les sociétés qui mettent à disposition de leurs membres un choix d'appartements que ce soit contre le versement d'une somme d'argent, par le biais d'un système d'acquisition de points-vacances, ou proportionnellement à l'investissement dans le capital social et le parc immobilier de la société. En outre, bien qu'il soit loisible à tout propriétaire d'entrer en relation avec une société d'échange afin de bénéficier d'un autre appartement, nous n'examinerons pas les rapports juridiques ainsi créés, car ils relèvent du droit contractuel et du droit des sociétés et non des droits réels. 3) L'immeuble est situé en Suisse et il est organisé en propriété par étages avant que les différents appartements qui le constituent ne soient vendus. Malgré le succès connu par le time-sharing hors de nos frontières, nous avons décidé de nous intéresser uniquement au statut réel du time-sharing en droit suisse et non aux divers problèmes qui peuvent surgir en droit international privé face aux contrats passés sous l'empire d'un droit étranger. En outre, comme nous le verrons, la structure de la propriété par étages se révèle être parfaitement adaptée au time-sharing en offrant une organisation élaborée et une communauté bénéficiant de la quasi-personnalité juridique. 4) Il n'y a aucun lien préexistant entre les différents acquéreurs et il n'est, par conséquent, pas nécessaire que l'acquisition de l'appartement se fasse simultanément et de manière collective. Dans la plupart des cas, les acquisitions seront échelonnées dans le temps et les personnes entreront en contact uniquement par le biais de leur logement commun. Le système permet donc une grande indépendance entre les différents membres du time-sharing, autant lors de l'achat que de la revente du droit de jouissance. 5) L'appartement étant vendu à de nombreuses personnes, il est nécessaire de fixer des périodes cycliques de jouissance. Celles-ci sont l'élément essentiel du time-sharing et déterminent le prix de vente par leur durée et par leur situation annuelle en haute saison ou en concordance avec les vacances scolaires. Toutefois, bien d'autres éléments nécessitent d'être règlés au niveau de l'organisation interne pour établir avec précision les droits et obligations de chacun. Le plan de notre étude comporte quatre parties principales qui portent respectivement sur la théorie de la propriété collective, sur les différentes constructions envisageables dans le domaine des droits réels, sur l'organisation de la copropriété fondant le time-sharing et sur l'examen des projets de révisions législatives à la lumière de la copropriété.
Resumo:
A criminal investigation requires to search and to interpret vestiges of a criminal act that happened in a past time. The forensic investigator arises in this context as a critical reader of the investigation scene, in search of physical traces that should enable her to tell a story of the offence/crime which allegedly occurred. The challenge of any investigator is to detect and recognise relevant physical traces in order to provide forensic clues for investigation and intelligence purposes. Inspired by this obser- vation, the current research focuses on the following questions : What is a relevant physical trace? And, how does the forensic investigator know she is facing one ? The interest of such questions is to provide a definition of a dimension often used in forensic science but never studied in its implications and operations. This doctoral research investigates scientific paths that are not often explored in forensic science, by using semiotic and sociological tools combined with statistical data analysis. The results are shown following a semiotic path, strongly influenced by Peir- ce's studies, and a second track, called empirical, where investigations data were analysed and forensic investigators interviewed about their work practices in the field. By the semiotic track, a macroscopic view is given of a signification process running from the discove- red physical trace at the scene to what is evaluated as being relevant for the investigator. The physical trace is perceived in the form of several signs, whose meaning is culturally codified. The reasoning should consist of three main steps : 1- What kind of source does the discovered physical trace refer to ? 2- What cause/activity is at the origin of this source in the specific context of the case ? 3- What story can be told from these observations ? The stage 3 requires to reason in creating hypotheses that should explain the presence of the discovered trace coming from an activity ; the specific activity that is related to the investigated case. To validate this assumption, it would depend on their ability to respond to a rule of relevancy. The last step is the symbolisation of the relevancy. The rule would consist of two points : the recognition of the factual/circumstantial relevancy (Is the link between the trace and the case recognised with the formulated hypothesis ? ) and appropriate relevancy (What investment is required to collect and analyse the discovered trace considering the expected outcome at the investigation/intelligence level?). This process of meaning is based on observations and a conjectural reasoning subject to many influences. In this study, relevancy in forensic science is presented as a conventional dimension that is symbolised and conditioned by the context, the forensic investigator's practice and her workplace environment (culture of the place). In short, the current research states relevancy results of the interactions between parameters from situational, structural (or organisational) and individual orders. The detection, collection and analysis of relevant physical traces at scenes depends on the knowledge and culture mastered by the forensic investigator. In the study of the relation relevant trace-forensic investigator, this research introduces the KEE model as a conceptual map that illustrates three major areas of forensic knowledge and culture acquisition, involved in the research and evaluation of the relevant physical trace. Through the analysis of the investigation data and interviews, the relationship between those three parameters and the relevancy was highlighted. K, for knowing, embodies a rela- tionship to the immediate knowledge allowing to give an overview of the reality at a specific moment ; an important point since relevancy is signified in a context. E, for education, is considered through its relationship with relevancy via a culture that tends to become institutionalised ; it represents the theoretical knowledge. As for the parameter E, for experience, it exists in its relation to relevancy in the adjustments of the strategies of intervention (i.e a practical knowledge) of each practitioner having modulated her work in the light of success and setbacks case after case. The two E parameters constitute the library resources for the semiotic recognition process and the K parameter ensures the contextualisation required to set up the reasoning and to formulate explanatory hypotheses for the discovered physical traces, questioned in their relevancy. This research demonstrates that the relevancy is not absolute. It is temporal and contextual; it is a conventional and relative dimension that must be discussed. This is where the whole issue of the meaning of what is relevant to each stakeholder of the investigation process rests. By proposing a step by step approach to the meaning process from the physical trace to the forensic clue, this study aims to provide a more advanced understanding of the reasoning and its operation, in order to streng- then forensic investigators' training. This doctoral research presents a set of tools critical to both pedagogical and practical aspects for crime scene management while identifying key-influences with individual, structural and situational dimensions. - Une enquête criminelle consiste à rechercher et à faire parler les vestiges d'un acte incriminé passé. L'investigateur forensique se pose dans ce cadre comme un lecteur critique des lieux à la recherche de traces devant lui permettre de former son récit, soit l'histoire du délit/crime censé s'être produit. Le challenge de tout investigateur est de pouvoir détecter et reconnaître les traces dites pertinentes pour fournir des indices forensiques à buts d'enquête et de renseignement. Inspirée par un tel constat, la présente recherche pose au coeur de ses réflexions les questions suivantes : Qu'est-ce qu'une trace pertinente ? Et, comment fait le forensicien pour déterminer qu'il y fait face ? L'intérêt de tels questionnements se comprend dans la volonté de définir une dimension souvent utili- sée en science forensique, mais encore jamais étudiée dans ses implications et fonctionnements. Cette recherche se lance dans des voies d'étude encore peu explorées en usant d'outils sémiotiques et des pratiques d'enquêtes sociologiques combinés à des traitements statistiques de données. Les résultats sont représentés en suivant une piste sémiotique fortement influencée par les écrits de Peirce et une seconde piste dite empirique où des données d'interventions ont été analysées et des investigateurs forensiques interviewés sur leurs pratiques de travail sur le terrain. Par la piste sémiotique, une vision macroscopique du processus de signification de la trace en élément pertinent est représentée. La trace est perçue sous la forme de plusieurs signes dont la signification est codifiée culturellement. Le raisonnement se formaliserait en trois principales étapes : 1- Quel type de source évoque la trace détectée? 2- Quelle cause/activité est à l'origine de cette source dans le contexte précis du cas ? 3- Quelle histoire peut être racontée à partir de ces observations ? Cette dernière étape consiste à raisonner en créant des hypothèses devant expliquer la présence de la trace détectée suite à une activité posée comme étant en lien avec le cas investigué. Pour valider ces hypothèses, cela dépendrait de leur capacité à répondre à une règle, celle de la pertinence. Cette dernière étape consiste en la symbolisation de la pertinence. La règle se composerait de deux points : la reconnaissance de la pertinence factuelle (le lien entre la trace et le cas est-il reconnu dans l'hypothèse fournie?) et la pertinence appropriée (quel est l'investissement à fournir dans la collecte et l'exploitation de la trace pour le bénéfice attendu au niveau de l'investigation/renseignement?). Tout ce processus de signification se base sur des observations et un raisonnement conjectural soumis à de nombreuses influences. Dans cette étude, la pertinence en science forensique se formalise sous les traits d'une dimension conventionnelle, symbolisée, conditionnée par le contexte, la pratique de l'investigateur forensique et la culture du milieu ; en somme cette recherche avance que la pertinence est le fruit d'une interaction entre des paramètres d'ordre situationnel, structurel (ou organisationnel) et individuel. Garantir la détection, la collecte et l'exploitation des traces pertinentes sur les lieux dépend de la connaissance et d'une culture maîtrisées par le forensicien. Dans l'étude du rapport trace pertinente-investigateur forensique, la présente recherche pose le modèle SFE comme une carte conceptuelle illustrant trois grands axes d'acquisition de la connaissance et de la culture forensiques intervenant dans la recherche et l'évaluation de la trace pertinente. Par l'analyse des données d'in- terventions et des entretiens, le rapport entre ces trois paramètres et la pertinence a été mis en évidence. S, pour savoir, incarne un rapport à la connaissance immédiate pour se faire une représentation d'une réalité à un instant donné, un point important pour une pertinence qui se comprend dans un contexte. F, pour formation, se conçoit dans son rapport à la pertinence via cette culture qui tend à s'institutionnaliser (soit une connaissance théorique). Quant au paramètre E, pour expérience, il se comprend dans son rapport à la pertinence dans cet ajustement des stratégies d'intervention (soit une connaissance pratique) de chaque praticien ayant modulé leur travail au regard des succès et échecs enregistrés cas après cas. F et E formeraient la bibliothèque de ressources permettant le processus de reconnaissance sémiotique et S assurerait la contextualisation nécessaire pour poser le raisonnement et formuler les hypothèses explicatives pour les traces détectées et questionnées dans leur pertinence. Ce travail démontre que la pertinence n'est pas absolue. Elle est temporelle et contextuelle, c'est une dimension conventionnelle relative et interprétée qui se doit d'être discutée. C'est là que repose toute la problématique de la signification de ce qui est pertinent pour chaque participant du processus d'investigation. En proposant une lecture par étapes du processus de signification depuis la trace à l'indice, l'étude vise à offrir une compréhension plus poussée du raisonnement et de son fonctionnement pour renforcer la formation des intervenants forensiques. Cette recherche présente ainsi un ensemble d'outils critiques à portée tant pédagogiques que pratiques pour la gestion des lieux tout en identifiant des influences-clé jouées par des dimensions individuelles, structurelles et situationnelles.
Resumo:
RÉSUMÉ Les kinases activées par des mitogènes (MAPKs) constituent une importante famille d'enzymes conservée dans l'évolution. Elles forment un réseau de signalisation qui permet à la cellule de réguler spécifiquement divers processus impliqués dans la différenciation, la survie ou l'apoptose. Les kinases formant le module MAPK sont typiquement disposées en cascades de trois partenaires qui s'activent séquentiellement par phosphorylation. Le module minimum est constitué d'une MAPK kinase kinase (MAPKKK), d'une MAPK kinase (MAPKK) et d'une MAPK. Une fois activée, la MAPK phosphoryle différents substrats tels que des facteurs de transcription ou d'autres protéines. Chez les mammifères, trois groupes principaux de MAPKs ont été identifiés. Il s'agit du groupe des kinases régulées par des signaux extracellulaires du type «mitogènes » (ERK), ainsi que des groupes p38 et cJun NH2-terminal kinase (JNK), ou SAPK pour stress activated protein kinase, plutôt activées par des stimuli de type «stress ». De nombreuses études ont impliqué JNK dans la régulation de différents processus physiologiques et pathologiques, comme le diabète, les arthrites rhumatoïdes, l'athérosclérose, l'attaque cérébrale, les maladies de Parkinson et d'Alzheimer. JNK, en particulier joue un rôle dans la mort des cellules sécrétrices d'insuline induite par l'interleukine (IL)-1 β, lors du développement du diabète de type 1. IB1 est une protéine scaffold (échafaud) qui participe à l'organisation du module de JNK. IB1 est fortement exprimée dans les neurones et les cellules β du pancréas. Elle a été impliquée dans la survie des cellules, la régulation de l'expression du transporteur du glucose de type 2 (Glut-2) et dans le processus de sécrétion d'insuline glucose-dépendante. IBl est caractérisée par plusieurs domaines d'interaction protéine-protéine : un domaine de liaison à JNK (JBD), un domaine homologue au domaine 3 de Src (SH3) et un domaine d'interaction avec des tyrosines phosphorylées (PID). Des partenaires d'IB1, incluant les membres de la familles des kinases de lignée mélangée (MLKs), la MAPKK MKK7, la phosphatase 7 des MAPKs (MKP-7) ainsi que la chaîne légère de la kinésine, ont été isolés. Tous ces facteurs, sauf les MLKs et MKK7 interagissent avec le domaine PID ou l'extrême partie C-terminale d'IBl (la chaîne légère de la kinésine). Comme d'autres protéines scaffolds déjà décrites, IBl et un autre membre de la famille, IB2, sont capables d'homo- et d'hétérodimériser. L'interaction a lieu par l'intermédiaire de leur région C-terminale, contenant les domaines SH3 et PID. Mais ni le mécanisme moléculaire, ni la fonction de la dimérisation n'ont été caractérisés. Le domaine SH3 joue un rôle central lors de l'assemblage de complexes de macromolécules impliquées dans la signalisation intracellulaire. Il reconnaît de préférence des ligands contenant un motif riche en proline de type PxxP et s'y lie. Jusqu'à maintenant, tous les ligands isolés se liant à un domaine SH3 sont linéaires. Bien que le domaine SH3 soit un domaine important de la transmission des signaux, aucun partenaire interagissant spécifiquement avec le domaine SH3 d'IB1 n'a été identifié. Nous avons démontré qu'IBl homodimérisait par un nouveau set unique d'interaction domaine SH3 - domaine SH3. Les études de cristallisation ont démontré que l'interface recouvrait une région généralement impliquée dans la reconnaissance classique d'un motif riche en proline de type PxxP, bien que le domaine SH3 d'IB1 ne contienne aucun motif PxxP. L'homodimère d'IB1 semble extrêmement stable. Il peut cependant être déstabilisé par trois mutations ponctuelles dirigées contre des résidus clés impliqués dans la dimérisation. Chaque mutation réduit l'activation basale de JNK dépendante d'IB 1 dans des cellules 293T. La déstabilisation de la dimérisation induite par la sur-expression du domaine SH3, provoque une diminution de la sécrétion d'insuline glucose dépendant. SUMMARY Mitogen activated kinases (MAPK) are an important and conserved enzyme family. They form a signaling network required to specifically regulate process involved in cell differentiation, proliferation or death. A MAPK module is typically organized in a threekinase cascade which are activated by sequential phosphorylation. The MAPK kinase kinase (MAPKKK), the MAPK kinase (MAPKK) and the MAPK constitute the minimal module. Once activated, the MAPK phosphorylates its targets like transcription factors or other proteins. In mammals, three major groups of MAPKs have been identified : the group of extra-cellular regulated kinase (ERK) which is activated by mitogens and the group of p38 and cJun NH2-terminal kinase (JNK) or SAPK for stress activated protein kinase, which are activated by stresses. Many studies implicated JNK in many physiological or pathological process regulations, like diabetes, rheumatoid arthritis, arteriosclerosis, strokes or Parkinson and Alzheimer disease. In particular, JNK plays a crucial role in pancreatic β cell death induced by Interleukin (IL)-1 β in type 1 diabetes. Islet-brain 1 (IB 1) is a scaffold protein that interacts with components of the JNK signal-transduction pathway. IB 1 is expressed at high levels in neurons and in pancreatic β-cells, where it has been implicated in cell survival, in regulating expression of the glucose transporter type 2 (Glut-2) and in glucose-induced insulin secretion. It contains several protein-protein interaction domains, including a JNK-binding domain (JBD), a Src homology 3 domain (SH3) and a phosphotyrosine interaction domain (PID). Proteins that have been shown to associate with IB 1 include members of the Mixed lineage kinase family (MLKs), the MAPKK MKK7, the MAPK phosphatase-7 MKP7, as well as several other ligands including kinesin light chain, LDL receptor related family members and the amyloid precursor protein APP. All these factors, except MLK3 and MKK7 have been shown to interact with the PID domain or the extreme C-terminal part (Kinesin light chain) of IB 1. As some scaffold already described, IB 1 and another member of the family, IB2, have previously been shown to engage in oligomerization through their respective C-terminal regions that include the SH3 and PID domains. But neither the molecular mechanisms nor the function of dimerization have yet been characterized. SH3 domains are central in the assembly of macromolecular complexes involved in many intracellular signaling pathways. SH3 domains are usually characterized by their preferred recognition of and association with canonical PxxP motif. In all these cases, a single linear sequence is sufficient for binding to the SH3 domain. However, although SH3 domains are important elements of signal transduction, no protein that interacts specifically with the SH3 domain of IB 1 has been identified so far. Here, we show that IB 1 homodimerizes through a navel and unique set of SH3-SH3 interactions. X-ray crystallography studies indicate that the dieter interface covers a region usually engaged in PxxP-mediated ligand recognition, even though the IB 1 SH3 domain lacks this motif. The highly stable IB 1 homodimer can be significantly destabilized in vitro by individual point-mutations directed against key residues involved in dimerization. Each mutation reduces IB 1-dependent basal JNK activity in 293T cells. Impaired dimerization induced by over-expression of the SH3 domain also results in a significant reduction in glucose-dependent insulin secretion in pancreatic β-cells.
Resumo:
Abstract De nature interdisciplinaire, ma thèse de doctorat porte sur les récits littéraires traditionnellement nommés de «science-fiction» - peu étudiés dans le milieu universitaire jusqu'à maintenant - et, plus particulièrement, sur le dialogue critique que ce genre littéraire peut instituer entre tout lecteur et la société technoscientifique au sein de laquelle il évolue au quotidien. Afin que cette tâche puisse être menée de manière rigoureuse, j'ai été conduit à faire entrer en résonance divers champs cognitifs non nécessairement liés a priori, à savoir les études littéraires (théorie de la mimèsis, théorie de la réception, théorie schaefferienne de la fiction et situations-limites sartriennes), anthropologiques (fonction du récit chez Jean Molino et Jérôme Brunner), économiques (histoire et théories du libéralisme), philosophiques (méditations heisenbergienne et heideggérienne sur la technique) et épistémologiques (liens entre technologies, sciences et société). En débutant par une réflexion historique sur l'émergence de la science moderne et du libéralisme économique, il s'agissait pour moi de montrer qu'entre ces deux savoirs, une alliance originale s'est nouée et ce, dès la fin du XVIIIe siècle : l'un a besoin de l'autre, et réciproquement. Il est ensuite mis en lumière qu'à la naissance de la science-fiction à la fin du XIXe siècle, correspond la nécessité, pour certains écrivains du moins, de réfléchir à l'évolution technoscientifique prise par la société de leur temps, ainsi qu'aux conséquences que ce progrès pourrait induire sur l'être humain en tant que sujet moral - une problématisation du rapport homme/technoscience par le biais de la fiction, donc. Lors de cette partie, je discute, d'une part, des éléments fondamentaux qui sont essentiels pour établir une poétique originale de la science-fiction - la conjecture, la structure des univers et les thèmes - et, d'autre, part, des distinctions génériques qu'il est important de discerner - j'en délimite trois : science-fiction «apologétique », «neutre » et «critique ». Finalement, mon travail se conclut par une réflexion, à partir de la pensée de Hans Jonas et de Jean-Pierre Dupuy, sur la fonction active que peuvent jouer les romans de science-fiction au niveau éthique. Pour le dire autrement, la fin de mon étude propose, en premier lieu, d'esquisser une «pragmatique de la science-fiction» ; puis, en second lieu, mon enquête stipule que la prise en charge sérieuse de ces récits conduit à la possibilité de concevoir une forme particulière de «catastrophisme éclairé », que j'appelle «heuristique du catastrophisme éclairé » conjurer les dangers et les périls qui pourraient éventuellement nous menacer, c'est avant tout croire qu'ils pourraient se réaliser si on ne les pense pas ou si on n'agit pas. Cette étape, souhaitée par les éthiciens, est justement celle qui me semble caractériser les récits de science-fiction critique. En ce sens, je montre que si la science-fiction écrit «demain », ce n'est en tout cas pas pour le fantasmer ou le prédire, mais, au contraire, pour mieux penser ce qui lui donne forme : l'« aujourd'hui ».
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
Le rapport international le plus récent concernant la maltraitance infantile date de 2006 : il s'agit du Rapport mondial sur la violence contre les enfants, du Secrétaire général des Nations Unies (1). La définition retenue pour la maltraitance infantile s'inspire de celle du Rapport mondial sur la violence et la santé, de l'OMS en 2002 (2) : «La menace ou l'utilisation intentionnelle de la force physique ou du pouvoir contre un enfant par un individu ou un groupe qui entraîne ou risque fortement de causer un préjudice à la santé, à la survie, au développement ou à la dignité de l'enfant.». Il existe différentes formes de maltraitance : - la maltraitance physique (brutalités, coups, blessures, brûlures, etc.) la maltraitance psychologique (insultes, humiliation, isolement, terroriser l'enfant, etc.) - la maltraitance sexuelle (exhibitionnisme, attouchements, relations sexuelles, etc.) - les négligences (manque d'attention et de soins) Dans la majorité des cas, plusieurs formes de maltraitances sont présentes chez un enfant victime de mauvais traitements ; elles se chevauchent (3). L'Observatoire national de l'Action Sociale Décentralisée (ODAS) a réalisé une classification des enfants à protéger, les définitions sont les suivantes (4): L'enfant maltraité est « celui qui est victime de violences physiques, d'abus sexuels, de cruauté mentale, de négligences lourdes ayant des conséquences sur son développement physique et psychologique. » L'enfant en risque est « celui qui connaît des conditions d'existence qui risquent de mettre en danger sa santé, sa sécurité, sa moralité, son éducation ou son entretien, mais qui n'est pas pour autant maltraité. » L'enfant en souffrance est « un enfant aimé et soigné mais qui souffre des conditions d'existences qui fragilisent ou menacent son développement et son épanouissement personnel. » En Suisse, peu de données sont disponibles concernant la prévalence de la maltraitance étant donné la difficulté à récolter des données. Selon l'Office Fédéral de la Statistique suisse, les résultats d'une étude de 2004 montre une diminution des châtiments corporels par rapport à une étude semblable réalisée 12 ans auparavant (5). Cependant, la maltraitance infantile est un problème de santé publique du fait de la gravité de ses conséquences sur la santé physique, mentale et sociale de l'individu et de son retentissement sur la communauté ainsi que de sa fréquence estimée dans la population suisse. Elle a des effets néfastes sur la santé de l'enfant par mortalité directe ou morbidité directe ou indirecte et représente également un facteur de risque pour la santé physique et mentale, le développement et les perspectives de réalisation personnelle du jeune adulte et de l'adulte (6). On sait aujourd'hui que le nombre de cas de maltraitance signalés en Suisse est en augmentation. Ceci démontre que la maltraitance est un phénomène courant. Cependant, les professionnels ne pensent pas MF / Travail de master en médecine / 2011-2012 3 que le phénomène de la maltraitance infantile soit en augmentation, mais que les cas de maltraitance sont mieux repérés, que les professionnels s'occupant d'enfants sont plus sensibles à cette problématique et qu'il y a donc davantage de signalements (7). La prévention de la maltraitance est nécessaire et possible. Des interventions ont établi leur efficacité et il a été démontré que plus l'intervention est précoce, plus elle a de chances de réussite (2). C'est la raison pour laquelle il est important de repérer les cas de maltraitance précocement afin de pouvoir intervenir, aider les familles et garantir la protection de l'enfant. Des mesures de prévention ont été mises en place au niveau international, comme au niveau fédéral, pour assurer la reconnaissance et la prise en charge de l'enfant victime de maltraitance. Au niveau international, la Convention internationale des droits de l'enfant a été adoptée par l'Assemblée Générale en 1989 (8). Elle reconnaît l'enfant comme personne indépendante ayant des droits propres. Cette convention est divisée en quatre parties comportant : les principes directeurs (la non-discrimination, viser les meilleurs intérêts pour l'enfant, le droit de vivre, de survivre et de se développer, le droit de participation), les droits de survie et de développement (le droit à avoir les ressources, les compétences et les contributions nécessaires pour pouvoir survivre et pouvoir profiter d'un développement complet), les droits de protection (de toutes les formes de maltraitance envers les enfants, négligences, exploitation et cruauté), les droits de participation (la liberté d'expression de leurs opinions, de parler de sujets qui concernent leur vie sociale, économique, religieuse, culturelle ou politique et d'être écouté, la liberté d'information et la liberté d'association). Les stratégies de prévention de la maltraitance infantile visent à réduire les causes sous- jacentes et les facteurs de risque, tout en renforçant les facteurs de protection, de façon à prévenir de nouveaux cas (9). Elles comprennent : les stratégies sociétales et communautaires (mise en place de réformes juridiques et des droits de la personne humaine, instauration des politiques sociales et économiques favorables, correction des normes sociales et culturelles, réduction des inégalités économiques, réduction du facteur de risque environnemental, formation des professionnels), les stratégies relationnelles (formation parentale et des adultes s'occupant d'enfants), les stratégies individuelles (apprendre aux enfants à reconnaître et à éviter les situations de violence potentielle). En plus des mesures structurelles mises en place par les états (scolarisation obligatoire, dispositif légal, service de protection des enfants et des jeunes, services de santé spécialisés, etc.), des associations de lutte contre la maltraitance infantile existent et jouent également un rôle important dans la prévention. Par exemple, la Fondation Suisse pour la Protection de l'Enfant s'emploie à analyser les causes de la violence envers les MF / Travail de master en médecine / 2011-2012 4 enfants et à les combattre, à protéger les enfants contre la violence physique, psychologique, sexuelle et structurelle ainsi que contre la négligence par le biais d'un travail de prévention ciblé à l'échelle nationale. Elle vise également à apprendre aux enfants comment se protéger eux-mêmes et demander de l'aide, à sensibiliser les adultes qui les entourent au fait que les enfants ont une personnalité propre et qu'ils ont le droit d'être protégés et encouragés et à demander au niveau politique que l'on mette en place des structures adaptées aux enfants (10).
Resumo:
Résumé Le trouble somatoforme douloureux persistant et le syndrome de fatigue chronique constituent des entités cliniques qui incarnent la position particulière du corps dans notre société actuelle. Tous les deux se situent dans un carrefour entre le psychique et le somatique, en interaction étroite avec l'entourage socioculturel, soulignant ainsi la nécessité de considérer l'être humain dans son intégralité. La société actuelle, pauvre en repères collectifs, où l'exaltation de l'individualité est un critère primordial et où le corps social réparateur n'existe pas, provoque une grand mal être. Le sentiment de ne pas être reconnu dans son intériorité est incorporé et après s'exprime ensuite sous la forme d'une plainte douloureuse. Le contexte de l'émigration et celui des systèmes de prévoyance sociale dans les pays occidentaux, sont des exemples de conditions qui favorisent le changement dans la dynamique de la maladie. En s'appuyant sur la représentation du corps dans un moment historique précis, l'homme cherche à exprimer une souffrance profonde dans le vécu de soi-même, qui n'a pas accès à d'autres voies d'expression. Le contexte social, culturel, médical, professionnel, lui facilite les moyens d'obtenir la reconnaissance de son affliction sans être exclu du groupe d'appartenance sociale. Les deux symptômes, douleur et fatigue, rassemblent les conditions nécessaires, dans la conception actuelle du corps, sociale et médicale, pour transporter le désir et la demande d'une partie de la société qui ne peut pas exprimer sa souffrance.