999 resultados para Apprentissage de contenu
Resumo:
Sur le plan économique, le système de genre est une pierre angulaire du discours publicitaire. Il intervient dans la segmentation des marchés, dans la sélection des médias et des supports, dans l'apparence extérieure des produits, dans le ton des campagnes, dans le choix des arguments de vente et, bien sûr, dans les scripts des annonces qui mettent en scène, en grand nombre, des êtres humains. En contrepartie, sur le plan symbolique, le discours publicitaire est un dépositaire privilégié des imaginaires de genre qui circulent dans son contexte de production et de diffusion. En cette qualité, confronté aux lois d'un marché toujours plus concurrentiel, à une segmentation plus fine des cibles, à la multiplication des supports, à l'instabilité croissante des consommateurs ainsi qu'à une critique médiatique, académique et publique toujours prompte à relever sa tendance au stéréotypage, le discours publicitaire est amené à proposer des représentations des hommes et des femmes de plus en plus variées et complexes. La présente étude, qui relève de l'analyse linguistique des discours, a pour objectif d'entrer dans la complexité de ces variations publicitaires contemporaines sur le féminin et le masculin et de déchiffrer les imaginaires de genre qu'elles contribuent à construire. Après un état des lieux des travaux consacrés à la représentation publicitaire des sexes ainsi qu'une présentation détaillée des jalons théoriques et méthodologiques de l'approche adoptée, une analyse de contenu, réalisée sur la base d'un corpus de plus 1200 annonces, met en évidence les configurations récurrentes du masculin et du féminin dans la production publicitaire contemporaine de presse magazine. Une analyse textuelle et critique interroge ensuite le rôle de la langue dans le processus de schématisation des imaginaires publicitaires de genre. Dans un premier temps, grâce à une prise en compte des déterminations prédiscursive et discursive des représentations publicitaires du féminin et du masculin, cette analyse montre comment le discours publicitaire, en plus de différencier radicalement le féminin et le masculin, tend à essentialiser cette différenciation au travers de deux procédés discursifs d'idéologisation, la catégorisation et la généralisation. Dans un second temps, un inventaire thématique des variations publicitaires contemporaines sur le genre permet d'évaluer la perméabilité du discours publicitaire à la reconfiguration du système de genre qui est en marche dans notre société depuis la seconde moitié du vingtième siècle. La présente recherche, qui entend globalement déconstruire ce qui prend trop souvent l'apparence d'évidences et soumettre à débat des interprétations, thématise par ailleurs la question de la dimension politique des recherches académiques.
Resumo:
Crystallisation of hydrous mafic magmas at high pressure is a subject of numerous petrologic and experimental studies since the last century and is mainly related to the process of continental crust formation and the possible link between mantle derived melts and low pressure granitoids. Albeit the sequence of crystallization is well constrained by experimental studies, the origin of exposed lower crustal rocks exposed on the earth surface is controversial. Ones line of argument is favouring high pressure crystallization of dry or wet mafic magmas, whereas others invoke partial melting of pre-existing crust. Therefore studies involving field, textural and chemical observations of exposed lower crust such as in Kohistan (Pakistan) or Talkeetna (Alaska) are crucial to understand the continental crust formation processes via arc magmatism. Epidote-bearing gabbros are very sparse and always associated with the deep part of continental crust (>30 km) as in the Kohistan Arc Complex (Pakistan) or in the Chelan Complex (western U.S.). Magmatic epidote is restricted to a small temperature interval above the water-saturated solidus of MORB and represent the last crystallizing liquids in lower crustal regions. However, epidote and melt stability at lower crustal pressures are not clearly established.¦The Chelan complex (western U.S.) at the base of the Cascadian Arc is composed mainly by peraluminous tonalité associated with gabbroic and ultramafic rocks and was traditionally interpreted as a migmatitic terrain. However field, chemical and mineralogical observations rather suggest a magmatic origin and point to a protracted crystallization at intermediate to high pressure ~ 1.0 GPa dominated by amphibole fractionation and followed by isobaric cooling down to 650°C. Crystal fractionation modelling using whole rock composition and field constraints is able to generate peraluminous tonalité. The modelled crystallisation sequence and the volume proportions are in agreement with experimental studies performed at these pressures. The Chelan complex was thus not formed during a partial melting event, but represent the sequence of crystallisation occurring at the base of the crust. Massive fractionation of hornblende is able to generate peraluminous tonalité without significant assimilation of crustal rock.¦Similarly to the Chelan complex, the base of the Kohistan arc is composed of cumulates derived by high pressure crystallization of hydrous magma. In garnet gabbros, epidote occurs as magmatic phase, crystallising from hydrous interstitial melt trapped between grain boundaries at lower crustal pressures (Ρ ~ 1.2 GPa) for temperature of (650-700 °C). Trace and REE signature in epidote indicate that epidote was formed through peritectic reaction involving garnet, clinopyroxene and plagioclase. At the beginning of the crystallisation epidote signature is dominated by REE content in the melt, whereas at the end the signature is dominated by reacting phases. Melt in equilibrium with epidote inferred from the partition coefficients available is similar to intrusive tonalité up the section indicating that hydrous melt was extracted from the garnet gabbros. In some gabbros epidote shows single homogeneous compositions, while in others coexisting epidote have different compositions indicating the presence of solvi along the Al-Fe3+ join. The overgowths are only observed in presence of paragonite in the assemblage, suggesting high water content. At high water content, the hydrous solidus is shift to lower temperature and probably intersects the solvi observed along the Al-Fe3+ join. Therefore, several compositions of epidote is stable at high water content.¦-¦La composition chimique de la croûte continentale est considérée comme similaire à celle du magmatisme calco-alcalin de marge continentale active (enrichissement en éléments mobiles dans les fluides, anomalies négatives en Nb, Ta et éléments à haut potentiel électronique, etc...). Cependant la nature andésitique de la croûte continentale (Si02 > 60 wt%), résultant des nombreuses intrusions de granitoïdes dans la croûte supérieure, est sujette à polémique et le lien entre les magmas dérivés du manteau et les roches évoluées de faible profondeur n'est pas clairement établi (fusion partielle de croûte basaltique, cristallisation fractionnée à haute pression, etc...).¦Les affleurements de croûte profonde sont rares mais précieux, car ils permettent d'observer les phénomènes se passant à grande profondeur. Le complexe de Chelan (Washington Cascades) en est un exemple. Formé à environ 30 km de profondeur, il est composé de roches gabbroïques et ultramafiques, ainsi que de tonalités, qui furent souvent interprétés comme le produit de la fusion partielle de la croûte. Cependant, les relations de terrain, la chimie des éléments majeurs et des éléments traces sont cohérentes avec l'évolution d'un complexe magmatique mafique dans la croûte profonde ou moyenne ( 1.0 GPa), dominée par le fractionnement de l'amphibole. Après son emplacement, le complexe a subi un refroidissement isobare jusqu'à des températures de l'ordre de 650 °C, déduit de la composition chimique des minéraux. Un bilan de masse contraint pax les observations de terrain permet de calculer la séquence et les volumes de fractionnement. Les faciès évolués légèrement hyperalumineux observés sur le terrain peuvent être générés par la cristallisation de 3 % de websterite à olivine, 12 % d'hornblendite à pyroxène 33 % d'hornblendite, 19 % de gabbros, 15 % de diorite et 2 % de tonalité. Nous montrons ainsi qu'une série de fractionnement contrôlée par l'amphibole permet de générer des tonalités sans assimilation de matériel crustal et l'exemple de Chelan illustre la viabilité de ce processus dans la formation de croûte continentale.¦Les réactions proches du solidus saturé en H20 dans les systèmes basaltiques à des pressions élevées restent énigmatiques. Diverses expériences tendent à montrer que l'épidote est stable dans ces conditions, mais rarement observée (décrite ?) comme phase primaire dans les systèmes naturels. Les épidotes trouvées dans les gabbros de Jijal (nord-Pakistan) montrent des textures de type .magmatique telles qu'observées dans les roches évoluées. Le contenu en terres rares de ces épidotes est très variable allant de signatures enrichies en terres rares légères impliquant la présence de liquide interstitiel à des signatures complètement déprimées en ces mêmes éléments, évoquant une cristallisation en coexistence avec du grenat. Ces diverses signatures reflètent un chemin de cristallisation en présence de liquide interstitiel et enregistrent des réactions péritectiques impliquant grenat, clinopyroxene et plagioclase à des pressions de ~ 1.2 GPa pour des températures de 650-700 °C. Cependant dans quelques échantillons deux ou trois compositions d'épidotes coexistent démontrant la présence de lacunes d'immiscibilité le long de la solution solide épidote-clinozoïsite. La forte teneur en H20 du liquide magmatique est certainement à l'origine de la coexistence de deux compositions distinctes.
Resumo:
Après une revue de la littérature concernant les médias utilisés dans le cadre de campagne de prévention, le matériel d'exposition est présenté. Le contenu et les moyens mis en oeuvre ne sont traités que dans la mesure où ils influencent directement la présentation du matériel. Enfin pour clore ce travail, une discussion concernant les possibilités et difficultés d'évaluation de ces actions de diffusion de l'information. [Auteur, p. 2]
Resumo:
Les plantes sont essentielles pour les sociétés humaines. Notre alimentation quotidienne, les matériaux de constructions et les sources énergétiques dérivent de la biomasse végétale. En revanche, la compréhension des multiples aspects développementaux des plantes est encore peu exploitée et représente un sujet de recherche majeur pour la science. L'émergence des technologies à haut débit pour le séquençage de génome à grande échelle ou l'imagerie de haute résolution permet à présent de produire des quantités énormes d'information. L'analyse informatique est une façon d'intégrer ces données et de réduire la complexité apparente vers une échelle d'abstraction appropriée, dont la finalité est de fournir des perspectives de recherches ciblées. Ceci représente la raison première de cette thèse. En d'autres termes, nous appliquons des méthodes descriptives et prédictives combinées à des simulations numériques afin d'apporter des solutions originales à des problèmes relatifs à la morphogénèse à l'échelle de la cellule et de l'organe. Nous nous sommes fixés parmi les objectifs principaux de cette thèse d'élucider de quelle manière l'interaction croisée des phytohormones auxine et brassinosteroïdes (BRs) détermine la croissance de la cellule dans la racine du méristème apical d'Arabidopsis thaliana, l'organisme modèle de référence pour les études moléculaires en plantes. Pour reconstruire le réseau de signalement cellulaire, nous avons extrait de la littérature les informations pertinentes concernant les relations entre les protéines impliquées dans la transduction des signaux hormonaux. Le réseau a ensuite été modélisé en utilisant un formalisme logique et qualitatif pour pallier l'absence de données quantitatives. Tout d'abord, Les résultats ont permis de confirmer que l'auxine et les BRs agissent en synergie pour contrôler la croissance de la cellule, puis, d'expliquer des observations phénotypiques paradoxales et au final, de mettre à jour une interaction clef entre deux protéines dans la maintenance du méristème de la racine. Une étude ultérieure chez la plante modèle Brachypodium dystachion (Brachypo- dium) a révélé l'ajustement du réseau d'interaction croisée entre auxine et éthylène par rapport à Arabidopsis. Chez ce dernier, interférer avec la biosynthèse de l'auxine mène à la formation d'une racine courte. Néanmoins, nous avons isolé chez Brachypodium un mutant hypomorphique dans la biosynthèse de l'auxine qui affiche une racine plus longue. Nous avons alors conduit une analyse morphométrique qui a confirmé que des cellules plus anisotropique (plus fines et longues) sont à l'origine de ce phénotype racinaire. Des analyses plus approfondies ont démontré que la différence phénotypique entre Brachypodium et Arabidopsis s'explique par une inversion de la fonction régulatrice dans la relation entre le réseau de signalisation par l'éthylène et la biosynthèse de l'auxine. L'analyse morphométrique utilisée dans l'étude précédente exploite le pipeline de traitement d'image de notre méthode d'histologie quantitative. Pendant la croissance secondaire, la symétrie bilatérale de l'hypocotyle est remplacée par une symétrie radiale et une organisation concentrique des tissus constitutifs. Ces tissus sont initialement composés d'une douzaine de cellules mais peuvent aisément atteindre des dizaines de milliers dans les derniers stades du développement. Cette échelle dépasse largement le seuil d'investigation par les moyens dits 'traditionnels' comme l'imagerie directe de tissus en profondeur. L'étude de ce système pendant cette phase de développement ne peut se faire qu'en réalisant des coupes fines de l'organe, ce qui empêche une compréhension des phénomènes cellulaires dynamiques sous-jacents. Nous y avons remédié en proposant une stratégie originale nommée, histologie quantitative. De fait, nous avons extrait l'information contenue dans des images de très haute résolution de sections transverses d'hypocotyles en utilisant un pipeline d'analyse et de segmentation d'image à grande échelle. Nous l'avons ensuite combiné avec un algorithme de reconnaissance automatique des cellules. Cet outil nous a permis de réaliser une description quantitative de la progression de la croissance secondaire révélant des schémas développementales non-apparents avec une inspection visuelle classique. La formation de pôle de phloèmes en structure répétée et espacée entre eux d'une longueur constante illustre les bénéfices de notre approche. Par ailleurs, l'exploitation approfondie de ces résultats a montré un changement de croissance anisotropique des cellules du cambium et du phloème qui semble en phase avec l'expansion du xylème. Combinant des outils génétiques et de la modélisation biomécanique, nous avons démontré que seule la croissance plus rapide des tissus internes peut produire une réorientation de l'axe de croissance anisotropique des tissus périphériques. Cette prédiction a été confirmée par le calcul du ratio des taux de croissance du xylème et du phloème au cours de développement secondaire ; des ratios élevés sont effectivement observés et concomitant à l'établissement progressif et tangentiel du cambium. Ces résultats suggèrent un mécanisme d'auto-organisation établi par un gradient de division méristématique qui génèrent une distribution de contraintes mécaniques. Ceci réoriente la croissance anisotropique des tissus périphériques pour supporter la croissance secondaire. - Plants are essential for human society, because our daily food, construction materials and sustainable energy are derived from plant biomass. Yet, despite this importance, the multiple developmental aspects of plants are still poorly understood and represent a major challenge for science. With the emergence of high throughput devices for genome sequencing and high-resolution imaging, data has never been so easy to collect, generating huge amounts of information. Computational analysis is one way to integrate those data and to decrease the apparent complexity towards an appropriate scale of abstraction with the aim to eventually provide new answers and direct further research perspectives. This is the motivation behind this thesis work, i.e. the application of descriptive and predictive analytics combined with computational modeling to answer problems that revolve around morphogenesis at the subcellular and organ scale. One of the goals of this thesis is to elucidate how the auxin-brassinosteroid phytohormone interaction determines the cell growth in the root apical meristem of Arabidopsis thaliana (Arabidopsis), the plant model of reference for molecular studies. The pertinent information about signaling protein relationships was obtained through the literature to reconstruct the entire hormonal crosstalk. Due to a lack of quantitative information, we employed a qualitative modeling formalism. This work permitted to confirm the synergistic effect of the hormonal crosstalk on cell elongation, to explain some of our paradoxical mutant phenotypes and to predict a novel interaction between the BREVIS RADIX (BRX) protein and the transcription factor MONOPTEROS (MP),which turned out to be critical for the maintenance of the root meristem. On the same subcellular scale, another study in the monocot model Brachypodium dystachion (Brachypodium) revealed an alternative wiring of auxin-ethylene crosstalk as compared to Arabidopsis. In the latter, increasing interference with auxin biosynthesis results in progressively shorter roots. By contrast, a hypomorphic Brachypodium mutant isolated in this study in an enzyme of the auxin biosynthesis pathway displayed a dramatically longer seminal root. Our morphometric analysis confirmed that more anisotropic cells (thinner and longer) are principally responsible for the mutant root phenotype. Further characterization pointed towards an inverted regulatory logic in the relation between ethylene signaling and auxin biosynthesis in Brachypodium as compared to Arabidopsis, which explains the phenotypic discrepancy. Finally, the morphometric analysis of hypocotyl secondary growth that we applied in this study was performed with the image-processing pipeline of our quantitative histology method. During its secondary growth, the hypocotyl reorganizes its primary bilateral symmetry to a radial symmetry of highly specialized tissues comprising several thousand cells, starting with a few dozens. However, such a scale only permits observations in thin cross-sections, severely hampering a comprehensive analysis of the morphodynamics involved. Our quantitative histology strategy overcomes this limitation. We acquired hypocotyl cross-sections from tiled high-resolution images and extracted their information content using custom high-throughput image processing and segmentation. Coupled with an automated cell type recognition algorithm, it allows precise quantitative characterization of vascular development and reveals developmental patterns that were not evident from visual inspection, for example the steady interspace distance of the phloem poles. Further analyses indicated a change in growth anisotropy of cambial and phloem cells, which appeared in phase with the expansion of xylem. Combining genetic tools and computational modeling, we showed that the reorientation of growth anisotropy axis of peripheral tissue layers only occurs when the growth rate of central tissue is higher than the peripheral one. This was confirmed by the calculation of the ratio of the growth rate xylem to phloem throughout secondary growth. High ratios are indeed observed and concomitant with the homogenization of cambium anisotropy. These results suggest a self-organization mechanism, promoted by a gradient of division in the cambium that generates a pattern of mechanical constraints. This, in turn, reorients the growth anisotropy of peripheral tissues to sustain the secondary growth.
Resumo:
Le Vallon de Nant, situé dans les Alpes vaudoises, attire depuis longtemps les naturalistes et scientifiques. Il a été classé comme réserve naturelle en 1969. Les premières Journées de la biodiversité en Romandie y ont été organisées les 5 et 6 juillet 2008 afin d'améliorer la connaissance des espèces vivant dans le Vallon de Nant, avant l'établissement d'un plan de gestion de la réserve naturelle. Une cinquantaine de scientifiques ont participé à cet inventaire de la faune et de la flore. Ce chapitre présente une introduction au climat et à la géologie du Vallon de Nant ainsi que les différents milieux naturels présents. Il est complété par une description des méthodes utilisées durant les Journées de la biodiversité, en particulier la définition des placettes de référence établies pour concentrer les inventaires de différents groupes taxonomiques dans un même lieu et pour permettre un suivi dans le temps. Le chapitre se termine par une brève présentation du contenu des chapitres suivants et des perspectives pour les futures Journées de la biodiversité dans le Canton de Vaud.
Resumo:
Pour pouvoir naviguer sans encombre dans notre environnement social, il est important d'être en mesure d'identifier correctement les propriétés sociales des personnes avec qui nous sommes amenés à interagir. Au cours de leur socialisation, les enfants doivent donc nécessairement faire l'apprentissage des catégories sociales en usage dans leur univers socio-culturel. Des recherches expérimentales en psychologie du développement permettent de penser qu'un tel apprentissage est tout à la fois rendu possible et contraint par un certain nombre de prédispositions cognitives, déjà à l'oeuvre chez les très jeunes enfants et les bébés. En me basant sur ces recherches, j'avance dans cet article que l'être humain possède une tendance cognitive spontanée à catégoriser socialement ses semblables selon trois axes: une catégorisation horizontale, détectant les relations d'affiliation entre des individus, une catégorisation verticale, identifiant leurs relations de dominance, et une catégorisation transversale, les distinguant selon leur sexe et leur âge. Si ces "pentes cognitives naturelles" préparent les enfants à intégrer les catégories particulières en vigueur au sein de leur société, elles les inclinent malheureusement aussi à les essentialiser.
Resumo:
Cette thèse présente les pratiques sociales et les parcours d'apprentissage d'un corps de spécialistes rituels, qui se donnent le nom générique de « médiums guérisseurs », à partir d'une ethnographie des modes de résolution des crises existentielles et des dispositifs de production de croyance permettant les moyens d'objectivation d'une « autre réalité », proposés par trois configurations en Suisse romande. L'enquête explore d'abord la structuration du champ thérapeutico-religieux en Suisse romande pour en révéler les niches favorisant les inscriptions sociales des médiums guérisseurs. Elle s'est portée ensuite sur la manière dont ces praticiens inscrivent les différents épisodes de leur vie dans un cursus de reconnaissance de compétences particulières. Et comment ces moments de vie s'articulent et s'enchaînent pour construire l'autobiographie de la métamorphose de leur personnalité en celle d'un « médium guérisseur » apaisant les souffrances des vivants et les âmes des « morts ». L'enquête a pris en compte les discours de ces médiums guérisseurs et aussi les modalités de transmissions de ces savoirs en ce qu'elles contribuent à leur construction et à leur développement. Cette recherche participe d'une interrogation plus générale, en contexte de modernité et de globalisation, sur l'« émiettement du religieux », tout en proposant de nuancer cette assertion en regard d'une stratégie d'enquête ethnographique qui met l'accent sur les logiques d'action plutôt que de représentations et privilégie l'apprentissage dialogique et la co-construction des données afin de cerner les modalités d'un travail symbolique et syncrétique.
Resumo:
Les communes politiques suisses et leur autonomie font l'objet de l'étude présente. Les communes sont des éléments incontestés de la structure territoriale, politique et administrative des cantons. Bien que le terme d'autonomie communale soit de grande importance dans tous discours concernant les relations entre les cantons et leurs communes, aucun consensus n'existe sur la définition et le contenu exact de cette autonomie. A ce jour, la majorité des études sur l'autonomie locale en Suisse sont de nature juridique. L'étude présente ne se restreint pas aux seuls aspects légaux de l'autonomie mais elle inclut aussi l'autonomie d'un point de vue politique, économique et social. Dans la première partie, un modèle de recherche s'appuyant sur des théories normatives et empiriques de l'autonomie locale est proposé. En deuxième partie de l'étude, l'autonomie des communes suisses est déterminée à l'aide du modèle en question. Les résultats de l'enquête démontrent que les différentes formes de l'autonomie communale - soit l'autonomie juridique, politique, économique et sociale - varient fortement selon l'appartenance cantonale et la taille des communes.
Resumo:
Au moment où débutent les chasses aux sorcières, dans la première moitié du XVe siècle, des écrits de différente nature décrivent les méfaits des sectes de sorciers et tentent d'expliquer la possibilité et la réalité de leurs actes afin de donner aux tribunaux d'inquisition ou aux justices séculières un cadre d'action acceptable. Les traités de démonologie, qui prennent leur essor au même moment, ne proposent pas seulement une réflexion sur la nouvelle croyance au sabbat des sorcières, mais ils s'efforcent aussi de rassembler tout le savoir relatif au diable et aux démons et à leur pouvoir d'action sur le monde et sur les êtres humains. Ils examinent les relations possibles entre les démons et les hommes dans le cadre de la sorcellerie, de la magie ou de la possession, tout en indiquant les moyens de se protéger des attaques démoniaques.Les démonologues, experts dans la 'science des démons', cherchent à insérer la croyance au sabbat dans le cadre traditionnel de la démonologie chrétienne, qu'ils contribuent à redéfinir. Leurs écrits, qui sont à la fois des synthèses et des oeuvres de rupture, sont le produit d'une méthode intellectuelle pensée comme scientifique et rationnelle.La présente étude est basée sur l'analyse thématique de plusieurs traités de démonologie inédits, parmi lesquels le Tractatus contra invocatores demonum, du théologien dominicain Jean Vinet (c.1450), le Flagellum hereticorum fascinariorum de l'inquisiteur dominicain Nicolas Jacquier (1458), ainsi que le Flagellum maleficorum de Pierre Mamoris, professeur de théologie à Poitiers (avant 1462). Ces textes anticipent d'une trentaine d'années le contenu du fameux Marteau des sorcières (1486), considéré souvent à tort comme le premier traité du genre.
Resumo:
La thèse essaie de montrer comment il est possible d'offrir une implémentation fonctionnelle d'un agent doté d'une conscience (psychologique). Une première étape étudie les différentes approches, définitions et théories de la conscience proposées par la littérature. Cette étude dégage plus particulièrement un modèle psychologique qui offre une modélisation des fonctionnalités de la conscience, de ses éléments constitutifs et des relations entre ces éléments. Cet effort de formalisation permet d'identifier les corrélations computionnelles du modèle ouvrant ainsi la voie à une implémentation fonctionnelle de la conscience. Une seconde étape réuni les outils et méthodes informatiques existants en vue de procéder à une telle implémentation. En particulier, celle-ci repose sur un modèle de communication permettant d'élaborer une machine virtuelle basée sur des processus concurrents synchronisés. La troisième étape consiste à implémenter les corrélations computationnelles dont l'une est une fonction de délibération qui, après une analyse itérative de son état et de son environnement (machine à état), aboutit à la sélection d'une action. Une deuxième fonction est la formation de contextes, autrement dit l'apprentissage d'automatismes, consistant à compiler la délibération. Cette compilation s'opère grâce à un processus concurrent reflétant le processus de délibération, dotant ainsi l'agent de la capacité d'observer son propre fonctionnement. La thèse se conclut en proposant quelques axes de recherches et d'applications futures susceptibles de prolonger le travail.
Resumo:
Résumé L'eau est souvent considérée comme une substance ordinaire puisque elle est très commune dans la nature. En fait elle est la plus remarquable de toutes les substances. Sans l'eau la vie sur la terre n'existerait pas. L'eau représente le composant majeur de la cellule vivante, formant typiquement 70 à 95% de la masse cellulaire et elle fournit un environnement à d'innombrables organismes puisque elle couvre 75% de la surface de terre. L'eau est une molécule simple faite de deux atomes d'hydrogène et un atome d'oxygène. Sa petite taille semble en contradiction avec la subtilité de ses propriétés physiques et chimiques. Parmi celles-là, le fait que, au point triple, l'eau liquide est plus dense que la glace est particulièrement remarquable. Malgré son importance particulière dans les sciences de la vie, l'eau est systématiquement éliminée des spécimens biologiques examinés par la microscopie électronique. La raison en est que le haut vide du microscope électronique exige que le spécimen biologique soit solide. Pendant 50 ans la science de la microscopie électronique a adressé ce problème résultant en ce moment en des nombreuses techniques de préparation dont l'usage est courrant. Typiquement ces techniques consistent à fixer l'échantillon (chimiquement ou par congélation), remplacer son contenu d'eau par un plastique doux qui est transformé à un bloc rigide par polymérisation. Le bloc du spécimen est coupé en sections minces (denviron 50 nm) avec un ultramicrotome à température ambiante. En général, ces techniques introduisent plusieurs artefacts, principalement dû à l'enlèvement d'eau. Afin d'éviter ces artefacts, le spécimen peut être congelé, coupé et observé à basse température. Cependant, l'eau liquide cristallise lors de la congélation, résultant en une importante détérioration. Idéalement, l'eau liquide est solidifiée dans un état vitreux. La vitrification consiste à refroidir l'eau si rapidement que les cristaux de glace n'ont pas de temps de se former. Une percée a eu lieu quand la vitrification d'eau pure a été découverte expérimentalement. Cette découverte a ouvert la voie à la cryo-microscopie des suspensions biologiques en film mince vitrifié. Nous avons travaillé pour étendre la technique aux spécimens épais. Pour ce faire les échantillons biologiques doivent être vitrifiés, cryo-coupées en sections vitreuse et observées dans une cryo-microscope électronique. Cette technique, appelée la cryo- microscopie électronique des sections vitrifiées (CEMOVIS), est maintenant considérée comme étant la meilleure façon de conserver l'ultrastructure de tissus et cellules biologiques dans un état très proche de l'état natif. Récemment, cette technique est devenue une méthode pratique fournissant des résultats excellents. Elle a cependant, des limitations importantes, la plus importante d'entre elles est certainement dû aux artefacts de la coupe. Ces artefacts sont la conséquence de la nature du matériel vitreux et le fait que les sections vitreuses ne peuvent pas flotter sur un liquide comme c'est le cas pour les sections en plastique coupées à température ambiante. Le but de ce travail a été d'améliorer notre compréhension du processus de la coupe et des artefacts de la coupe. Nous avons ainsi trouvé des conditions optimales pour minimiser ou empêcher ces artefacts. Un modèle amélioré du processus de coupe et une redéfinitions des artefacts de coupe sont proposés. Les résultats obtenus sous ces conditions sont présentés et comparés aux résultats obtenus avec les méthodes conventionnelles. Abstract Water is often considered to be an ordinary substance since it is transparent, odourless, tasteless and it is very common in nature. As a matter of fact it can be argued that it is the most remarkable of all substances. Without water life on Earth would not exist. Water is the major component of cells, typically forming 70 to 95% of cellular mass and it provides an environment for innumerable organisms to live in, since it covers 75% of Earth surface. Water is a simple molecule made of two hydrogen atoms and one oxygen atom, H2O. The small size of the molecule stands in contrast with its unique physical and chemical properties. Among those the fact that, at the triple point, liquid water is denser than ice is especially remarkable. Despite its special importance in life science, water is systematically removed from biological specimens investigated by electron microscopy. This is because the high vacuum of the electron microscope requires that the biological specimen is observed in dry conditions. For 50 years the science of electron microscopy has addressed this problem resulting in numerous preparation techniques, presently in routine use. Typically these techniques consist in fixing the sample (chemically or by freezing), replacing its water by plastic which is transformed into rigid block by polymerisation. The block is then cut into thin sections (c. 50 nm) with an ultra-microtome at room temperature. Usually, these techniques introduce several artefacts, most of them due to water removal. In order to avoid these artefacts, the specimen can be frozen, cut and observed at low temperature. However, liquid water crystallizes into ice upon freezing, thus causing severe damage. Ideally, liquid water is solidified into a vitreous state. Vitrification consists in solidifying water so rapidly that ice crystals have no time to form. A breakthrough took place when vitrification of pure water was discovered. Since this discovery, the thin film vitrification method is used with success for the observation of biological suspensions of. small particles. Our work was to extend the method to bulk biological samples that have to be vitrified, cryosectioned into vitreous sections and observed in cryo-electron microscope. This technique is called cryo-electron microscopy of vitreous sections (CEMOVIS). It is now believed to be the best way to preserve the ultrastructure of biological tissues and cells very close to the native state for electron microscopic observation. Since recently, CEMOVIS has become a practical method achieving excellent results. It has, however, some sever limitations, the most important of them certainly being due to cutting artefacts. They are the consequence of the nature of vitreous material and the fact that vitreous sections cannot be floated on a liquid as is the case for plastic sections cut at room temperature. The aim of the present work has been to improve our understanding of the cutting process and of cutting artefacts, thus finding optimal conditions to minimise or prevent these artefacts. An improved model of the cutting process and redefinitions of cutting artefacts are proposed. Results obtained with CEMOVIS under these conditions are presented and compared with results obtained with conventional methods.
Resumo:
Résumé L'arrivée en force de l'imagerie numérique de bonne qualité à un prix abordable m'a fait réfléchir à la meilleure manière de l'intégrer dans la pratique courante de l'enseignement de la dermatologie, spécialité très visuelle. Comment mettre à profit la richesse des images et les nombreuses possibilités pédagogiques que l'informatique offre. J'ai étudié quelques produits existant sur le marché; je constate que les possibilités offertes par l'informatique restent souvent sous exploitées. Les réalisations manquent de liens hypertextes et la facilité d'accès aux images que permet l'informatique n'est pas appliquée. Les images sont trop souvent présentées avec une légende trop brève, ne soulignant pas les points importants pour le diagnostic. Certains outils ne proposent même pas de diagnostics différentiels. Ma réflexion me pousse à croire que l'apprentissage doit se faire par l'image. L'étudiant doit y apprendre les bases du diagnostic morphologique, trouver ce qui lui permet de poser le diagnostic. Compte tenu de mes observations, j'ai développé à Lausanne mon propre atlas interactif de diagnostics différentiels, basé sur la comparaison d'images. Mon projet n'a donc pas pour but de remplacer un livre ou un atlas, mais je souhaite compléter les moyens d'apprentissage basés sur l'image. Sa particularité tient dans la manière dont on a sélectionné les diagnostics différentiels; mon critère principal n'a pas été un choix théorique, mais la ressemblance entre deux images de ma bibliothèque. Cette manière de procéder m'a forcé à résoudre quelques questions fondamentales à propos des diagnostics différentiels. J'ai prêté une attention particulière à ce que l'utilisateur replace aisément les 850 images dans une structure que j'ai voulue claire. Cela m'a poussé à réfléchir sur la manière dont on aborde la dermatologie: par localisation, d'après les lésions, selon l'âge ou d'après des critères de physiopathologie ? Chaque image est accessible par la table des matières originale, soit par un module de recherche multicritère. Mon produit est personnalisable grâce à la présence de plusieurs outils. "Le Petit Rouvé", première version, est maintenant disponible pour une phase de test. Dans un second temps, l'atlas sera distribué aux étudiants de 4ème et 6ème année de la Faculté de médecine de Lausanne pour la rentrée de 2004-2005.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
ABSTRACT: Massive synaptic pruning following over-growth is a general feature of mammalian brain maturation. Pruning starts near time of birth and is completed by time of sexual maturation. Trigger signals able to induce synaptic pruning could be related to dynamic functions that depend on the timing of action potentials. Spike-timing-dependent synaptic plasticity (STDP) is a change in the synaptic strength based on the ordering of pre- and postsynaptic spikes. The relation between synaptic efficacy and synaptic pruning suggests that the weak synapses may be modified and removed through competitive "learning" rules. This plasticity rule might produce the strengthening of the connections among neurons that belong to cell assemblies characterized by recurrent patterns of firing. Conversely, the connections that are not recurrently activated might decrease in efficiency and eventually be eliminated. The main goal of our study is to determine whether or not, and under which conditions, such cell assemblies may emerge out of a locally connected random network of integrate-and-fire units distributed on a 2D lattice receiving background noise and content-related input organized in both temporal and spatial dimensions. The originality of our study stands on the relatively large size of the network, 10,000 units, the duration of the experiment, 10E6 time units (one time unit corresponding to the duration of a spike), and the application of an original bio-inspired STDP modification rule compatible with hardware implementation. A first batch of experiments was performed to test that the randomly generated connectivity and the STDP-driven pruning did not show any spurious bias in absence of stimulation. Among other things, a scale factor was approximated to compensate for the network size on the ac¬tivity. Networks were then stimulated with the spatiotemporal patterns. The analysis of the connections remaining at the end of the simulations, as well as the analysis of the time series resulting from the interconnected units activity, suggest that feed-forward circuits emerge from the initially randomly connected networks by pruning. RESUME: L'élagage massif des synapses après une croissance excessive est une phase normale de la ma¬turation du cerveau des mammifères. L'élagage commence peu avant la naissance et est complété avant l'âge de la maturité sexuelle. Les facteurs déclenchants capables d'induire l'élagage des synapses pourraient être liés à des processus dynamiques qui dépendent de la temporalité rela¬tive des potentiels d'actions. La plasticité synaptique à modulation temporelle relative (STDP) correspond à un changement de la force synaptique basé sur l'ordre des décharges pré- et post- synaptiques. La relation entre l'efficacité synaptique et l'élagage des synapses suggère que les synapses les plus faibles pourraient être modifiées et retirées au moyen d'une règle "d'appren¬tissage" faisant intervenir une compétition. Cette règle de plasticité pourrait produire le ren¬forcement des connexions parmi les neurones qui appartiennent à une assemblée de cellules caractérisée par des motifs de décharge récurrents. A l'inverse, les connexions qui ne sont pas activées de façon récurrente pourraient voir leur efficacité diminuée et être finalement éliminées. Le but principal de notre travail est de déterminer s'il serait possible, et dans quelles conditions, que de telles assemblées de cellules émergent d'un réseau d'unités integrate-and¬-fire connectées aléatoirement et distribuées à la surface d'une grille bidimensionnelle recevant à la fois du bruit et des entrées organisées dans les dimensions temporelle et spatiale. L'originalité de notre étude tient dans la taille relativement grande du réseau, 10'000 unités, dans la durée des simulations, 1 million d'unités de temps (une unité de temps correspondant à une milliseconde), et dans l'utilisation d'une règle STDP originale compatible avec une implémentation matérielle. Une première série d'expériences a été effectuée pour tester que la connectivité produite aléatoirement et que l'élagage dirigé par STDP ne produisaient pas de biais en absence de stimu¬lation extérieure. Entre autres choses, un facteur d'échelle a pu être approximé pour compenser l'effet de la variation de la taille du réseau sur son activité. Les réseaux ont ensuite été stimulés avec des motifs spatiotemporels. L'analyse des connexions se maintenant à la fin des simulations, ainsi que l'analyse des séries temporelles résultantes de l'activité des neurones, suggèrent que des circuits feed-forward émergent par l'élagage des réseaux initialement connectés au hasard.
Resumo:
Résumé Le présent travail de thèse a fait face au défi de lier les changements transcriptionnels dans les neurones du système nerveux central au développement de l'addiction aux drogues. I1 est connu que l'apprentissage induit des modifications au niveau de la structure du cerveau, principalement en changeant la manière dont les neurones sont interconnectés par des synapses. De plus en plus d'évidences soutiennent un scénario selon lequel l'activité neuronale déclenche des cascades de signalisation intracellulaire qui ciblent des facteurs de transcription. Ces derniers peuvent activer la transcription de gènes spécifiques qui codent pour des protéines nécessaires au renforcement des synapses mémorisant ainsi la nouvelle information. Puisque l'addiction peut être considérée comme une forme aberrante d'apprentissage, et que les modifications synaptiques sont connues pour être impliquées dans le processus d'addiction, nous essayons de décrire des mécanismes transcriptionels étant à la base des changements synaptiques induits par les drogues. Comme modèle nous utilisons des cultures primaires des neurones de striatum, d'hippocampe et de cortex de souris ainsi que des tranches de cerveau de rat. Une des caractéristiques communes de quasiment toutes les substances addictives est de pouvoir activer le système mésolimbique dopaminergique provoquant la libération de dopamine sur les neurones du striatum (du noyau accumbens). Dans ce travail de thèse nous démontrons que dans des cultures du striatum, la dopamine induit le facteur de transcription C/EBPβ qui, à son tour, provoque l'expression du gène codant pour la substance P. Ce mécanisme pourrait potentiellement contribuer à la tolérance envers les drogues puisqu'il fait partie d'une rétroaction (feed-back) sur les cellules produisant la dopamine. Etant donné que ces résultats montrent l'importance de C/EBPβ dans la psychopathologie de l'addiction, nous avons également décidé d'étudier les mécanismes fondamentaux de l'activation de la transcription par C/EBPβ. Nos expériences démontrent que trois isoformes activatrices de la famille C/EBP recrutent le coactivateur CBP et provoquent en même temps sa phosphorylation. Enfin, nous montrons que les coactivateurs nommés TORC, nouvellement découverts et clonés, sont capables de détecter la coïncidence d'un signal cAMP et d'une entrée de calcium dans des neurones. Par conséquent les TORCs pourraient contribuer à détecter la coïncidence d'un signal glutamate et d'un signal dopamine dans les neurones de striatum, ce qui pourrait être important pour associer les effets hédonistes de la drogue à l'information contextuelle (par exemple à l'environnement où la drogue a été consommée). Nous sommes les premiers à observer que les TORCs sont nécessaires pour la potentiation à long terme dans l'hippocampe. Summary The present thesis work faced the challenge to link the development of drug addiction to transcriptional changes in the neurons of the central nervous system. Experience and learning are known to induce structural modifications in the brain, and these changes are thought to occur mainly in the way neurons are interconnected by synapses. More and more evidences point to a scenario in which neuronal activity would activate signalization cascades that impinge on transcription factors, which, in turn, would activate genes necessary for the reinforcement of synapses coding for new informations. Given that drug addiction can be considered as an aberrant form of learning and is thought to involve synaptic modifications, we try to elucidate some of the transcriptional mechanisms that could underlie drug-induced synaptic changes. As a model system, we use primary cultures of striatal, cortical and hippocampal neurons dissected from mouse embryos as well as brain slices from rats. One of the common features of virtually all drugs of abuse is to activate the mesocorticolimbic dopaminergic system that results in the release of dopamine onto the neurons of the striatum (nucleus accumbens). In this thesis work we show that in striatal cultures, dopamine induces the transcription factor C/EBPβ that in turn drives the expression of the gene coding for substance P. This mechanism is likely to be important for the drug-induced tolerance in the brain since it might be a part of a feedback acting on dopaminergic neurons. Given the suspected importance of C/EBPβ in drug addiction, we also try to elucidate some aspects of the basic mechanisms by which the C/EBP family activates transcription. We show that three activating members of the C/EBP family recruit the coactivator CBP and trigger its phosphorylation. Finally, we demonstrate that the newly discovered and cloned transcriptional coactivators, named TORCs (transducers of regulated CREB activity) are able to detect the coincidence of a calcium and a cAMP signal in the central nervous system. This way, TORCs could contribute to the detection of a coincidence between a glutamate and a dopamine signal in striatal neurons - a process that is suggested to be important for an association between the rewarding effect of a drug and contextual information (such as the environment where the drug had been taken). We demonstrate that TORCs are required for hippocampal LTP.