998 resultados para Aux Abattoirs de la Villette
Resumo:
Rapport de synthèse : DEVENIR NEURO-DEVELOPPEMENTAL DE NOUVEAU-NES TRAITES PAR DU SULFATE DE MAGNESIUM POUR UNE HYPERTENSION PULMONAIRE PERSISTANTE L'hypertension pulmonaire persistante du nouveau-né (HTPP) est un trouble de l'adaptation post-natale de la circulation pulmonaire caractérisé par une défaillance de la diminution normale des résistances vasculaires pulmonaires, accompagné d'un shunt droite-gauche, résultant en une hypoxémie profonde. C'est une pathologie sévère nécessitant des soins intensifs avec un risque augmenté de handicaps neurologiques chez les survivants. Le traitement de l'HTPP du nouveau-né inclut une ventilation mécanique ainsi que différents agents pharmacologiques pour dilater les vaisseaux pulmonaires, dont le sulfate de magnésium (MgSO4) à hautes doses par voie intraveineuse et le monoxyde d'azote par voie inhalée (iN0). Le MgSO4 est une alternative thérapeutique de l'HTPP du nouveau-né avec peu d'effets secondaires et une mortalité basse. Il a aussi été démontré que le MgSO4 est un traitement de l'HTPP du nouveau-né autant efficace que le iN0 et moins coüteux. Des études sur le suivi neuro-développemental de nouveau-nés avec HTPP traités selon différentes méthodes ont été publiées reportant des taux élevés de handicaps majeurs et mineurs. Plus récemment, des études de suivi après traitement par iN0 ont montré des taux plus bas qu'avec des traitements antérieurs. Le devenir neuro-développemental àlong terme d'enfants traités avec du MgSO4 n'a pas été documenté. Le but de cette étude est de décrire le développement des enfants qui ont présenté une HTPP traitée seulement avec du MgS04, de reporter l'incidence de handicaps majeurs et mineurs, et de les comparer à un groupe contrôle d'enfants sains du même âge ainsi qu'aux données de la littérature. La population consiste en 33 nouveau-nés traités pour une HTPP avec seulement du MgSO4 (groupe étude) et 32 nouveau-nés à terme sains (groupe contrôle). Un suivi neurodéveloppemental standardisé et approfondi a été effectué aux âges clés de 18 mois et 5 ans. Les taux de handicaps majeurs à 18 mois et 5 ans dans le groupe étude étaient de 6% et 11,4% respectivement, et de 0% aux deux âges dans le groupe contrôle. Les taux de handicaps mineurs aux mêmes âges étaient de 3% et 26,9% pour le groupe étude, et de 0% et 26,1% pour le groupe contrôle. Les quotients développementaux moyens à 18 mois étaient de 106,6 (DS 1,6) dans le groupe étude et de 118,3 (DS 1,0) dans le groupe contrôle (P < 0,001). L'index général intellectuel en âge préscolaire était de 112.6 (DS 3.7), respectivement de 119.3 (DS 3.1 ), sans différence significative entre les deux groupes. A 18 mois, les taux de handicaps majeurs et mineurs dans les groupes études et contrôle étaient de 6% et 3%. Dans la littérature, des taux entre 0% et 33% ont été décrits. A cet âge, il y avait une différence significative pour tous les scores du test de Griffiths, mëme en tenant compte du status socio-économique de la famille. Ceci suggère un léger retard du développement global et non une altération spécifique. Ces différences n'étaient plus significatives en âge préscolaire, suggérant un rattrapage développemental. Le taux de handicaps majeurs en âge préscolaire pour le groupe étude était de 11.5%, sans aucune infirmité motrice cérébrale. Ces résultats correspondent à ceux d'études de suivi après d'autres traitements jusqu'à l'âge de 24 mois avec des taux variant de 0% à 15%. Le taux de handicaps mineurs était de 26.9% dans le groupe étude et de 26.1% dans le groupe contrôle, sans différence significative entre les deux groupes. L'incidence de handicaps mineurs dans le groupe étude était plutôt élevée en comparaison aux données de la littérature (6 à 22% à 6 ans). Une explication possible est que nous avons considéré des problèmes de langage et de comportement comme handicaps mineurs. Ceci suggère une différence méthodologique et non une plus mauvaise issue dans nos deux groupes. Les évaluations cognitives des enfants des deux groupes se trouvaient dans la norme, ce qui est aussi le cas dans la littérature. En conclusion, cette étude longitudinale non randomisée d'enfants traités avec du MgSO4 seul pour une HTPP sévère ne montre pas de conséquences sur le devenir neuro-développemental à long terme. Cette étude le démontre pour la première fois. Malgré le fait que iN0 soit le traitement actuellement recommandé pour l'HTPP du nopuveau-né, le MgSO4 reste largement utilisé, en particulier dans des pays en voie de développement. L'absence de complications neuro-développementales majeures à long terme permet de considérer l'administration du MgSO4 pour le traitement de l'HTPP du nouveau-né en cas de non réponse ou d'inaccessibilité au iNO.
Resumo:
Problématique: Pourquoi la mise en scène complexe du Timée-Critias avec ses contextes spatio-temporels emboîtés et ses narrations enchâssées? Quelle est la fonction (pragmatique et argumentative) du discours cosmogonique et anthropogonique de Timée intercalé entre le résumé du récit de l'Atlantide dans le prologue du Timée et la narration même de ce récit dans le Critias! Quel est le rapport entre les discours des deux protagonistes et celui de Socrate sur la cité idéale dans la République? Voilà les principales questions auxquelles cette thèse essaie de répondre. Grâce à une approche discursive et sémio-narrative, elle cherche à montrer la fonction pragmatique et la cohérence narrative et sémantique du double dialogue tout en tenant compte des visions du monde divergentes et même contradictoires des deux protagonistes. Elle essaie de comprendre comment les deux, l'un d'origine italique, l'autre Athénien, dans un contexte énonciatif donné et sur la base de leurs conceptions culturelles et «scientifiques» - sur l'homme et sur le monde - et de leurs idées «philosophiques» - sur l'être, le devenir et la connaissance - produisent des discours de signification différente mais traitant tous deux de la genèse, que ce soit celle du monde, de l'homme et des cités. Elle propose en outre de lire le Timée-Critias à la fois comme une continuation et une réécriture de la République: non seulement les trois dialogues ont le même sujet (la meilleure cité), mais ils se caractérisent par des parallèles dans la situation dramatique et énonciative et dans la manière dont se développe la narration. Plan: Les deux premiers chapitres examinent comment les performances discursives de Timée et de Critias se mettent en place dans le prologue, en prêtant une attention particulière aux aspects dramatiques et énonciatifs, mais aussi poétiques et narratifs (énonciateurs/narrateurs et leurs destinataires, fonction et genre des discours résumés et annoncés). Les troisième et quatrième chapitres, consacrés respectivement au long discours de Timée et à celui de Critias dans le dialogue homonyme, comparent d'abord les deux discours aux Hymnes homériques, à la Théogonie d'Hésiode et à la poésie généalogique afin de mieux saisir la fonction pragmatique et la composition de l'ensemble du Timée-Critias-, puis, à partir des principes ontologiques et épistémologiques explicités dans les proèmes, ils se proposent de dégager, en suivant de près la narration, les conceptions cosmologiques, anthropologiques et épistémologiques des deux protagonistes et de voir comment elles déterminent la production et l'énonciation de leurs discours. Enfin, le dernier chapitre reprend certains éléments essentiels étudiés précédemment en élargissant la perspective à la République et à son rapport intertextuel avec le Timée- Critias: il met en regard les contextes énonciatifs et dramatiques et la problématique des deux oeuvres (le rôle des personnages, la question de la réalisation de la meilleure cité), le discours de Timée et les livres six et sept (la khóra et Yagathón, le statut du discours vraisemblable et l'analogie de la ligne), ainsi que le Critias et les livres huit et dix (la dégénérescence de l'Atlantide et de la meilleure cité, la poésie «mimétique» de Critias et celle des poètes critiquée par Socrate).
Resumo:
Dans cette étude, nous avons testé la performance diagnostique d'une nouvelle technique d'analyse multiplexée qui permet la détection d'anticorps de différentes spécificités dans la même réaction. En l'absence de gold standard, nous avons choisi de comparer la performance diagnostique de l'analyse avec deux méthodes de référance que sont l'IF et EIA, et avec un consensus déterminé selon une règle de majorité entre les trois méthodes.¦393 sérums analysés par IF, conservés par congélation, ont été décongelés pour être analysés par EIA et BBA. Pour chaque sérum, les anticorps recherchés ont été les anti-VCA (Viral Capsid Antigen) IgM, anti-VCA IgG et anti-EBNA (Epstein-Barr Nuclear Associated) IgG. Les échantillons ont été classés en cinq groupes selon les résultats de l'IF : séronégatifs, infections aiguës, infections anciennes et deux types d'indéterminés.¦Pour chaque méthode, le résultat numérique (index ou titre) des analyses est converti en termes de positif, négatif ou douteux. Pour le résultat de chaque type d'anticorps, un consensus est établi selon une règle de majorité entre les trois méthodes, permettant une interprétation du stade de l'infection. Puis l'interprétation de chacune des méthodes a été comparée au consensus. Nous avons également comparé les trois méthodes les unes aux autres concernant la détection des anticorps.¦Globalement, nous observons une bonne corrélation qualitative entre les trois approches pour détecter les anti-VCA IgG et IgM. Pour pour les anti-EBNA IgG, il y a une divergence notable entre l'IF et les deux autres méthodes, l'IF apparaissant moins sensible que les autres méthodes, résultant en un nombre accru d'interprétations indéterminées du stade de l'infection.¦L'origine de cette divergence ne peut être due à une perte d'anticorps liée au stockage de longue durée des échantillons. En effet, EIA et BBA restent plus sensibles que IF, dont l'analyse a été faite sur des sérums frais.¦Cette divergence ne semble pas non plus être due aux différents antigènes utilisés par les trois méthodes. EIA et BBA utilisent le même antigène recombinant EBNA-1, alors que l'IF utilise des "cellules lymphoïdes choisies pour leur production sélective d'antigènes EBNA". Ces cellules sont probablement des cellules infectées par EBV qui devraient exprimer plus d'antigènes de latence que seul EBNA-1. Cette différence devrait donc plutôt en principe résulter en une meilleure sensibilité de l'IF par rapport aux deux autres méthodes.¦Les anti-EBNA IgG peuvent disparaître chez les patients immunocompromis chez qui se produit une réactivation d'EBV. Nous avons donc recherché le status immunitaire des patients du groupe dont les sérums étaient négatifs pour anti-EBNA IgG en IF et positifs par les autres méthodes: seulement 28 des 70 patients étaient immunocompromis.¦Par conséquent, il est probable que dans la majorité de ces résultats discordants, les anticorps anti-EBNA IgG détectés par BBA et EIA sont de vrais positifs non décelés par l'IF.¦En conclusion, BBA est meilleur que la méthode de référance qu'est l'IF, et est égal à EIA en ce qui concerne la performance diagnostique. En outre, ces deux nouvelles méthodes offrent une économie de temps en raison de manipulations moindres, et ne requièrent aucune formation en microscopie à fluorescence. Elles sont également plus économes en échantillons que IF. BBA a l'avantage de n'avoir besoin que de deux analyses pour donner un diagnostique, alors que IF et EIA ont en besoin d'une par anticorps. Enfin, BBA dispose de contrôles internes permettant de reconnaître les liaisons non antigène-spécifiques des anticorps. Par contre, BBA nécessite l'achat d'un lecteur par cytométrie de flux assez coûteux.
Resumo:
This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.
Resumo:
Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.
Resumo:
Résumé grand public :Le cerveau se compose de cellules nerveuses appelées neurones et de cellules gliales dont font partie les astrocytes. Les neurones communiquent entre eux par signaux électriques et en libérant des molécules de signalisation comme le glutamate. Les astrocytes ont eux pour charge de capter le glucose depuis le sang circulant dans les vaisseaux sanguins, de le transformer et de le transmettre aux neurones pour qu'ils puissent l'utiliser comme source d'énergie. L'astrocyte peut ensuite utiliser ce glucose de deux façons différentes pour produire de l'énergie : la première s'opère dans des structures appelées mitochondries qui sont capables de produire plus de trente molécules riches en énergie (ATP) à partir d'une seule molécule de glucose ; la seconde possibilité appelée glycolyse peut produire deux molécules d'ATP et un dérivé du glucose appelé lactate. Une théorie couramment débattue propose que lorsque les astrocytes capturent le glutamate libéré par les neurones, ils libèrent en réponse du lactate qui servirait de base énergétique aux neurones. Cependant, ce mécanisme n'envisage pas une augmentation de l'activité des mitochondries des astrocytes, ce qui serait pourtant bien plus efficace pour produire de l'énergie.En utilisant la microscopie par fluorescence, nous avons pu mesurer les changements de concentrations ioniques dans les mitochondries d'astrocytes soumis à une stimulation glutamatergique. Nous avons démontré que les mitochondries des astrocytes manifestent des augmentations spontanées et transitoires de leur concentrations ioniques, dont la fréquence était diminuée au cours d'une stimulation avec du glutamate. Nous avons ensuite montré que la capture de glutamate augmentait la concentration en sodium et acidifiait les mitochondries des astrocytes. En approfondissant ces mécanismes, plusieurs éléments ont suggéré que l'acidification induite diminuerait le potentiel de synthèse d'énergie d'origine mitochondriale et la consommation d'oxygène dans les astrocytes. En résumé, l'ensemble de ces travaux suggère que la signalisation neuronale impliquant le glutamate dicte aux astrocytes de sacrifier temporairement l'efficacité de leur métabolisme énergétique, en diminuant l'activité de leurs mitochondries, afin d'augmenter la disponibilité des ressources énergétiques utiles aux neurones.Résumé :La remarquable efficacité du cerveau à compiler et propager des informations coûte au corps humain 20% de son budget énergétique total. Par conséquent, les mécanismes cellulaires responsables du métabolisme énergétique cérébral se sont adéquatement développés pour répondre aux besoins énergétiques du cerveau. Les dernières découvertes en neuroénergétique tendent à démontrer que le site principal de consommation d'énergie dans le cerveau est situé dans les processus astrocytaires qui entourent les synapses excitatrices. Un nombre croissant de preuves scientifiques a maintenant montré que le transport astrocytaire de glutamate est responsable d'un coût métabolique important qui est majoritairement pris en charge par une augmentation de l'activité glycolytique. Cependant, les astrocytes possèdent également un important métabolisme énergétique de type mitochondrial. Par conséquent, la localisation spatiale des mitochondries à proximité des transporteurs de glutamate suggère l'existence d'un mécanisme régulant le métabolisme énergétique astrocytaire, en particulier le métabolisme mitochondrial.Afin de fournir une explication à ce paradoxe énergétique, nous avons utilisé des techniques d'imagerie par fluorescence pour mesurer les modifications de concentrations ioniques spontanées et évoquées par une stimulation glutamatergique dans des astrocytes corticaux de souris. Nous avons montré que les mitochondries d'astrocytes au repos manifestaient des changements individuels, spontanés et sélectifs de leur potentiel électrique, de leur pH et de leur concentration en sodium. Nous avons trouvé que le glutamate diminuait la fréquence des augmentations spontanées de sodium en diminuant le niveau cellulaire d'ATP. Nous avons ensuite étudié la possibilité d'une régulation du métabolisme mitochondrial astrocytaire par le glutamate. Nous avons montré que le glutamate initie dans la population mitochondriale une augmentation rapide de la concentration en sodium due à l'augmentation cytosolique de sodium. Nous avons également montré que le relâchement neuronal de glutamate induit une acidification mitochondriale dans les astrocytes. Nos résultats ont indiqué que l'acidification induite par le glutamate induit une diminution de la production de radicaux libres et de la consommation d'oxygène par les astrocytes. Ces études ont montré que les mitochondries des astrocytes sont régulées individuellement et adaptent leur activité selon l'environnement intracellulaire. L'adaptation dynamique du métabolisme énergétique mitochondrial opéré par le glutamate permet d'augmenter la quantité d'oxygène disponible et amène au relâchement de lactate, tous deux bénéfiques pour les neurones.Abstract :The remarkable efficiency of the brain to compute and communicate information costs the body 20% of its total energy budget. Therefore, the cellular mechanisms responsible for brain energy metabolism developed adequately to face the energy needs. Recent advances in neuroenergetics tend to indicate that the main site of energy consumption in the brain is the astroglial process ensheating activated excitatory synapses. A large body of evidence has now shown that glutamate uptake by astrocytes surrounding synapses is responsible for a significant metabolic cost, whose metabolic response is apparently mainly glycolytic. However, astrocytes have also a significant mitochondrial oxidative metabolism. Therefore, the location of mitochondria close to glutamate transporters raises the question of the existence of mechanisms for tuning their energy metabolism, in particular their mitochondrial metabolism.To tackle these issues, we used real time imaging techniques to study mitochondrial ionic alterations occurring at resting state and during glutamatergic stimulation of mouse cortical astrocytes. We showed that mitochondria of intact resting astrocytes exhibited individual spontaneous and selective alterations of their electrical potential, pH and Na+ concentration. We found that glutamate decreased the frequency of mitochondrial Na+ transient activity by decreasing the cellular level of ATP. We then investigated a possible link between glutamatergic transmission and mitochondrial metabolism in astrocytes. We showed that glutamate triggered a rapid Na+ concentration increase in the mitochondrial population as a result of plasma-membrane Na+-dependent uptake. We then demonstrated that neuronally released glutamate also induced a mitochondrial acidification in astrocytes. Glutamate induced a pH-mediated and cytoprotective decrease of mitochondrial metabolism that diminished oxygen consumption. Taken together, these studies showed that astrocytes contain mitochondria that are individually regulated and sense the intracellular environment to modulate their own activity. The dynamic regulation of astrocyte mitochondrial energy output operated by glutamate allows increasing oxygen availability and lactate production both being beneficial for neurons.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Messages à retenir: Connaître le principe physique de l'imagerie de diffusion (DWI) à l'IRM adaptée à l'exploration des tumeurs du foie.Savoir la bonne technique d'acquisition des séquences pour évaluer la diffusion du parenchyme hépatique ainsi que des lésions focales intra -hépatiques les plusfréquentes.Apprendre l'utilité de la DWI pour évaluer le succès d'un traitement médical oncologique ou interventionnel .Discuter les avantages et les pièges liés à la DWI hépatique susceptibles d'influencer l'interprétation des tumeurs hépatiques. Résumé: Le principe d'imagerie de diffusion (DWI) à l'IRM repose sur la mobilité des molécules d'eau dans les différents tissus. Ce «mouvement Brownien» dépend de lacellularité tissulaire , des membranes cellulaires intactes et de la vascularisation . L'augmentation de ces paramètres précités résulte en une restriction de ladiffusion moléculaire, caractérisée par un hypersignal, puis quantifié par le calcul d'un coefficient apparent de diffusion (ADC). Basée sur des séquenceséchoplanaires pondérées en T2, la technique d'acquisition est rapide et non-invasive, donc souvent intégrée à l'IRM hépatique de routine. La DWI s'est révéléetrès sensible pour la détection de tumeurs hépatiques, même à un diamètre infracentimétrique. Néanmoins, sans être très spécifique, elle ne donne pas d'information certaine sur le caractère bénin ou malin, et elle doit être interprétée avec les autres séquences d'IRM et dans le contexte clinique donné. L'informationdiagnostique résultant de la DWI est morphologique et fonctionnelle, ce qui permet d'évaluer le succès de traitements oncologiques, notamment en absence dechangement de taille ou persistance de prise de contraste des lésions hépatiques. Très sensibles aux mouvements respiratoires, la DWI hépatique peut êtreaccompagnée d'artéfacts, qui influencent le calcul de l'ADC dont la valeur dépend de la machine IRM utilisée.
Resumo:
Le fonctionnement du système nerveux est sensible aux variations de la concentration d'acide. Une acidification des tissus peut se produire pendant une activité neuronale intense ou dans des situations physiopathologiques telles que l'inflammation ou les lésions cérébrales. Les canaux ioniques sensibles à l'acide (ASIC) sont activés par acidification et jouent un rôle important dans la détection des changements d'acide. Les ASICs contribuent à la dégénérescence neuronale après une lésion cérébrale, puisque leur inhibition limite la lésion neuronale. L'acidification induite par une inflammation du tissu nerveux conduit à des stimuli de douleur, qui sont détectés par ces canaux. En effet, les toxines qui bloquent spécifiquement les ASICs montrent des effets analgésiques dans des modèles animaux. La structure 3D d'ASIC peut être comparée à une main qui tient une boule entre son pouce et le doigt. Les différents domaines d'ASIC sont appelés doigt, pouce, jointure, boule-ß et paume. Les domaines transmembranaires représentent le poignet de cette main. Mon projet de thèse vise à décrire les mouvements survenant sur ce canal pendant son activité. A cet effet, j'ai utilisé une technique combinée qui permet la mesure des mouvements en temps réel durant l'activité du canal. J'ai montré les réarrangements des domaines extracellulaires pendant l'activité ASIC. Ces mouvements sont transmis au pore du canal, ou ils contrôlent sa fermeture et ouverture. La direction de ces mouvements a été évaluée pour les domaines doigt et jointure, et nous avons montré qu'ils s'éloignent de la boule-ß lors de l'acidification. J'ai également été en mesure de décrire les mouvements qui se produisent dans la poche acidique, une zone qui est considérée comme importante, car elle représente le site de liaison de certaines toxines de venin qui agissent sur les ASICs. J'ai ainsi pu montrer que les domaines doigt et le pouce qui forment la poche acidique se rapprochent l'un de l'autre pendant l'activation du canal. Ces résultats sont en accord avec des observations précédentes réalisées sur les ASICs par d'autres chercheurs. Enfin, cette analyse approfondie permet d'améliorer les connaissances sur le contrôle de l'activité ASIC; de plus, les mécanismes trouvés ici sont probablement partagés entre les canaux de la famille à laquelle appartiennent les ASICs. -- Les acid-sensing ion channels (ASICs) sont des canaux sodiques ouverts par les protons et principalement exprimés dans le système nerveux. Ils sont impliqués dans la détection des protons dans de nombreux états physiologiques et pathologiques comme l'ischémie et la perception de la douleur. La structure cristalline de l'isoforme ASIC1 de poulet a été déterminée dans l'état désensibilisé et ouvert. Les études fonctionnelles indiquent que la protonation des résidus clés dans la boucle extracellulaire déclenche des changements de conformation conduisant à l'ouverture du canal. Cependant, les mécanismes moléculaires qui relient la protonation à l'ouverture et la fermeture du canal n'ont pas encore été clarifiés. Dans cette étude, nous avons utilisé la voltage-clamp fluorimétrie (VCF) pour révéler les mouvements de l'activité associée qui se produisent dans les différents domaines de l'ASICla. Les fluorophores positionnés dans le pouce, la paume, le doigt, l'articulation et dans les domaines de l'entrée du pore extracellulaire ont montré des signaux de VCF liés à des changements de conformation au cours de l'activité du canal. La synchronisation des changements de fluorescence indique une séquence complexe de mouvements en fonction du pH. La cinétique de la fluorescence et des signaux de courant ont été comparés les uns aux autres afin de déterminer si le mouvement détecté par le signal de fluorescence correspond à une transition fonctionnelle définie du canal. Certains des résidus testés se sont révélés être étroitement liés à la désensibilisation du canal ou au rétablissement après la désensibilisation. En outre, nous avons trouvé qu'un tryptophane endogène de la boule-ß diminue le signal de fluorescence des sondes positionnées dans les domaines doigt et jointure. L'augmentation observée de ces signaux indique que ces domaines s'éloignent à une distance à partir de la boucle de la boule-ß. Sur la base de ce principe, nous avons généré des paires Trp-Cys « quencher», dans lequel le Cys est utilisé comme site d'ancrage pour attacher le fluorophore. Ensuite, nous avons évalué les changements de conformation qui se produisent au niveau de la poche acide, une zone importante pour la fonction et la régulation d'ASIC. Les signaux de fluorescence indiquent un mouvement de l'hélice supérieure du pouce vers le doigt et une rotation de la boule-ß dans le sens horaire. L'analyse de la cinétique indique que les mouvements des sous-domaines qui composent la poche acide se produisent pendant la désensibilisation du canal. Mon projet de doctorat représente la première analyse approfondie des changements conformationnels dépendants de l'activité des ASICs et fournit des informations sur les mécanismes de contrôle de l'activité du canal qui sont probablement partagés avec d'autres canaux proches.
Resumo:
La présente thèse de doctorat s'inscrit dans le champ des recherches en didactique des langues et des cultures. Il s'agit d'une étude théorique et empirique qui s'interroge sur le rôle que la lecture littéraire joue dans l'appropriation langagière et culturelle d'individus adultes plurilingues, apprenant le français comme langue seconde et/ou étrangère en contexte universitaire. Dans la partie théorique, dans le droit fil d'une approche plurilingue et pluriculturelle, la lecture est considérée comme une pratique littératiée, c'est-à-dire une pratique langagière contextualisée relative au langage écrit. La littérature, quant à elle, est définie comme un ensemble de discours faisant l'objet de représentations sociales et auxquels sont attribuées des valeurs symboliques. L'appropriation langagière et culturelle, considérée dans une perspective socio-discursive, est liée aux notions d'identités multiples, de représentations et de subjectivité. En conformité avec le champ des recherches en didactique des littératures, en outre, la lecture littéraire est définie comme une manière particulière de lire des textes. Elle varie selon les contextes et les tâches requises, selon les postures que les lecteurs adoptent (ce qui permet de définir différents types de lecture) et selon les compétences que ces lecteurs mettent en oeuvre pour comprendre et pour interpréter les textes (les modes de lecture). La partie empirique consiste en une analyse qualitative et compréhensive de témoignages recueillis auprès de dix étudiants universitaires (neuf femmes et un homme) interrogés à plusieurs reprises par oral et par écrit et observés en classe. L'analyse porte à la fois sur la forme et sur les contenus des discours. Il s'agit d'appréhender la manière dont les participants décrivent leurs pratiques de lecture, reconfigurent leurs identités multiples de lecteurs et de locuteurs plurilingues selon différents contextes et construisent leurs représentations sur la lecture, la langue, la littérature et l'apprentissage. Dans la partie didactique conclusive, en se basant sur les analyses effectuées et en reprenant le cadre théorique, il est procédé à une conceptualisation de la lecture littéraire plurilingue. Les répartitions traditionnelles entre modes et types de lecture sont reconsidérées en observant des oppositions scalaires complexes entre les différents modes et les différents types. Dès lors, il est possible de théoriser les notions de lecture- capital et de lecture-plaisir comme deux types de lecture, conformes aux descriptions des participants, pouvant devenir des objectifs d'apprentissage en contexte de classe. Ces types de lecture se lient en effet à deux actions indispensables en vue de déclencher le processus d'appropriation : l'investissement et l'engagement. Les étudiants, par ailleurs, montrent qu'ils disposent d'un répertoire langagier et culturel pluriel et commun à toutes leurs langues et qu'ils mobilisent des ressources linguistiques et symboliques pour s'approprier les nouveaux textes qu'ils lisent. Par conséquent, conformément aux études relatives à la compétence plurilingue et pluriculturelle, on peut constater que le lecteur plurilingue effectue des transferts et des renvois au sein de l'ensemble de ses langues. La thèse se termine avec une ouverture sur des pistes pédagogiques qui prennent en compte les pratiques de lecture et les représentations observées : les approches les plus adaptées à une didactique de la lecture littéraire et de la littérature s'adressant à des lecteurs-acteurs plurilingues se révèlent être des approches plurielles, plurilingues et intégrées.