714 resultados para Optique adaptative
Resumo:
Au carrefour du divertissement et de l'information, l'émission télévisuelle, Les Guignols de l'info, parodie le monde culturel, politique et médiatique français par le biais des personnalités qui le composent. Créée dans une optique humoristique, l'émission pointe certains dysfonctionnements émergeant dans l'espace public. Elle dénonce ainsi une instrumentalisation du discours par les politiques à l'exemple des stratégies d'évitement déployées par Nicolas Sarkozy dans l'entretien analysé. Plus largement, cette dénonciation tend à révéler la présence d'un nouveau type de populisme dans les pratiques de communication médiatique actuelles. L'émission participe de ce fait à un commentaire citoyen sur l'espace public.
Resumo:
RÉSUMÉ Plusieurs auteurs ont étudié la perception en fonction de la psychopathologie. Dans cette optique, Borgeat, David, Saucier et Dumont en 1994 et Borgeat, Sauvageau, David et Saucier en 1997 ont utilisé la méthode tachistoscopique afin de comparer, dans une étude prospective, la perception de stimuli émotionnels entre des femmes souffrant d'une dépression du post- partum et des femmes non atteintes. Par ailleurs, des études antérieures, notamment les travaux de MacLeod et Rutherford en 1992, avaient montré la possibilité d'un processus de perception différent entre sujets anxieux et non anxieux. L'étude actuelle pose l'hypothèse d'une interaction entre caractéristiques du stimulus et trouble anxieux du sujet. Cette hypothèse suppose donc un processus préconscient de l'information, avec analyse sémantique de cette dernière, à même d'influencer (inhiber ou faciliter) la perception de certains stimuli en fonction de leur charge affective. L'étude que nous présentons a pour but d'évaluer la perception de stimuli anxiogènes chez les patients atteints de troubles anxieux, et plus particulièrement chez des sujets souffrant d'attaque de panique et de troubles obsessionnels-compulsifs. A cette fin, nous avons choisi, contrairement à la plupart des études effectuées jusqu'à présent où la méthode Stroop avait été utilisée, la technique tachistoscopique qui, à notre avis, permet une mesure plus directe de la rapidité du processus perceptuel. Ainsi, trois groupes de sujets ont pris part à l'étude : un groupe contrôle (N = 22), un groupe de patients souffrant d'attaques de panique (N = 21) et un groupe de patients atteints de troubles obsessionnels-compulsifs (N = 20). Ces 63 sujets, âgés entre 18 et 60 ans, ont à la fois répondu au Fear Questionnaire ainsi qu'au Questionnaire Beck 13 pour la dépression et procédé à la reconnaissance de 42 mots (six groupes de sept mots) présentés aléatoirement à l'ordinateur, en cycles successifs de 15 millisecondes. Cinq parmi les six groupes de mots se référaient à un trouble anxieux spécifique, le sixième étant considéré comme un groupe de mots « neutres ». Le temps, en millisecondes, nécessaire à la reconnaissance de chaque mot a été enregistré. Les résultats montrent une lenteur de la part des patients souffrant d'attaques de panique pour la reconnaissance de tous les stimuli par rapport aux sujets contrôle, avec une performance intermédiaire entre les deux groupes pour les patients atteints de troubles obsessionnels-compulsifs. De plus, l'analyse statistique a révélé deux effets d'interaction : les patients atteints d'attaques de panique sont plus rapides à reconnaître le groupe de mots en rapport avec leur angoisse, de même que les patients soufflant de troubles obsessionnels- compulsifs ont un temps moyen de reconnaissance des mots en rapport avec leur trouble plus bas que prévu. Ces résultats amènent à une double conclusion. La première est que les patients anxieux manifestent une défense perceptuelle globale face aux stimuli anxiogènes en général, et que cette défense est plus marquée chez les patients atteints d'attaques de panique que chez les sujets souffrant de troubles obsessionnels-compulsifs. La deuxième est que ces mêmes patients, confrontés à des stimuli en rapport avec leur propre angoisse, montrent une vigilance accrue. Ainsi, ces données évoquent une double stratégie de traitement de l'information chez les patients anxieux : un évitement perceptuel général face à l'information émotionnellement chargée, et un traitement sélectif de l'information ayant un rapport direct avec l'angoisse dont ils soufflent. SUMMARY Prior research by MacLeod and Rutherford (1992) indicates that anxious subjects could have perceptual strategies different from nonanxious subjects. 42 verbal stimuli of six types (disease, social anxiety, panic, agoraphobia, obsessive-compulsive, and neutral) were tachistoscopically presented to three groups of subjects, aged 18 to 60 years: Panic Disorder group (n =21: 13 women and 8 men), and Obsessive-Compulsive Disorder group (n=20: 14 women and 6 men), recruited from an outpatient clinic, and a Control group (n=22: 14 women and 8 men), recruited among students and hospital staff. The times required for correct identification were generally longer for anxious subjects but quicker for stimuli specifically related to their disorder. The data could indicate a two-step perceptual strategy or two distinct ways of perceiving, usually, a generalized perceptual defense for a majority of anxiety-loaded stimuli, but also a selectively facilitated processing for stimuli specific to the disorder.
Resumo:
The adaptative response of the developing heart to adverse intrauterine environment such as reduced O2 delivery can result in alteration of gene expression with short- and long-term consequences including adult cardiovascular diseases. The tolerance of the developing heart of acute or chronic oxygen deprivation, its capacity to recover during reperfusion and the mechanisms involved in reoxygenation injury are still under debate. Indeed, the pattern of response of the immature myocardium to hypoxia-reoxygenation differs from that of the adult. This review deals with the structural and metabolic characteristics of the embryonic heart and the functional consequences of hypoxia and reoxygenation. The relative contribution of calcium and sodium overload, pH disturbances and oxidant stress to the hypoxia-induced cardiac dysfunction is examined, as well as various cellular signaling pathways (e.g. MAP kinases) involved in cell survival or death. In the context of the recent advances in developmental cardiology and fetal cardiac surgery, a better understanding of the physiopathology of the stressed developing heart is required.
Resumo:
L?objectif de ce travail de thèse est l?étude des changements conformationels des biomacromolecules à l?échelle d?une molécule unique. Pour cela on a utilisé la Microscopie à Force Atomique (AFM) appliqué à l?étude des protéines et des acides nucléiques déposés sur une surface. Dans ce type de microscopie, une pointe très fine attachée à l?extrémité d?un levier est balayée au dessus d?une surface. L?interaction de la pointe avec la surface de l?échantillon induit la déflection du levier et ce phénomène permet de reconstruire la topographie de l?échantillon. Très importante dans cette technique est la possibilité de travailler en liquide. Cela permet de étudier les biomolécules en conditions quasi-physiologiques sans qu?elles perdent leur activité. On a étudié GroEL, la chaperonin de E.coli, qui est un homo oligomère avec une structure à double anneau qui joue un rôle très important dans le repliement des protéines dénaturées et celles qui viennent d?être synthétisées. En particulier on a focalisé notre attention sur la stabilité mécanique et sur les changements conformationels qui ont lieu pendant l?activité de GroEL. Une analyse détaillée des changements dans la stabilité mécanique et des effets produits par la liaison et l?hydrolyse de l?ATP est présentée dans ce travail. On a montré que le point le plus faible dans la structure de GroEL est l?interface entre les deux anneaux et que l?étape critique dans l?affaiblissement de la structure est l?hydrolyse de l?ATP. En ce qui concerne le changement conformationel, le passage d?une surface hydrophobe à hydrophile, induit par l?hydrolyse de l?ATP, a été montré. Ensuite on a étudié le changement dans la conformation et dans la topologie de l?ADN résultant de l?interaction avec des molécules spécifiques et en réponse à l?exposition des cellules de E.coli à des conditions de stress. Le niveau de surenroulement est un paramètre très sensible, de façon variée, à tous ces facteurs. Les cellules qui ont crus à de températures plus élevées que leur température optimale ont la tendance à diminuer le nombre de surenroulements négatif pour augmenter la stabilité thermique de leur plasmides. L?interaction avec des agents intercalant induit une transition d?un surenroulement négatif à un surenroulement positif d?une façon dépendante de la température. Finalement, l?effet de l?interaction de l?ADN avec des surfaces différentes a été étudié et une application pratique sur les noeuds d?ADN est présentée.<br/><br/>The aim of the present thesis work is to study the conformational changes of biomacromolecules at the single molecule level. To that end, Atomic Force Microcopy (AFM) imaging was performed on proteins and nucleic acids adsorbed onto a surface. In this microcopy technique a very sharp tip attached at the end of a soft cantilever is scanned over a surface, the interaction of the tip with the sample?s surface will induce the deflection of the cantilever and thus it will make possible to reconstruct the topography. A very important feature of AFM is the possibility to operate in liquid, it means with the sample immersed in a buffer solution. This allows one to study biomolecules in quasi-physiological conditions without loosing their activity. We have studied GroEL, the chaperonin of E.coli, which is a double-ring homooligomer which pays a very important role in the refolding of unfolded and newly synthetized polypeptides. In particular we focus our attention on its mechanical stability and on the conformational change that it undergoes during its activity cycle. A detailed analysis of the change in mechanical stability and how it is affected by the binding and hydrolysis of nucleotides is presented. It has been shown that the weak point of the chaperonin complex is the interface between the two rings and that the critical step to weaken the structure is the hydrolysis of ATP. Concerning the conformational change we have directly measured, with a nanometer scale resolution, the switching from a hydrophobic surface to a hydrophilic one taking place inside its cavity induced by the ATP hydrolysis. We have further studied the change in the DNA conformation and topology as a consequence of the interaction with specific DNA-binding molecules and the exposition of the E.coli cells to stress conditions. The level of supercoiling has been shown to be a very sensitive parameter, even if at different extents, to all these factors. Cells grown at temperatures higher than their optimum one tend to decrease the number of the negative superhelical turns in their plasmids in order to increase their thermal stability. The interaction with intercalating molecules induced a transition from positive to negative supercoiling in a temperature dependent way. The effect of the interaction of the DNA with different surfaces has been investigated and a practical application to DNA complex knots is reported.<br/><br/>Observer les objets biologiques en le touchant Schématiquement le Microscope a Force Atomique (AFM) consiste en une pointe très fine fixée a l?extrémité d?un levier Lors de l?imagerie, la pointe de l?AFM gratte la surface de l?échantillon, la topographie de celui-ci induit des déflections du levier qui sont enregistrées au moyen d?un rayon laser réfléchi par le levier. Ces donnés sont ensuit utilisés par un ordinateur pour reconstituer en 3D la surface de l?échantillon. La résolution de l?instrument est fonction entre autre de la dureté, de la rugosité de l?échantillon et de la forme de la pointe. Selon l?échantillon et la pointe utilisée la résolution de l?AFM peut aller de 0.1 A (sur des cristaux) a quelque dizaine de nanomètres (sur des cellules). Cet instrument est particulierment intéressant en biologie en raison de sa capacité à imager des échantillons immergés dans un liquide, c?est à dire dans des conditions quasiphysiologiques. Dans le cadre de ce travail nous avons étudié les changements conformationels de molécules biologiques soumises à des stimulations externes. Nous avons essentielment concentré notre attention sur des complexes protéiques nommé Chaperons Moléculaires et sur des molécules d?ADN circulaire (plasmides). Les Chaperons sont impliqués entre autre dans la résistance des organismes vivants aux stress thermiques et osmotiques. Leur activité consiste essentielment à aider les autres protéines à être bien pliés dans leur conformation finale et, en conséquence, à eviter que ils soient dénaturées et que ils puissent s?agréger. L?ADN, quant à lui est la molécule qui conserve, dans sa séquence, l?information génétique de tous les organismes vivants. Ce travail a spécifiquement concerné l?étude des changements conformationels des chaperonins suit a leur activation par l?ATP. Ces travaux ont montrés a l?échelle de molécule unique la capacité de ces protéines de changer leur surface de hydrophobique a hydrophilique. Nous avons également utilisé l?AFM pour étudier le changement du nombre des surenroulements des molécules d?ADN circulaire lors d?une exposition à un changement de température et de force ionique. Ces travaux ont permis de montrer comment la cellule regle le nombre de surenroulements dans ces molécules pour répondre et contrôler l?expression génétique même dans de conditions extrêmes. Pour les deux molécules en général, c?était très important d?avoir la possibilité de observer leur transitions d?une conformation a l?autre directement a l?échelle d?une seul molécule et, surtout, avec une résolution largement au dessous des la longueur d?onde de la lumière visible que représente le limite pour l?imagerie optique.
Resumo:
1. 1. Summaries 1.1. Preamble and extended abstract The present thesis dissertation addresses the question of antiviral immunity from the particular standpoint of the adaptive T cell-mediated immune response. The experimental work is presented in the form of three published articles (two experimental articles and one review article, see sections 4.1, 4.2 and 4.3 on pages 73, 81 and 91, respectively), describing advances both in our understanding of viral control by CD8 T lymphocytes, and in vaccine development against the Human Immunodeficiency Virus Type 1 (HIV-1). Because the articles focus on rather specialized areas of antiviral immunity, the article sections are preceded by a general introduction (section 3) on the immune system in general, and on four viruses that were addressed in the experimental work, namely HIV-1, Cytomegalovirus (CMV), Epstein Barr Virus (EBV) and Influenzavirus (Flu). This introduction section is aimed at providing a glimpse on viral molecular biology and immunity, to help the hypothetical non-expert reader proceeding into the experimental part. For this reason, each section is presented as individual entity and can be consulted separately. The four viruses described are of peculiar relevance to immunity because they induce an array of opposite host responses. Flu causes a self limiting disease after which the virus is eradicated. CMV and EBV cause pauci-symptomatic or asymptomatic diseases after which the viruses establish lifelong latency in the host cells, but are kept in check by immunity. Eventually, HIV-1 establishes both latency - by inserting its genome into the host cell chromosome - and proceeds in destroying the immune system in a poorly controlled fashion. Hence, understanding the fundamental differences between these kinds of viral host interactions might help develop new strategies to curb progressive diseases caused by viruses such as HIV-1. Publication #1: The first article (section 4.1, page 73) represents the main frame of my laboratory work. It analyses the ability of CD8 T lymphocytes recovered from viral-infected patients to secrete interferon γ (IFN-γ) alone or in conjunction with interleukin 2 (IL-2) when exposed in vitro to their cognate viral antigens. CD8 T cells are instrumental in controlling viral infection. They can identify infected cells by detecting viral antigens presented at the surface of the infected cells, and eliminate both the cell and its infecting virus by triggering apoptosis and/or lysis of the infected cell. Recognition of these antigens triggers the cognate CD8 cells to produce cytokines, including IFN-γ and IL-2, which in turn attract and activate other pro-inflammatory cells. IFN-γ triggers both intrinsic antiviral activity of the infected cells and distant activation of pro-inflammatory cells, which are important for the eradication of infection. IL-2 is essential for clonal expansion of the antigen (Ag)-specific CD8 T cell. Hence the existence of Ag-specific CD8 cells secreting both IFN-γand IL-2 should be beneficial for controlling infection. In this first work we determined the percentage of IFN-y/IL-2 double positive and single IFN-γsecreting CD8 T cells against antigens HIV-1, CMV, EBV and Flu in three groups of subjects: (i) HIV-1 infected patients progressing to disease (progressors), (ii) HIV-1-infected subjects not progressing to disease (long-term non progressors or LTNP), and (iii) HIV negative blood donors. The results disclosed a specific IFN-y/IL-2 double positive CD8 response in all subjects able to control infection. In other words, IFN-y/IL-2 double positive CD8 cells were present in virus-specific CD8 T cells against Flu, CMV and EBV as well against HIV-1 in LTNP. In contrast, progressors only had single IFN-γsecreting CD8 T cells. Hence, the ability to develop an IFN-y/IL-2 double positive response might be critical to control infection, independently of the nature of the virus. Additional experiments helped identify the developmental stage of the missing cells (using different markers such as CD45RA and CCR7) and showed a correlation between the absence of IL-2 secreting CD8 T cells and a failure in the proliferation capacity of virus-specific CD8 T cells. Addition of exogenous IL-2 could restore clonal expansion of HIV-1 specific CD8 T cells, at least in vitro. It could further been shown, that IL-2 secreting CD8 T cells are sufficient to support proliferation even in absence of CD4 help. However, the reason for the missing IFN-y/IL-2 double positive CD8 T cell response in HIV-1 progessors has yet to be determined. Publication #2: The second article (section 4.2, page 81) explores new strategies to trigger CD8 T cell immunity against specific HIV-1 proteins believed to be processed and exposed as "infection signal" at the surface of infected cells. Such signals consist of peptide fragments (8- 13 amino acids) originating from viral proteins and presented to CD8 T cells in the frame of particular cell surface molecules of the major histocompatibility complex class I* (MHC I). To mimic "natural" viral infection, the HIV-1 polyprotein Gagpolnef was inserted and expressed in either of two attenuated viruses i.e. vaccinia virus (MVA) or poxvirus (NYVAC). Mice were infected with these recombinant viruses and specific CD8 T cell response to Gagpolnef peptides was sought. Mice could indeed mount a CD8 T cell response against the HIV-1 antigens, indicating that the system worked, at least in this animal model. To further test whether peptides from Gagpolnef could also be presented in the frame of the human MHC class I proteins, a second round of experiments was performed in "humanized" transgenic mice expressing human MHC molecules. The transgenic mice were also able to load Gagpolnef peptides on their human MHC molecule, and these cells could be detected and destroyed by Ag-specific CD8 T cells isolated from HIV-1-infected patients. Therefore, expressing Gagpolnef on attenuated recombinant viruses might represent a valid strategy for anti-HIV-1 immunization in human. Publication #3: This is a review paper (section 4.3, page 91) describing the immune response to CMV and newly developed methods to detect this cellular immune response. Some of it focuses on the detection of T cells by using in vitro manufactured tetramers. These consist of four MHC class I molecules linked together and loaded with the appropriate antigenic peptide. The tetramer can be labeled with a fluorochrome and analyzed with a fluorescence-activated cell sorter. Taken together, the work presented indicates that (i) an appropriate CD8 T cell response consisting of IFN-y/IL-2 double positive effectors, can potentially control viral infection, including HIV-1 infection, (ii) such a response might be triggered by recombinant viral vaccines, and (iii) CD8 T cell response can be monitored by a variety of techniques, including recently-developed MHC class I tetramers. 1. 2. Préambule et résumé élargi Le présent travail de thèse s'intéresse à l'immunité antivirale du point de vue particulier de la réponse adaptative des cellules T. Le travail expérimental est présenté sous la forme de trois articles publiés (2 articles expérimentaux et 1 article de revue, voir sections 4.1, 4.2 et 4.3, pages 58, 66 et 77, respectivement), décrivant des progrès dans la compréhension du contrôle de l'infection virale par les lymphocytes T CD8, ainsi que dans le développement de nouveaux vaccins contre le Virus d'Immunodéficience de Humaine de type 1 (VIH-1). En raison du caractère spécialisé de l'immunité antivirale de type cellulaire, les articles sont précédés par une introduction générale (section 3), dont le but est de pourvoir le lecteur non avisé avec des bases nécessaire à une meilleure appréhension du travail expérimental. Cette introduction présente les grandes lignes du système immunitaire, et décrit de façon générale les 4 virus utilisés dans le travail expérimental: à savoir le virus VIH-1, le Cytomégalovirus (CMV), le virus Epstein Barr (EBV) et le virus Influenza A (Flu). Toutes les sections sont présentées de façon individuelle et peuvent être consultées séparément. La description des 4 virus a une pertinence particulière quant à leur interaction avec le système immun. En effet, ils induisent une panoplie de réponses immunitaires s'étendant aux extrêmes de la réaction de l'hôte. Influenza A est à l'origine d'une maladie cytopathique aiguë, au décours de laquelle le virus est éradiqué par l'hôte. CMV et EBV sont classiquement à l'origine d'infections pauci-symptomatiques, voire asymptomatiques, après lesquelles les virus persistent de façon latente dans la cellule hôte. Cependant, ils restent sous le contrôle du système immun, qui peut prévenir une éventuelle réactivation. Enfin, VIH-1 s'établit à la fois en infection latente - par l'insertion de son génome dans le chromosome des cellules hôtes - et en infection productive et cytopathique, échappant au contrôle immunitaire et détruisant ses cellules cibles. La compréhension des différences fondamentales entre ces différents types d'interactions virus-hôte devraient faciliter le développement de nouvelles stratégies antivirales. Article 1: Le premier article (section 4.1 Page 58) représente l'objet principal de mon travail de laboratoire. Il analyse la capacité des lymphocytes T CD8 spécifiques de différent virus à sécréter de l'interféron gamma (IFN-y) et/ou de l'interleukine 2 (IL-2) après stimulation par leur antigène spécifique. Les cellules T CD8 jouent un rôle crucial dans le contrôle des infections virales. Elles identifient les cellules infectées en détectant des antigènes viraux présentés à la surface de ces mêmes cellules, et éliminent à la fois les cellules infectées et les virus qu'elles contiennent en induisant l'apoptose et/ou la lyse des cellules cibles. Parallèlement, l'identification de l'antigène par la cellule T CD8 la stimule à sécréter des cytokines. L'IFN-γen est un exemple. L'IFN-γ stimule les cellules infectées à développer une activé antivirale intrinsèque. De plus, il attire sur place d'autres cellules de l'inflammation, et active leur fonction d'éradication des pathogènes. L'IL-2 est un autre exemple. L'IL-2 est essentielle à l'expansion clonale des cellules T CD8 spécifiques à un virus donné. Elle est donc essentielle à augmenter le pool de lymphocytes antiviraux. En conséquence, la double capacité de sécréter de l'IFN-γ et de IL-2 pourrait être un avantage pour le contrôle antiviral par les cellules T CD8. Dans ce travail nous avons comparé les proportions de lymphocytes T CD8 doubles positifs (IFN-γ/IL-2) et simples positifs (IFN-γ) chez trois groupes de sujets: (i) des patients infectés par VIH-1 qui ne contrôlent pas l'infection (progresseurs), (ii) des patients infectés par VIH-1, mais contrôlant l'infection malgré l'absence de traitement ("long term non progressors" [LTNP]) et (iii) des donneurs de sang négatifs pour l'infection à VIH-1. Les résultats ont montré que les individus capables de contrôler une infection possédaient des cellules T CD8 doubles positifs (IFN-γ/IL-2), alors que les patients ne contrôlant pas l'infection procédaient prioritairement des CD8 simples positifs (IFN-γ). Spécifiquement, les lymphocytes T spécifiques pour Flu, CMV, EBV, et VII-1-1 chez les LTNP étaient tous IFN-γ/IL-2 doubles positifs. Au contraire, les lymphocytes T CD8 spécifique à VIH-1 étaient IFN-γ simples positifs chez les progresseurs. La capacité de développer une réponse IFN-γ/IL-2 pourraient être primordiale pour le contrôle de l'infection, indépendamment de la nature du virus. En effet, il a été montré que l'absence de sécrétion d'IL2 par les lymphocytes T CD8 corrélait avec leur incapacité de proliférer. Dans nos mains, cette prolifération a pu être restaurée in vitro par l'adjonction exogène d'IL-2. Toutefois, la faisabilité de ce type de complémentation in vivo n'est pas claire. Des expériences additionnelles ont permis de préciser de stade de développement des lymphocytes doubles positifs et simples positifs par le biais des marqueurs CD45RA et CCR7. Il reste maintenant à comprendre pourquoi certains lymphocytes T CD8 spécifiques sont incapables à sécréter de l'IL-2. Article 2: Le deuxième article explore des nouvelles stratégies pour induire une immunité T CD8 spécifique aux protéines du VIH-1, qui sont édités et exposés à la surface des cellules infectées. Ces signaux consistent en fragments de peptide de 8-13 acide aminés provenant de protéines virales, et exposées à la surface des cellules infectées dans le cadre des molécules spécialisées d'histocompatibilité de classe I (en anglais "major histocompatibility class I" ou MHC I). Pour mimer une infection virale, la polyprotéine Gagpolnef du VIH-1 a été insérée et exprimée dans deux vecteurs viraux atténués, soit MVA (provenant de vaccinia virus) ou NYVAC (provenant d'un poxvirus). Ensuite des souris ont été infectées avec ces virus recombinants et la réponse T CD8 aux peptides issus de Gagpolnef a été étudiée. Les souris ont été capables de développer une réponse de type CD8 T contre ces antigènes du VIH-1. Pour tester si ces antigènes pouvaient aussi être présentés par dans le cadre de molécules MHC humaines, des expériences supplémentaires ont été faites avec des souris exprimant un MHC humain. Les résultats de ces manipulations ont montré que des cellules T CD8 spécifique aux protéines du VIH pouvaient être détectées. Ce travail ouvre de nouvelles options quant à l'utilisation des virus recombinants exprimant Gagpolnef comme stratégie vaccinale contre le virus VIH-I chez l'homme. Article 3: Ces revues décrivent la réponse immunitaire à CMV ainsi que des nouvelles méthodes pouvant servir à sa détection. Une partie du manuscrit décrit la détection de cellule T à l'aide de tétramères. Il s'agit de protéines chimériques composées de 4 quatre molécules MHC liées entre elles. Elles sont ensuite "chargées" avec le peptide antigénique approprié, et utilisée pour détecter les cellules T CD8 spécifiques à ce montage. Elles sont aussi marquées par un fluorochrome, qui permet une analyse avec un cytomètre de flux, et l'isolement ultime des CD8 d'intérêt. En résumé, le travail présenté dans cette thèse indique que (i) une réponse T CD8 appropriée - définie par la présence des cellules effectrices doublement positives pour l'IFN-γ et l'IL-2 - semble indispensable pour le contrôle des infections virales, y compris par le VIH-1, (ii) une telle réponse peut être induite par des vaccin viral recombinant, et (iii) la réponse T CD8 peut être analysée et suivie grâce à plusieurs techniques, incluant celle des tétramères de MHC class I. 1.3. Résumé pour un large public Le système immunitaire humain est composé de différents éléments (cellules, tissus et organes) qui participent aux défenses de l'organisme contre les pathogènes (bactéries, virus). Parmi ces cellules, les lymphocytes T CD8, également appelés cellules tueuses, jouent un rôle important dans la réponse immunitaire et le contrôle des infections virales. Les cellules T CD8 reconnaissent de manière spécifique des fragments de protéines virales qui sont exposés à la surface des cellules infectées par le virus. Suite à cette reconnaissance, les cellules T CD8 sont capables de détruire et d'éliminer ces cellules infectées, ainsi que les virus qu'elles contiennent. Dans le contexte d'une infection par le virus de l'immunodéficience humaine (VIH), le virus responsable du SIDA, il a pu être montré que la présence des cellules T CD8 est primordiale. En effet, en l'absence de ces cellules, les individus infectés par le VIH progressent plus rapidement vers le SIDA. Au cours de la vie, l'Homme est exposé à plusieurs virus. Mais à l'opposé du VIH, certains d'entre eux ne causent pas des maladies graves : par exemple le virus de la grippe (Influenza), le cytomégalovirus ou encore le virus d'Epstein-Barr. Certains de ces virus peuvent être contrôlés et éliminés de l'organisme (p. ex. le virus de la grippe), alors que d'autres ne sont que contrôlés par notre système immunitaire et restent présents en petite quantité dans le corps sans avoir d'effet sur notre santé. Le sujet de mon travail de thèse porte sur la compréhension du mécanisme de contrôle des infections virales par le système immunitaire : pourquoi certains virus peuvent être contrôlés ou même éliminés de l'organisme alors que d'autres, et notamment le VIH, ne le sont pas. Ce travail a permis de démontrer que les cellules T CD8 spécifiques du VIH ne sécrètent pas les mêmes substances, nécessaires au développement d'une réponse antivirale efficace, que les cellules T CD8 spécifiques des virus contrôlés (le virus de la grippe, le cytomégalovirus et le virus d'Epstein-Barr). Parallèlement nous avons également observé que les lymphocytes T CD8 spécifiques du VIH ne possèdent pas la capacité de se diviser. Ils sont ainsi incapables d'être présents en quantité suffisante pour assurer un combat efficace contre le virus du SIDA. La (les) différence(s) entre les cellules T CD8 spécifiques aux virus contrôlés (grippe, cytomégalovirus et Epstein-Barr) et au VIH pourront peut-être nous amener à comprendre comment restaurer une immunité efficace contre ce dernier.
Resumo:
L'aquifère du Seeland représente une richesse en ressources hydriques qu'il est impératif de préserver contre tout risque de détérioration. Cet aquifère prolifique est constitué principalement de sédiments alluviaux post-glaciaires (graviers, sables et limons). Il est soumis aux contraintes environnementales des pratiques d'agriculture intensive, du réseau routier, des villes et de leurs activités industrielles. La connaissance optimale de ces ressources est donc primordiale pour leur protection. Dans cette optique, deux sites Kappelen et Grenchen représentatifs de l'aquifère du Seeland ont été étudiés. L'objectif de ce travail est de caractériser d'un point de vue hydrogéophysique l'aquifère au niveau de ces deux sites, c'est-à-dire, comprendre la dynamique des écoulements souterrains par l'application des méthodes électriques de surface associées aux diagraphies en intégrant des méthodes hydrogéologiques. Pour le site de Kappelen, les méthodes électriques de surface ont permis d'identifier les différents faciès géoélectriques en présence et de mettre en évidence leur disposition en une structure tabulaire et horizontale. Il s'agit d'un aquifère libre constitué d'une série de graviers allant jusqu'à 15 m de profondeur reposant sur de la moraine argileuse. Les diagraphies électriques, nucléaires et du fluide ont servis à la détermination des caractéristiques pétrophysiques et hydrauliques de l'aquifère qui contrôlent son comportement hydrodynamique. Les graviers aquifères de Kappelen présentent deux minéraux dominants: quartz et calcite. Les analyses minéralogiques indiquent que ces deux éléments constituent 65 à 75% de la matrice. La porosité totale obtenue par les diagraphies nucléaires varie de 20 à 30 %, et de 22 à 29 % par diagraphies électrique. Avec les faibles valeurs de Gamma Ray ces résultats indiquent que l'aquifère des graviers de Kappelen est dépourvu d'argile minéralogique. La perméabilité obtenue par diagraphies du fluide varie de 3.10-4 à 5.10-2 m/s, et par essais de pompage de 10-4 à 10-2 m/s. Les résultats des analyses granulométriques indiquent une hétérogénéité granulométrique au niveau des graviers aquifères. La fraction de sables, sables très fins, silts et limons constitue de 10 à 40 %. Ces éléments jouent un rôle important dans le comportement hydraulique de l'aquifère. La porosité efficace de 11 à 25% estimée à partir des résultats des analyses granulométriques suppose que les zones les plus perméables correspondent aux zones les plus graveleuses du site. Etablie sur le site de Kappelen, cette méthodologie a été utilisée sur le site de Grenchen. Les méthodes électriques de surface indiquent que l'aquifère captif de Grenchen est constitué des sables silteux comprenant des passages sableux, encadrés par des silts argileux imperméables. L'aquifère de Grenchen est disposé dans une structure relativement tabulaire et horizontale. Son épaisseur totale peut atteindre les 25 m vers le sud et le sud ouest ou les passages sableux sont les plus importants. La détermination des caractéristiques pétrophysiques et hydrauliques s'est faite à l'aide des diagraphies. Les intensités Gamma Ray varient de 30 à 100 cps, les plus fortes valeurs n'indiquent qu'une présence d'éléments argileux mais pas de bancs d'argile. Les porosités totales de 15 à 25% et les densités globales de 2.25 à 2.45 g/cm3 indiquent que la phase minérale (matrice) est composée essentiellement de quartz et de calcaire. Les densités de matrice varient entre 2.65 et 2.75 g/cm3. La perméabilité varie de 2 10-6 à 5 10-4 m/s. La surestimation des porosités totales à partir des diagraphies électriques de 25 à 42% est due à la présence d'argiles. -- The vast alluvial Seeland aquifer system in northwestern Switzerland is subjected to environmental challenges due to intensive agriculture, roads, cities and industrial activities. Optimal knowledge of the hydrological resources of this aquifer system is therefore important for their protection. Two representative sites, Kappelen and Grenchen, of the Seeland aquifer were investigated using surface-based geoelectric methods and geophysical borehole logging methods. By integrating of hydrogeological and hydrogeophysical methods, a reliable characterization of the aquifer system at these two sites can be performed in order to better understand the governing flow and transport process. At the Kappelen site, surface-based geoelectric methods allowed to identify various geoelectric facies and highlighted their tabular and horizontal structure. It is an unconfined aquifer made up of 15 m thick gravels with an important sandy fraction and bounded by a shaly glacial aquitard. Electrical and nuclear logging measurements allow for constraining the petrophysical and hydrological parameters of saturated gravels. Results indicate that in agreement with mineralogical analyses, matrix of the probed formations is dominated by quartz and calcite with densities of 2.65 and 2.71 g/cc, respectively. These two minerals constitute approximately 65 to 75 % of the mineral matrix. Matrix density values vary from 2.60 to 2.75 g/cc. Total porosity values obtained from nuclear logs range from 20 to 30 % and are consistent with those obtained from electrical logs ranging from 22 to 29 %. Together with the inherently low natural gamma radiation and the matrix density values obtained from other nuclear logging measurements, this indicates that at Kappelen site the aquifer is essentially devoid of clay. Hydraulic conductivity values obtained by the Dilution Technique vary between 3.10-4 and 5.10-2 m/s, while pumping tests give values ranging from 10-4 to 10-2 m/s. Grain size analysis of gravel samples collected from boreholes cores reveal significant granulometric heterogeneity of these deposits. Calculations based on these granulometric data have shown that the sand-, silt- and shale-sized fractions constitute between 10 and 40 % of the sample mass. The presence of these fine elements in general and their spatial distribution in particular are important as they largely control the distribution of the total and effective porosity as well as the hydraulic conductivity. Effective porosity values ranging from 11 to 25% estimated from grain size analyses indicate that the zones of higher hydraulic conductivity values correspond to the zones dominated by gravels. The methodology established at the Kappelen site was then applied to the Grenchen site. Results from surface-based geoelectric measurements indicate that it is a confined aquifer made up predominantly of shaly sands with intercalated sand lenses confined impermeable shally clay. The Grenchen confined aquifer has a relatively tabular and horizontal structure with a maximum thickness of 25 m in the south and the southwest with important sand passages. Petrophysical and hydrological characteristics were performed using electrical and nuclear logging. Natural gamma radiation values ranging from 30 to 100 cps indicate presence of a clay fraction but not of pure clay layers. Total porosity values obtained from electrical logs vary form 25 to 42%, whereas those obtained from nuclear logs values vary from 15 to 25%. This over-estimation confirms presences of clays. Density values obtained from nuclear logs varying from 2.25 to 2.45 g/cc in conjunction with the total porosity values indicate that the dominating matrix minerals are quartz and calcite. Matrix density values vary between 2.65 and 2.75 g/cc. Hydraulic conductivity values obtained by the Dilution Technique vary from 2 10-6 to 5 10-4 m/s.
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.
Resumo:
Lorsqu'un individu est confronté à une situation stressante, une des réponses les plus saillantes est l'activation de l'axe HPA, caractérisée par le déclenchement d'un taux élevé de glucocorticoïdes dans le sang. De manière générale, cette réponse hormonale est adaptative et elle a pour but la mobilisation des ressources physiques et cognitives de l'individu pour une action spécifique (Axelrod & Reisine, 1984; Chrousos & Gold, 1992; N. M. Kaplan, 1988; McEwen, 2004). Cependant, lorsque une personne est confrontée très tôt dans son développement, et de manière répétée, à des situations de stress, cette réponse physiologique peut s'altérer, devenir inadaptée (Anand, 1993; Bremner et al., 1995; Meaney et al., 1996; Mirescu, Peters, & Gould, 2004; Plotsky & Meaney, 1993; Sapolsky, 2000) et être associée à des troubles cognitifs (McEwen & Sapolsky, 1995) et émotionnels (McEwen, 2000). A l'âge adulte, le résultat de ces altérations psychoneuroendocriniennes se traduit au cours de l'activation de l'axe HPA et elles sont visibles lors de situations de stress moins intenses (Graham, Heim, Goodman, Miller, & Nemeroff, 1999; Mirescu et al., 2004; Stam, Bruijnzeel, & Wiegant, 2000; A. Taylor, Fisk, & Glover, 2000). La dysregulation de l'axe HPA semble représenter un facteur de vulnérabilité lié à des dysfonctionnements psychiques et physiologiques chez les adultes (Heim, Ehlert, & Hellhammer, 2000; Heim & Nemeroff, 1999; Heim, Newport, Mletzko, Miller, & Hemeroff, 2008). Cependant, des facteurs de protection peuvent influencer à leur tour ces vulnérabilités. La littérature, basée sur des études translationnelles (animaux, humains), converge vers le postulat selon lequel la dimension relationnelle apportée par l'environnement est fondamentale dans le développement des vulnérabilités physiologiques et psychiques du sujet. Dans ce sens, les relations d'attachement ont été particulièrement étudiées. A l'âge adulte, par exemple, la qualité des représentations d'attachement semble influencer directement l'expression de gènes impliqués dans les réponses hormonales de stress (Biagini, Pich, Carani, Marrama, & Agnati, 1998; Caldji, Diorio, & Meaney, 2000; Dallman, 2000; De Kloet, Rosenfeld, Van Eekelen, Sutanto, & Levine, 1988; Rincon-Cortes & Sullivan, 2014; Romeo, Tang, & Sullivan, 2009; van Oers, de Kloet, Whelan, & Levine, 1998), illustrant ainsi une perspective épigénétique. Traumatismes précoces et réponses de stress, leur association avec la santé mentale, l'attachement et l'ocytocine Deux objectifs principaux définissent ce travail de doctorat. Le premier est de comprendre comment un événement à portée traumatique, qui a eu lieu pendant la période périnatale, l'enfance ou l'adolescence, peut s'inscrire au niveau physiologique (axe hypotalamico- hypophysaire-surrénalien - axe HPA), au niveau psychopathologique ou encore au niveau de la régulation émotionnelle au cours de l'âge adulte. A ce propos, nous avons évalué les réponses physiologiques (telles que le Cortisol, l'ACTH et l'ocytocine), la présence de psychopathologies (relatives à l'axe I du DSM-IV) et les réponses émotionnelles (telles que la perception au stress) au cours d'une situation de stress de nature psychosociale, induite en laboratoire. Le deuxième objectif de ce travail est de savoir si les représentations d'attachement peuvent médiatiser ces effets, chez des individus exposés à différents événements à portée traumatique. Dans ce but, trois populations ont été considérées. La première est relative à des jeunes adultes nés grands prématurés ; la deuxième, concerne des femmes adultes ayant vécu un ou plusieurs abus sexuels au cours de leur enfance ou de leur adolescence et enfin la troisième est constituée de personnes adultes qui ont survécu à une maladie grave (cancer) pendant leur enfance ou leur adolescence. Enfin, ces trois populations sont comparées à des groupes contrôle. La prise en considération de différents types de traumatismes a permis de relever : premièrement, qu'un événement à portée traumatique de nature différente, peut influencer de manière semblable les structures neuronales, par exemple l'hypocortisolémie ; deuxièmement, qu'un dysfonctionnement de l'axe HPA n'aboutit pas nécessairement à la présence de signes de souffrance mentale ; enfin, des effets protecteurs ont été mis en évidence. Ces facteurs sont sous-tendus, d'un point de vue psychologique, par les représentations d'attachement et, d'un point de vue physiologique, par la sécrétion d'ocytocjne périphérique. Traumatismes précoces et réponses de stress, leur association avec la santé mentale, l'attachement et l'ocytocine -- When an individual is faced by a stressful situation, one of the most notable responses is the activation of the HPA axis, which is characterized by a heightened level of glucocortisoids in the blood. In general, this is an adaptive hormonal response which prepares the individual both physically and cognitively for a specific action (Axelrod & Reisine, 1984; Chrousos & Gold, 1992; N. M. Kaplan, 1988; McEwen, 2004). However, should a person be confronted to stressful situations very early and repeatedly in their development, this physiologic response may be altered and become maladapted (Anand, 1993; Bremner et al., 1995; Meaney et al., 1996; Mirescu et al., 2004; Plotsky & Meaney, 1993; Sapolsky, 2000) which can be associated to emotional (McEwen, 2000) and cognitive disorders(McEwen & Sapolsky, 1995). Throughout adulthood, the result of these psychoneuroendocrine alterations affects the activation of the HPA axis and are noticeable during less intense stressful situations (Graham et al., 1999; Mirescu et al., 2004; Stam et al., 2000; A. Taylor et al., 2000). HPA axis dysregulation appears to represent a factor of vulnerability linked to psychological and physical disorders in adults (Heim, Ehlert, et al., 2000; Heim & Nemeroff, 1999; Heim, Newport, et al., 2008). Nonetheless, these vulnerabilities may be influenced by further protection factors. The literature, based on translational studies (animals and humans), suggests that relationships formed in the context of the individual's environment are fundamental in the development of their physiological and psychological vulnerabilities. Thus, attachment relationships have been particularly studied. In adulthood, for example, the quality of attachment representations appear to influence directly the expression of genes involved in the hormonal responses to stress (Biagini et al., 1998; Caldji et al., 2000; Dallman, 2000; De Kloet et al., 1988; Rincon-Cortes & Sullivan, 2014; Romeo et al., 2009; van Oers et al., 1998). With the goal to study these dimensions, two principal objectives define these doctoral study. The first is to understand how an event considered to be traumatic, which took place during early infancy, infancy, or adolescence, could influence physiology (HPA axis), psychopathology or emotional regulation during adulthood. Therefore we have evaluated the presence of psychopathologies (relative to axis I of the DSM), physiological responses (such as Cortisol, ACTH and oxytocin) and emotional responses (such as perception of stress) throughout a psychosocial stress situation, conducted in a laboratory setting. The second objective of this study is to understand if attachment representations can mediate these effects, in individuals exposed to three different types of traumatic events. Therefore, three populations have been considered. The first is young adults who were born prematurely; the second concerns adult women who have suffered sexual abuse, on one or more occasions, during their childhood or adolescence; finally the third group is constituted of people who have survived a grave childhood illness. These populations were all compared to control groups. The consideration of different types of traumatic events has demonstrated, firstly, that different events which are considered to be traumatic can similarly influence neuronal structures, for example hypocortisolism. Secondly, that an HPA axis disorder does not necessarily lead to the presence of mental signs of distress, as is the case for those born very prematurely. Finally, protective effects were demonstrated, distinctively from a psychological point of view, by attachment representations and furthermore by peripheral oxytocin secretion from a physiological perspective.
Resumo:
Il y a aujourd'hui un relatif consensus autour de l'émergence de l'agriculture urbaine. Les projets d'agriculture urbaine se développeraient, car il y aurait une nécessité à réinstaurer des relations entre l'urbain et l'agricole. Les dispositifs qui ont été mis en place par la modernité comme le zonage, l'économie de marché, les transports, l'usage de fertilisants ou les filières agroalimentaires auraient en effet fait disparaître ces relations qu'il s'agirait aujourd'hui de reconnecter. L'agriculture urbaine serait alors présentée comme une stratégie alternative à cette distinction. Elle serait le résultat de relations réciproques - et donc équivalentes - entre l'urbain et l'agricole. Elle serait alors à la fois urbaine et agricole. Nous pensons qu'il faut sortir aujourd'hui de cette conception d'agriculture urbaine. Nous remettons tout d'abord en question le fait que l'agriculture urbaine aurait pour objectif de reconnecter l'urbain et l'agricole. Cela présuppose qu'il n'y aurait plus de relations durant la modernité entre l'agricole et l'urbain. Or, comme le montre l'étude des aspects spatiaux, fonctionnels et sociaux de ces relations sous la modernité pour les cas de Genève et de Tokyo, ces relations existeraient toujours, voire même s'intensifieraient. Nous cherchons aussi à montrer qu'il faut faire évoluer l'idée que l'agriculture urbaine étant le résultat de relations réciproques entre l'urbain et l'agricole, elle se devait d'être à la fois urbaine et agricole. Dans les faits, l'agriculture urbaine apparaît plus souvent comme un projet de l'urbain au bénéfice de celui-ci, que comme un projet partagé entre l'urbain et l'agricole. Enfin, nous mettons en avant que l'agriculture urbaine n'aurait pas la capacité de reconnecter de façon effective l'agricole et l'urbain. Ainsi, l'agriculture urbaine n'est pas en mesure de se substituer aux dispositifs mis en place par la modernité. Elle ne peut rendre les villes autonomes en denrées alimentaires, établir des symbioses agro-urbaines ou remettre en question le système des filières agroalimentaires. Dans ce contexte, nous défendons la thèse que la conception d'agriculture urbaine doit aujourd'hui évoluer vers celle de toshinogyo. L'objectif est alors de rendre visibles les relations entre l'agricole et l'urbain. Les dispositifs mis en place sous la modernité n'ont pas eu pour effet de supprimer les relations entre l'urbain et l'agricole, mais de les rendre invisibles. Il s'agit aujourd'hui de leur redonner une visibilité. En devenant cette prise qui rend visibles ces relations, la toshinogyo ne serait alors plus tenue d'être urbaine et agricole à la fois, de même qu'elle ne s'opposerait pas aux dispositifs modernes, mais en serait complémentaire. Dans le contexte Genevois, le passage de l'agriculture urbaine à la toshinogyo est loin d'être encore évident. Dans le cas de Tokyo, l'optique de la toshinogyo est clairement affirmée et pourrait alors donner des amorces de pistes à suivre.
Resumo:
^Raduolarians constitute a good tool for contributing to the biostratigraphy of accreted terranes and in deep-sea sediment sequences. The use of radiolarians is also proven to be valuable as a palaeoceanographic indicator. The present study evaluates radiolarians in three different geological settings, in order to better constrain the age of the sites and to try to understand their palaeoenvironmental situation at different periods, particularly in the Caribbean-Central America area. On the Jarabacoa Block, in Central Dominican Republic, a hundred meters of siliceous mudstones (Pedro Brand section in the Tireo Group) was dated as Turonian- Coniancian in age using radiolarians. A 40Ar-39Ar whole rock age of 75.1±1.1 Ma (Campanian), obtained in a basalt dyke crosscutting the radiolarian bearing rocks, a consistent minimum age for the pelagic-hemipelagic Pedro Brand section. The Jarabacoa Block is considered as the most complete outcrop section of Pacific ocean crust overlain by a first Aptian-Albian phase of Caribbean Large Igneous Province-type activity (CLIP), followed by the development of a Cenomanian-Santonian intraoceanic arc, which is in turn overlain by a late Campanian-Maastrichtian CLIP-phase. The Tireo Group records an episode of pelagic to hemi-pelagic and intermediate to acidic arc-derived sedimentation, previous to the youngest magmatic phase of the CLIP. Thus, the section of Pedro Brand has been interpreted in this study as being part of the intraoceanic arc. In northern Venezuela, a greenish radiolarite section from Siquisique Ophiolite (basalts, gabbros and some associated cherts) in Guaparo Creek has been studied. In previous studies, the Ophiolite unit (Petacas Creek section) has been dated as Bajocian-Bathonian, based on ammonites present in interpillow sediments from basalt blocks. New dating of the present study concluded in an Aptian?-Albian-Cenomanian age for the Guaparo creek section (middle Cretaceous), based on radiolarian assemblage associated to basalts-gabbros rocks of the unit. Previous plagioclase 40Ar-39Ar ages from the Siquisuique Ophiolite may be slightly younger (94-90 Ma.) and may, therefore, represent younger dykes that intruded onto a well-developed sheeted dyke complex of the Siquisique. The geochemistry of these rocks and the palaeotectonic reconstruction of the Caribbean area during this period suggest that these rocks were derived from a mid-ocean ridge with an influence of deep mantle plume. The Siquisique Ophiolite most probably represents a fragment of the proto-Caribbean basin. The Integrated Ocean Drilling Program Expedition 344 drilled a transect across the convergent margin off Costa Rica. Two sites of this expedition were chosen for radiolarian biostratigraphy and palaeoceanographic studies. Both sites (U1381C and U1414A) are located in the incoming Cocos plate, in the eastern Equatorial Pacific. The succession of U1381C yields a Middle Miocene to Pleistocene age, and presents an important hiatus of approximately 10 Ma. The core of U1414A exposes a continuous sequence that deposited during Late Miocene to Pleistocene (radiolarian zones RN6-RN16). The ages were assigned based on radiolarians and correlated with nannofossil zonation and tephra 40Ar-39Ar datation. With those results, and considering the northward movement of the Cocos plate motion (about 7 cm/year), deduction is made that the sites U1381C and U1414A were initially deposited during the Miocene, several hundreds of kilometres from the current location, slightly south of the Equator. This suggests that the faunas of these sites have been subjected to different currents, first influenced by the cold tongue of the South Equatorial Current and followed by the warm Equatorial Countercurrent. At last, coastal upwelling influenced faunas of the Pleistocene. -- Les radiolaires sont considérés comme un outil utile à la biostratigraphie des terrains accrétés et des sédiments profonds. Leur utilité est aussi prouvée comme étant remarquable au niveau des reconstructions paléocéanographiques. La présente étude évalue l'importance et la présence des radiolaires de trois localités géologiquement différentes d'Amérique Centrale-Caraïbes, dans le but d'améliorer les model d'âges et de mieux comprendre la situation paléoenvironnementale à travers le temps. Dans le Bloque de Jarabacoa, au centre de la République Dominicaine, une section de cent mètres (section de Pedro Brand, Groupe de Tireo) a été datée comme faisant partie du Turonien-Santonien, en utilisant les radiolaires. Une datation 40Ar-39Ar sur roche totale de 75±1.1 Ma (Campanien) a été obtenu pour vin dyke traversant les sédiments riches en radiolaires, en cohérence avec l'âge minimum accordé à la section de Pedro Brand. Aux Caraïbes, le Bloque de Jarabacoa est considéré comme l'affleurement le plus complet présentant une succession de croûte océanique d'origine Pacifique recouverte d'une première phase d'activité volcanique de type CLIP (Caribbean Large Igneous Province) d'âge Aptien- Albien, de dépôts d'arc volcanique intra-océanique d'âge Cénomanien-Santonien, puis d'une seconde phase de type CLIP d'âge Campanien-Maastrichtien. Le Groupe de Tireo enregistre un épisode de dépôt pélagiques-hémipélagiques et d'arc volcanique, antérieur à la plus jeune phase de type CLIP. Cette étude place donc la formation de la section de Pedro Brand au moment du développement de l'arc intra-océanique. A Guaparo Creek (nord du Vénézuela), une section de radiolarite verdâtre faisant partie des ophiolites de Siquisique (basaltes, gabbros, cherts) a été étudiée. Dans des études précédentes, sur la localité de Petacas Creek, l'unité ophiolitique a été daté d'âge Bajocien- Bathonien (Jurassique) sur la base d'ammonites trouvées dans des sédiments intercalés entre des laves en coussins. Les nouvelles datations de notre étude, basées sur des assemblages à radiolaires de l'unité à basaltes-gabbros, donnent un âge Aptien?-Albien-Cénomanien (Crétacé moyen). Les âges de l'Ophiolite de Siquisique, précédement calculés par la méthode sur plagioclases, pourraient être légèrement plus jeune (94-90 Ma) et donc représenter des intrusions plus récentes de dykes dans le complexe filonien déjà bien dévelopé. La géochimie de ces roches magmatiques, ainsi que les reconstructions paléotectoniques de la zone Caraïbes durant cette période, suggèrent que ces formations sont dérivées d'une ride médio-océanique associée à l'influence d'un panache mantellique. L'ophiolite de Siquisique représente très probablement un fragment du bassin de proto¬Caraïbe. L'expédition 344 du programme IODP (Integrated Ocean Drilling Program) a eu lieu dans l'optique de forer et dresser une coupe de la marge convergente au large du Costa Rica. Deux sites de cette expédition ont été choisis pour les besoins des études de biostratigraphie et de reconstruction paléocéanographique. Ces deux sites (U1381C et U1414A) sont situés sur la plaque subductante de Cocos, dans la zone Pacifique est-équatoriale. La carotte U1381C expose une séquence s'étalant du Miocène moyen au Pléistocène, et présente un important hiatus d'environ 10 Ma. La carotte U1414A expose une séquence continue s'étalant du Miocène tardif au Pléistocène (zone à radiolaires RN6-RN16). Les âges ont été assignés sur la base des radiolaires et corrélés avec les zones à nanofossiles et les datations 40Ar-39Ar sur téphras. Avec ces résultats, et en considérant le mouvement nord de la plaque de Cocos (environ 7 cm/an), déduction est faite que les deux sites étaient initialement situés, au cours du Miocène, à plusieurs centaines de kilomètres de leur location actuelle, au sud de l'équateur. Cela suggère que les faunes de ces sites ont été sujettes à différents courants; premièrement influencées par la langue froide du SEC (South Equatorial Current), puis par les eaux chaudes du ECC (Equatorial Countercurrent). Pour terminer, les remontées d'eau côtières ont influencées les faunes Pléistocène.
Resumo:
Electron energy-loss spectroscopy is used to map composition and electronic states in epitaxial La2/3Ca1/3MnO3 films grown on SrTiO3 001 and 110 substrates. It is found that in partially relaxed 110 films cationic composition and valence state of Mn3+/4+ ions are preserved across the film thickness. In contrast, in fully strained 001 films, the Ca/La ratio gradually changes across the film, being La rich at film/substrate interface and La depleted at free surface; Mn valence state changes accordingly. These observations suggest that a strongly orientation-dependent adaptative composition mechanism dominates stress accommodation in manganite films and provides microscopic understanding of their dissimilar magnetic properties.
Resumo:
Chemical perception is considered one of the first senses used as a communication system between living organisms. Such communication is based on the emission of signals between a sender and a receiver; if the communication is chemical, these signals are called pheromones. These signals have evolved via natural selection through a mechanism known as ritualization, which converts cues (which are not adapted to communication and which the receiver picks up regardless of the interests of the sender) into signals (information that the sender transmits as an adaptative response to its previously developed perception of the receiver). When communication has evolved between actors (sender and receiver) with common interests, the honesty of the signal is taken for granted, since both want the same thing (i.e., there is no reason to deceive). If the actors have conflicting interests, however, then the possibility of deception seeps into the possible array of adaptations. This can be observed in the case of communicative mimicry. However, in other situations natural selection imposes conditions that screen the possible signals, allowing only those that meet the requirement of honesty to stabilize. These include indices and added-cost signals. The emission of pheromones plays a variety of roles in the life processes of living beings. It facilitates encounters between individuals of the same species and is heavily involved in the mechanisms of recognition of relatives. It also fosters behaviours such as altruism (cooperation between individuals that share a percentage of their genetic inheritance). In many species, including humans, chemical communication works behind the scenes to guide the choice of a sexual partner.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.
Resumo:
« Les yeux sont du visage humain la partie la plus noble et la plus importante, les yeux sont composés de corps, d'âme et d'esprit, ou plutôt les yeux sont la fenêtre où l'âme et l'esprit viennent se montrer » (Alphonse Karr, 1853). L'oeil est le regard, mais pour l'ophtalmologue il est aussi une fenêtre ouverte et un regard possible sur le reste du corps. Prolongement du système nerveux central en contact direct avec le monde extérieur dont il est l'un des « senseurs » le plus subtil et le plus complexe, il est sujet à des réactions inflammatoires, allergiques et toxiques chez l'enfant et chez l'adulte. Alors que notre environnement visuel change (modification des systèmes d'éclairage domestique dans les villes, écrans, mode de vie et habitudes de travail), que les polluants se multiplient et se combinent et que les environnements climatisés deviennent la règle, le nombre de patients souffrant de pathologies de la surface oculaire atteint 30 % des motifs de nos consultations et le nombre des patients myopes est en hausse. L'oeil est l'un des « senseurs » le plus subtil et le plus complexe Si la surface oculaire peut aussi être le témoin des pathologies systémiques, c'est la rétine qui en est plus fréquemment le reflet. Les atteintes du lit vasculaire, du nerf optique ou de la rétine peuvent être des manifestations de pathologies générales ou d'effets secondaires ou toxiques de médicaments. L'examen du fond d'oeil et la rétinophotographie restent les examens de dépistage de référence en particulier pour la rétinopathie diabétique, véritable fléau mondial et première cause de cécité dans les pays industrialisés chez les jeunes adultes. Mais ce n'est que par la collaboration entre ophtalmologues, médecins traitants et autres spécialistes que les pathologies rétiniennes peuvent être prises en charge de façon optimale pour qu'à des traitements oculaires spécifiques soit associée la prise en charge globale des maladies causales ou interférentes. Au-delà du fond d'oeil, les progrès technologiques contribuent au développement de multiples méthodes d'exploration des différentes structures de l'oeil offrant ainsi la possibilité d'utiliser l'oeil comme témoin de manifestations précoces de maladies neurologiques périphériques ou centrales. L'imagerie cornéenne semble aujourd'hui capable de révéler et de suivre de façon longitudinale la neuropathie diabétique périphérique et il n'est pas impossible que la rétine devienne le site de détection précoce de la maladie d'Alzheimer. Sur le plan de la prise en charge, l'ophtalmologue ne peut pas se contenter de traiter l'oeil, il doit aussi assurer une prise en charge pluridisciplinaire et accompagner le patient qui, perdant la vision, est sujet à la dépression et à la majoration de tout autre handicap. La perte visuelle est le handicap le plus redouté des populations et la perte d'autonomie qu'il induit limite l'observance et le suivi thérapeutique (comparable en termes de gravité ressentie à un « alitement brutal dans les suites d'un AVC »). La médecine personnalisée et les interactions multidisciplinaires prennent ici tout leur sens. Les développements thérapeutiques ont été majeurs ces dernières années et la cécité n'est plus une fatalité, au moins dans certains cas. Mais la rétine étant un tissu nerveux post-mitotique, les traitements et donc le dépistage doivent être précoces pour prévenir la perte visuelle irréversible. Spécifiquement, les espoirs lointains comme la thérapie génique entrent dans les essais cliniques laissant entrevoir la lumière au bout du tunnel. A portée de vue, la rétine artificielle constitue une avancée concrète, encore perfectible mais accessible dès aujourd'hui. Si les progrès sont manifestes dans le domaine de l'ophtalmologie, il reste encore beaucoup à apprendre et à comprendre en particulier dans les mécanismes pathogéniques multifactoriels des maladies oculaires plus fréquentes. Seule une exploration approfondie des maladies humaines pourra nous permettre de mieux appréhender de nouvelles stratégies thérapeutiques. Comme le disait André Isaac (1893-1975), pour voir loin, il faut regarder de près.