345 resultados para Incertitudes expérimentales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si les versions cérébralisantes de la pathologie mentale ont eu plus ou moins de succès et de partisans selon les périodes et les courants dominants de la psychiatrie, elles n'ont cessé d'intéresser les aliénistes puis les psychiatres à travers les décennies. La question n'a pas fondamentalement varié au cours de ces deux derniers siècles. Elle peut être résumée ainsi : quels sont les dysfonctionnements cérébraux dont l'influence sur le comportement humain est telle qu'ils puissent provoquer parfois des pathologies qu'aucune thérapie biologique et/ou psychothérapeutique n'est capable de totalement maîtriser? Ce travail aborde ces questionnements à travers l'étude d'une hypothèse représentative des nombreuses tentatives de la psychiatrie de désigner les dysfonctionnements cérébraux potentiellement responsables des pathologies qu'elle tente de traiter: l'hypothèse diencéphalique des pathologies mentales, élaborée durant la première moitié du vingtième siècle, illustre en effet la quête de légitimité scientifique d'une psychiatrie constamment réduite à un tâtonnement thérapeutique. Se pencher sur la biographie d'une zone cérébrale permet premièrement de proposer un autre récit que celui généralement mis en avant par les historien·ne·s de la psychiatrie : il s'agit ici de montrer l'influence de la physiologie, de l'endocrinologie, de la neurologie et de la neurochirurgie sur la manière dont les psychiatres ont envisagé la relation esprit-cerveau, tant dans leur pratique clinique que dans leurs recherches expérimentales. En outre, l'étude de cette hypothèse révèle la continuité théorique entre la période qui précède et celle qui suit la « révolution neuroleptique », continuité qui contraste avec l'idée de rupture transmise par les récits plus classiques. Enfin, cette démarche permet de mettre en relief les enjeux actuels qu'entoure l'avancée des neurosciences psychiatriques, et de les réinscrire dans une histoire fondée sur des questionnements bien antérieurs au récent essor des neurosciences. Ainsi, revisiter la période durant laquelle a émergé l'hypothèse diencéphalique des pathologies mentales ne vise pas uniquement à s'intéresser au passer de la psychiatrie, mais plutôt à mobiliser ce passé pour mieux réfléchir à la façon dont cette discipline écrit sa propre histoire au présent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte¦- Les métastases hépatiques hypovasculaires sont parfois difficile à détecter car très polymorphiques et fréquemment irrégulières. Leurs contrastes sur CT scan hépatique sont souvent faibles.¦- Lors d'un diagnostic, le radiologue ne fixe pas sa vision fovéale sur chaque pixel de l'image. Les expériences de psychophysique avec eye-tracker montrent en effet que le radiologue se concentre sur quelques points spécifiques de l'image appelés fixations. Dans ce travail, nous nous intéresserons aux capacités de détection de l'oeil lorsque l'observateur effectue une saccade entre deux points de fixation. Plus particulièrement, nous nous intéresserons à caractériser les capacités de l'oeil à détecter les signaux se trouvant en dehors de sa vision fovéale, dans ce qu'on appelle, la vision périphérique.¦Objectifs¦- Caractériser l'effet de l'excentricité de la vision sur la détectabilité des contrastes dans le cas de métastases hépatiques hypovasculaires.¦- Récolter des données expérimentales en vue de créer un modèle mathématique qui permettra, à terme, de qualifier le système d'imagerie.¦- → objectifs du TM en soit :¦o prendre en main l'eyetracker¦o traduire une problématique médicale en une expérience scientifique reproductible, quantifiable et qualifiable.¦Méthode¦Nous effectuons une expérience 2AFC (2 Alternative Forced-Choice experiment) afin d'estimer la détectabilité du signal. Pour cela, nous forcerons l'observateur à maintenir son point de fixation à un endroit défini et vérifié par l'eye-tracker. La position del'excentricité du signal tumoral généré sur une coupe de CT hépatique sera le paramètre varié. L'observateur se verra présenté tour à tour deux coupes de CT hépatique, l'une comportant le signal tumoral standardisé et l'autre ne comportant pas le signal. L'observateur devra déterminer quelle image contient la pathologie avec la plus grande probabilité.¦- Cette expérience est un modèle simplifié de la réalité. En effet, le radiologue ne fixe pas un seul point lors de sa recherche mais effectue un "scanpath". Une seconde expérience, dite en free search sera effectuée dans la mesure du temps à disposition. Lors de cette expérience, le signal standardisé sera connu de l'observateur et il n'y aura plus de point de fixation forcée. L'eyetracker suivra le scanpath effectué par l'oeil de l'observateur lors de la recherche du signal sur une coupe de CT scan hépatique. L'intérêt de cette expérience réside dans l'observation de la corrélation entre les saccades et la découverte du signal. Elle permet aussi de vérifier les résultats obtenus lors de la première expérience.¦Résultats escomptés¦- Exp1 : Quantifier l'importance de l'excentricité en radiologie et aider à améliorer la performance de recherche.¦- Exp 2 : tester la validité des résultats obtenus par la première expérience.¦Plus value escomptée¦- Récolte de données pour créer un modèle mathématique capable de déterminer la qualité de l'image radiologique.¦- Possibilité d'extension à la recherche dans les trois dimensions du CT scan hépatique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé du numéro) Prophéties et visions du futur Notre époque se méfie des prophètes, mais fait confiance aux astrologues, devins et autres voyantes... Y compris dans les plus hautes sphères du pouvoir! Ce surgissement de l'irrationnel dans une société fière de sa "science" laisse perplexe. De telles croyances, dont le caractère païen est parfois souligné, entretiennent dans l'esprit du public une confusion fâcheuse entre prophétie et prédiction. Le prophétisme s'en trouve dévalorisé, alors qu'il a joué à certains moments un rôle décisif dans l'histoire de l'humanité. "L'avez-vous remarqué?", écrivait il y a quelques années Bruno Chenu, "À l'heure actuelle, le thème du prophétisme semble s'être évanoui du paysage, tant social qu'ecclésial. Il n'y a plus grand monde pour se risquer à une interpellation forte, à une mise en cause radicale, à une proposition dérangeante. [...] Nous sommes à l'âge des croyances molles. N'est-il pas grand temps de retrouver, collectivement et personnellement, l'inspiration prophétique?" (1). Le prophète est une figure centrale des religions monothéistes. Il porte la sagesse du message divin que les hommes ne savent pas discerner. Donc, il dérange. Et si sa parole est écoutée, voire sollicitée, dans les périodes d'incertitudes, il devient gênant dès lors que le pouvoir - religieux ou politique - pense avoir repris en main les destinées de la communauté. "L'avenir n'est à personne, sire, l'avenir est à Dieu" rappelle, trop tard!, Victor Hugo à Napoléon 1er. Il est vrai que la condamnation des prophètes est souvent consécutive à une catastrophe déclenchée par de "faux" prophètes. La difficulté à identifier la véritable prophétie a entraîné à plusieurs reprises l'annonce de l'extinction du prophétisme, par les sages juifs au deuxième siècle avant notre ère, ou lorsque le christianisme devient la religion officielle de l'Empire romain. À chaque fois, le prophétisme est réapparu, comme si la religion ne pouvait en faire l'économie. C'est l'une des leçons qui ressort le plus clairement du dossier que nous consacrons au couple tumultueux que constituent prophètes et visions du futur. Le prophète porte aussi les espoirs de l'humanité. Un monde sans prophètes serait-il un monde sans espérance?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since 1895, when X-rays were discovered, ionizing radiation became part of our life. Its use in medicine has brought significant health benefits to the population globally. The benefit of any diagnostic procedure is to reduce the uncertainty about the patient's health. However, there are potential detrimental effects of radiation exposure. Therefore, radiation protection authorities have become strict regarding the control of radiation risks.¦There are various situations where the radiation risk needs to be evaluated. International authority bodies point to the increasing number of radiologic procedures and recommend population surveys. These surveys provide valuable data to public health authorities which helps them to prioritize and focus on patient groups in the population that are most highly exposed. On the other hand, physicians need to be aware of radiation risks from diagnostic procedures in order to justify and optimize the procedure and inform the patient.¦The aim of this work was to examine the different aspects of radiation protection and investigate a new method to estimate patient radiation risks.¦The first part of this work concerned radiation risk assessment from the regulatory authority point of view. To do so, a population dose survey was performed to evaluate the annual population exposure. This survey determined the contribution of different imaging modalities to the total collective dose as well as the annual effective dose per caput. It was revealed that although interventional procedures are not so frequent, they significantly contribute to the collective dose. Among the main results of this work, it was shown that interventional cardiological procedures are dose-intensive and therefore more attention should be paid to optimize the exposure.¦The second part of the project was related to the patient and physician oriented risk assessment. In this part, interventional cardiology procedures were studied by means of Monte Carlo simulations. The organ radiation doses as well as effective doses were estimated. Cancer incidence risks for different organs were calculated for different sex and age-at-exposure using the lifetime attributable risks provided by the Biological Effects of Ionizing Radiations Report VII. Advantages and disadvantages of the latter results were examined as an alternative method to estimate radiation risks. The results show that this method is the most accurate, currently available, to estimate radiation risks. The conclusions of this work may guide future studies in the field of radiation protection in medicine.¦-¦Depuis la découverte des rayons X en 1895, ce type de rayonnement a joué un rôle important dans de nombreux domaines. Son utilisation en médecine a bénéficié à la population mondiale puisque l'avantage d'un examen diagnostique est de réduire les incertitudes sur l'état de santé du patient. Cependant, leur utilisation peut conduire à l'apparition de cancers radio-induits. Par conséquent, les autorités sanitaires sont strictes quant au contrôle du risque radiologique.¦Le risque lié aux radiations doit être estimé dans différentes situations pratiques, dont l'utilisation médicale des rayons X. Les autorités internationales de radioprotection indiquent que le nombre d'examens et de procédures radiologiques augmente et elles recommandent des enquêtes visant à déterminer les doses de radiation délivrées à la population. Ces enquêtes assurent que les groupes de patients les plus à risque soient prioritaires. D'un autre côté, les médecins ont également besoin de connaître le risque lié aux radiations afin de justifier et optimiser les procédures et informer les patients.¦Le présent travail a pour objectif d'examiner les différents aspects de la radioprotection et de proposer une manière efficace pour estimer le risque radiologique au patient.¦Premièrement, le risque a été évalué du point de vue des autorités sanitaires. Une enquête nationale a été réalisée pour déterminer la contribution des différentes modalités radiologiques et des divers types d'examens à la dose efficace collective due à l'application médicale des rayons X. Bien que les procédures interventionnelles soient rares, elles contribuent de façon significative à la dose délivrée à la population. Parmi les principaux résultats de ce travail, il a été montré que les procédures de cardiologie interventionnelle délivrent des doses élevées et devraient donc être optimisées en priorité.¦La seconde approche concerne l'évaluation du risque du point de vue du patient et du médecin. Dans cette partie, des procédures interventionnelles cardiaques ont été étudiées au moyen de simulations Monte Carlo. La dose délivrée aux organes ainsi que la dose efficace ont été estimées. Les risques de développer des cancers dans plusieurs organes ont été calculés en fonction du sexe et de l'âge en utilisant la méthode établie dans Biological Effects of Ionizing Radiations Report VII. Les avantages et inconvénients de cette nouvelle technique ont été examinés et comparés à ceux de la dose efficace. Les résultats ont montré que cette méthode est la plus précise actuellement disponible pour estimer le risque lié aux radiations. Les conclusions de ce travail pourront guider de futures études dans le domaine de la radioprotection en médicine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT 1. Il existe des données épidémiologiques et expérimentales mettant en lien une carence en fer sans anémie (CF-A) et troubles de la concentration, fatigue, faiblesse musculaire, ainsi que diminution des performances sportives, et ce surtout chez le grand adolescent et l'adulte jeune. Certaines études sont toutefois sujettes à critique, souvent en raison de la présence de facteurs confondants importants associés à la CF-A (niveau d'évidence 1b à 4). Chez l'enfant, les données sont également plus hétérogènes, et d'autant plus difficiles à interpréter que les études à disposition présentent elles-aussi de nombreux facteurs confondants. De manière générale, une certaine prudence doit en conséquence être de mise avant d'attribuer de tels symptômes à une carence en fer (CF).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

During the last decade, evidence that release of chemical transmitters from astrocytes might modulate neuronal activity (the so-called "gliotransmission") occurs in situ has been extensively provided. Nevertheless, gliotransmission remains a highly debated topic because of the lack of direct morphological and functional evidence. Here we provided new information supporting gliotransmission, by i) deepen knowledge about specific properties of regulated secretion of glutamatergic SLMVs, and ii) investigating the involvement of astrocytes in the transmission of dopamine, a molecule whose interaction with astrocytes is likely to occur, but it's still not proven.¦VGLUT-expressing glutamatergic SLMVs have been previously identified both in situ and in vitro, but description of kinetics of release were still lacking. To elucidate this issue, we took advantage of fluorescent tools (styryl dyes and pHluorin) and adapted experimental paradigms and analysis methods previously developed to study exo-endocytosis and recycling of glutamatergic vesicles at synapses. Parallel use of EPIfluorescence and total internal reflection (TIRF) imaging allowed us to find that exo-endocytosis processes in astrocytes are extremely fast, with kinetics in the order of milliseconds, able to sustain and follow neuronal signalling at synapses. Also, exocytosis of SLMVs is under the control of fast, localized Ca2+ elevations in close proximity of SLMVs and endoplasmatic reticulum (ER) tubules, the intracellular calcium stores. Such complex organization supports the fast stimulus-secretion coupling we described; localized calcium elevations have been recently observed in astrocytes in situ, suggesting that these functional microdomains might be present in the intact tissue. In the second part of the work, we investigated whether astrocytes possess some of the benchmarks of brain dopaminergic cells. It's been known for years that astrocytes are able to metabolize monoamines by the enzymes MAO and COMT, but to date no clear information that glial cells are able to uptake and store monoamines have been provided. Here, we identified a whole apparatus for the storage, degradation and release of monoamines, at the ultrastructural level. Electron microscopy immunohistochemistry allowed us to visualize VMAT2- and dopamine-positive intracellular compartments within astrocytic processes, i.e. dense -core granules and cisterns. These organelles might be responsible for dopamine release and storage, respectively; interestingly, this intracellular distribution is reminiscent of VMAT2 expression in dendrites if neurons, where dopamine release is tonic and plays a role in the regulation of its a basal levels, suggesting that astrocytic VMAT2 is involved in the homeostasis of dopamine in healthy brains of adult mammals.¦Durant cette dernière décennie, de nombreux résultats sur le relâchement des transmetteurs par les astrocytes pouvant modulé l'activité synaptique (gliotransmission) ont été fournis. Néanmoins, la gliotransmission reste un processus encore très débattu, notamment à cause de l'absence de preuves directes, morphologique et fonctionnelle démontrant ce phénomène. Nous présentons dans nos travaux de nombreux résultats confortant l'hypothèse de la gliotransmission, dont i) une étude approfondie sur les propriétés spatiales et temporelles de la sécrétion régulée du glutamate dans les astrocytes, et ii) une étude sur la participation des astrocytes dans la transmission de la dopamine, une neuromodulateur dont l'interaction avec les astrocytes est fortement probable, mais qui n'a encore jamais été prouvée. L'expression des petites vésicules (SLMVs - Synaptic Like Micro Vesicles) glutamatergiques exprimant les transporteurs vésiculaires du glutamate (VGLUTs) dans les astrocytes a déjà été prouvé tant in situ qu'in vitro. Afin de mettre en évidence les propriétés précises de la sécrétion de ces organelles, nous avons adapté à nos études des méthodes expérimentales conçues pour observer les processus de exocytose et endocytose dans les neurones. Les résolutions spatiale et temporelle obtenues, grâce a l'utilisation en parallèle de l'épi fluorescence et de la fluorescence a onde évanescente (TIRF), nous ont permis de montrer que la sécrétion régulée dans les astrocytes est un processus extrêmement rapide (de l'ordre de la milliseconde) et qu'elle est capable de soutenir et de suivre la transmission de signaux entre neurones. Nous avons également découvert que cette sécrétion a lieu dans des compartiments subcellulaires particuliers où nous observons la présence du reticulum endoplasmique (ER) ainsi que des augmentations rapides de calcium. Cette organisation spatiale complexe pourrait être la base morphologique du couplage rapide entre le stimulus et la sécrétion. Par ailleurs, plusieurs études récentes in vivo semblent confirmer l'existence de ces compartiments. Depuis des années nous savons que les astrocytes sont capables de métaboliser les monoamines par les enzymes MAO et COMT. Nous avons donc fourni de nouvelles preuves concernant la présence d'un appareil de stockage dans les astrocytes participant à la dégradation et la libération de monoamines au niveau ultrastructurelle. Grâce à la microscopie électronique, nous avons découvert la présence de compartiments intracellulaires exprimant VMAT2 dans les processus astrocytaires, sous forme de granules et des citernes. Ces organelles pourraient donc être responsables à la fois du relâchement et du stockage de la dopamine. De manière surprenante, cette distribution intracellulaire est similaire aux dendrites des neurones exprimant VMAT2, où la dopamine est libérée de façon tonique permettant d'agir sur la régulation de ses niveaux de base. Ces résultats, suggèrent une certaine participation des VMAT2 présents dans les astrocytes dans le processus d'homéostase de la dopamine dans le cerveau.¦A de nombreuses reprises, dans des émissions scientifiques ou dans des films, il est avancé que les hommes n'utilisent que 10% du potentiel de leur cerveau. Cette légende provient probablement du fait que les premiers chercheurs ayant décrit les cellules du cerveau entre le XIXème et le XXeme siècle, ont montré que les neurones, les cellules les plus connues et étudiées de cet organe, ne représentent seulement que 10% de la totalité des cellules composant du cerveau. Parmi les 90% restantes, les astrocytes sont sans doute les plus nombreuses. Jusqu'au début des années 90, les astrocytes ont été plutôt considérés peu plus que du tissu conjonctif, ayant comme rôles principaux de maintenir certaines propriétés physiques du cerveau et de fournir un support métabolique (énergie, environnement propre) aux neurones. Grace à la découverte que les astrocytes ont la capacité de relâcher des substances neuro-actives, notamment le glutamate, le rôle des astrocytes dans le fonctionnement cérébral a été récemment reconsidérée.¦Le rôle du glutamate provenant des astrocytes et son impact sur la fonctionnalité des neurones n'a pas encore été totalement élucidé, malgré les nombreuses publications démontrant l'importance de ce phénomène en relation avec différentes fonctions cérébrales. Afin de mieux comprendre comment les astrocytes sont impliqués dans la transmission cérébrale, nous avons étudié les propriétés spatio-temporelles de cette libération grâce à l'utilisation des plusieurs marqueurs fluorescents combinée avec différentes techniques d'imagerie cellulaires. Nous avons découvert que la libération du glutamate par les astrocytes (un processus maintenant appelé "gliotransmission") était très rapide et contrôlée par des augmentations locales de calcium. Nous avons relié ces phénomènes à des domaines fonctionnels subcellulaires morphologiquement adaptés pour ce type de transmission. Plus récemment, nous avons concentré nos études sur un autre transmetteur très important dans le fonctionnement du cerveau : la dopamine. Nos résultats morphologiques semblent indiquer que les astrocytes ont la capacité d'interagir avec ce transmetteur, mais d'une manière différente comparée au glutamate, notamment en terme de rapidité de transmission. Ces résultats suggèrent que le astrocytes ont la capacité de modifier leurs caractéristiques et de s'adapter à leur environnement par rapport aux types de transmetteur avec lequel ils doivent interagir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recently, the introduction of second generation sequencing and further advance-ments in confocal microscopy have enabled system-level studies for the functional characterization of genes. The degree of complexity intrinsic to these approaches needs the development of bioinformatics methodologies and computational models for extracting meaningful biological knowledge from the enormous amount of experi¬mental data which is continuously generated. This PhD thesis presents several novel bioinformatics methods and computational models to address specific biological questions in Plant Biology by using the plant Arabidopsis thaliana as a model system. First, a spatio-temporal qualitative analysis of quantitative transcript and protein profiles is applied to show the role of the BREVIS RADIX (BRX) protein in the auxin- cytokinin crosstalk for root meristem growth. Core of this PhD work is the functional characterization of the interplay between the BRX protein and the plant hormone auxin in the root meristem by using a computational model based on experimental evidence. Hyphotesis generated by the modelled to the discovery of a differential endocytosis pattern in the root meristem that splits the auxin transcriptional response via the plasma membrane to nucleus partitioning of BRX. This positional information system creates an auxin transcriptional pattern that deviates from the canonical auxin response and is necessary to sustain the expression of a subset of BRX-dependent auxin-responsive genes to drive root meristem growth. In the second part of this PhD thesis, we characterized the genome-wide impact of large scale deletions on four divergent Arabidopsis natural strains, through the integration of Ultra-High Throughput Sequencing data with data from genomic hybridizations on tiling arrays. Analysis of the identified deletions revealed a considerable portion of protein coding genes affected and supported a history of genomic rearrangements shaped by evolution. In the last part of the thesis, we showed that VIP3 gene in Arabidopsis has an evo-lutionary conserved role in the 3' to 5' mRNA degradation machinery, by applying a novel approach for the analysis of mRNA-Seq data from random-primed mRNA. Altogether, this PhD research contains major advancements in the study of natural genomic variation in plants and in the application of computational morphodynamics models for the functional characterization of biological pathways essential for the plant. - Récemment, l'introduction du séquençage de seconde génération et les avancées dans la microscopie confocale ont permis des études à l'échelle des différents systèmes cellulaires pour la caractérisation fonctionnelle de gènes. Le degrés de complexité intrinsèque à ces approches ont requis le développement de méthodologies bioinformatiques et de modèles mathématiques afin d'extraire de la masse de données expérimentale générée, des information biologiques significatives. Ce doctorat présente à la fois des méthodes bioinformatiques originales et des modèles mathématiques pour répondre à certaines questions spécifiques de Biologie Végétale en utilisant la plante Arabidopsis thaliana comme modèle. Premièrement, une analyse qualitative spatio-temporelle de profiles quantitatifs de transcripts et de protéines est utilisée pour montrer le rôle de la protéine BREVIS RADIX (BRX) dans le dialogue entre l'auxine et les cytokinines, des phytohormones, dans la croissance du méristème racinaire. Le noyau de ce travail de thèse est la caractérisation fonctionnelle de l'interaction entre la protéine BRX et la phytohormone auxine dans le méristème de la racine en utilisant des modèles informatiques basés sur des preuves expérimentales. Les hypothèses produites par le modèle ont mené à la découverte d'un schéma différentiel d'endocytose dans le méristème racinaire qui divise la réponse transcriptionnelle à l'auxine par le partitionnement de BRX de la membrane plasmique au noyau de la cellule. Cette information positionnelle crée une réponse transcriptionnelle à l'auxine qui dévie de la réponse canonique à l'auxine et est nécessaire pour soutenir l'expression d'un sous ensemble de gènes répondant à l'auxine et dépendant de BRX pour conduire la croissance du méristème. Dans la seconde partie de cette thèse de doctorat, nous avons caractérisé l'impact sur l'ensemble du génome des délétions à grande échelle sur quatre souches divergentes naturelles d'Arabidopsis, à travers l'intégration du séquençage à ultra-haut-débit avec l'hybridation génomique sur puces ADN. L'analyse des délétions identifiées a révélé qu'une proportion considérable de gènes codant était affectée, supportant l'idée d'un historique de réarrangement génomique modelé durant l'évolution. Dans la dernière partie de cette thèse, nous avons montré que le gène VÏP3 dans Arabidopsis a conservé un rôle évolutif dans la machinerie de dégradation des ARNm dans le sens 3' à 5', en appliquant une nouvelle approche pour l'analyse des données de séquençage d'ARNm issue de transcripts amplifiés aléatoirement. Dans son ensemble, cette recherche de doctorat contient des avancées majeures dans l'étude des variations génomiques naturelles des plantes et dans l'application de modèles morphodynamiques informatiques pour la caractérisation de réseaux biologiques essentiels à la plante. - Le développement des plantes est écrit dans leurs codes génétiques. Pour comprendre comment les plantes sont capables de s'adapter aux changements environnementaux, il est essentiel d'étudier comment leurs gènes gouvernent leur formation. Plus nous essayons de comprendre le fonctionnement d'une plante, plus nous réalisons la complexité des mécanismes biologiques, à tel point que l'utilisation d'outils et de modèles mathématiques devient indispensable. Dans ce travail, avec l'utilisation de la plante modèle Arabidopsis thalicinci nous avons résolu des problèmes biologiques spécifiques à travers le développement et l'application de méthodes informatiques concrètes. Dans un premier temps, nous avons investigué comment le gène BREVIS RADIX (BRX) régule le développement de la racine en contrôlant la réponse à deux hormones : l'auxine et la cytokinine. Nous avons employé une analyse statistique sur des mesures quantitatives de transcripts et de produits de gènes afin de démontrer que BRX joue un rôle antagonisant dans le dialogue entre ces deux hormones. Lorsque ce-dialogue moléculaire est perturbé, la racine primaire voit sa longueur dramatiquement réduite. Pour comprendre comment BRX répond à l'auxine, nous avons développé un modèle informatique basé sur des résultats expérimentaux. Les simulations successives ont mené à la découverte d'un signal positionnel qui contrôle la réponse de la racine à l'auxine par la régulation du mouvement intracellulaire de BRX. Dans la seconde partie de cette thèse, nous avons analysé le génome entier de quatre souches naturelles d'Arabidopsis et nous avons trouvé qu'une grande partie de leurs gènes étaient manquant par rapport à la souche de référence. Ce résultat indique que l'historique des modifications génomiques conduites par l'évolution détermine une disponibilité différentielle des gènes fonctionnels dans ces plantes. Dans la dernière partie de ce travail, nous avons analysé les données du transcriptome de la plante où le gène VIP3 était non fonctionnel. Ceci nous a permis de découvrir le rôle double de VIP3 dans la régulation de l'initiation de la transcription et dans la dégradation des transcripts. Ce rôle double n'avait jusqu'alors été démontrée que chez l'homme. Ce travail de doctorat supporte le développement et l'application de méthodologies informatiques comme outils inestimables pour résoudre la complexité des problèmes biologiques dans la recherche végétale. L'intégration de la biologie végétale et l'informatique est devenue de plus en plus importante pour l'avancée de nos connaissances sur le fonctionnement et le développement des plantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Learning and immunity are two adaptive traits with roles in central aspects of an organism's life: learning allows adjusting behaviours in changing environments, while immunity protects the body integrity against parasites and pathogens. While we know a lot about how these two traits interact in vertebrates, the interactions between learning and immunity remain poorly explored in insects. During my PhD, I studied three possible ways in which these two traits interact in the model system Drosophila melanogaster, a model organism in the study of learning and in the study of immunity. Learning can affect the behavioural defences against parasites and pathogens through the acquisition of new aversions for contaminated food for instance. This type of learning relies on the ability to associate a food-related cue with the visceral sickness following ingestion of contaminated food. Despite its potential implication in infection prevention, the existence of pathogen avoidance learning has been rarely explored in invertebrates. In a first part of my PhD, I tested whether D. melanogaster, which feed on food enriched in microorganisms, innately avoid the orally-acquired 'novel' virulent pathogen Pseudomonas entomophila, and whether it can learn to avoid it. Although flies did not innately avoid this pathogen, they decreased their preference for contaminated food over time, suggesting the existence of a form of learning based likely on infection-induced sickness. I further found that flies may be able to learn to avoid an odorant which was previously associated with the pathogen, but this requires confirmation with additional data. If this is confirmed, this would be the first time, to my knowledge, that pathogen avoidance learning is reported in an insect. The detrimental effect of infection on cognition and more specifically on learning ability is well documented in vertebrates and in social insects. While the underlying mechanisms are described in detail in vertebrates, experimental investigations are lacking in invertebrates. In a second part of my PhD, I tested the effect of an oral infection with natural pathogens on associative learning of D. melanogaster. By contrast with previous studies in insects, I found that flies orally infected with the virulent P. entomophila learned better the association of an odorant with mechanical shock than uninfected flies. The effect seems to be specific to a gut infection, and so far I have not been able to draw conclusions on the respective contributions of the pathogen's virulence and of the flies' immune activity in this effect. Interestingly, infected flies may display an increased sensitivity to physical pain. If the learning improvement observed in infected flies was due partially to the activity of the immune system, my results would suggest the existence of physiological connections between the immune system and the nervous system. The basis of these connections would then need to be addressed. Learning and immunity are linked at the physiological level in social insects. Physiological links between traits often result from the expression of genetic links between these traits. However, in social insects, there is no evidence that learning and immunity may be involved in an evolutionary trade-off. I previously reported a positive effect of infection on learning in D. melanogaster. This might suggest that a positive genetic link could exist between learning and immunity. We tested this hypothesis with two approaches: the diallel cross design with inbred lines, and the isofemale lines design. The two approaches provided consistent results: we found no additive genetic correlation between learning and resistance to infection with the diallel cross, and no genetic correlation in flies which are not yet adapted to laboratory conditions in isofemale lines. Consistently with the literature, the two studies suggested that the positive effect of infection on learning I observed might not be reflected by a positive evolutionary link between learning and immunity. Nevertheless, the existence of complex genetic relationships between the two traits cannot be excluded. - L'apprentissage et l'immunité sont deux caractères à valeur adaptative impliqués dans des aspects centraux de la vie d'un organisme : l'apprentissage permet d'ajuster les comportements pour faire face aux changements de l'environnement, tandis que l'immunité protège l'intégrité corporelle contre les attaques des parasites et des pathogènes. Alors que les interactions entre l'apprentissage et l'immunité sont bien documentées chez les vertébrés, ces interactions ont été très peu étudiées chez les insectes. Pendant ma thèse, je me suis intéressée à trois aspects des interactions possibles entre l'apprentissage et l'immunité chez la mouche du vinaigre Drosophila melanogaster, qui est un organisme modèle dans l'étude à la fois de l'apprentissage et de l'immunité. L'apprentissage peut affecter les défenses comportementales contre les parasites et les pathogènes par l'acquisition de nouvelles aversions pour la nourriture contaminée par exemple. Ce type d'apprentissage repose sur la capacité à associer une caractéristique de la nourriture avec la maladie qui suit l'ingestion de cette nourriture. Malgré les implications potentielles pour la prévention des infections, l'évitement appris des pathogènes a été rarement étudié chez les invertébrés. Dans une première partie de ma thèse, j'ai testé si les mouches, qui se nourrissent sur des milieux enrichis en micro-organismes, évitent de façon innée un 'nouveau' pathogène virulent Pseudomonas entomophila, et si elles ont la capacité d'apprendre à l'éviter. Bien que les mouches ne montrent pas d'évitement inné pour ce pathogène, elles diminuent leur préférence pour de la nourriture contaminée dans le temps, suggérant l'existence d'une forme d'apprentissage basée vraisemblablement sur la maladie générée par l'infection. J'ai ensuite observé que les mouches semblent être capables d'apprendre à éviter une odeur qui était au préalable associée avec ce pathogène, mais cela reste à confirmer par la collecte de données supplémentaires. Si cette observation est confirmée, cela sera la première fois, à ma connaissance, que l'évitement appris des pathogènes est décrit chez un insecte. L'effet détrimental des infections sur la cognition et plus particulièrement sur les capacités d'apprentissage est bien documenté chez les vertébrés et les insectes sociaux. Alors que les mécanismes sous-jacents sont détaillés chez les vertébrés, des études expérimentales font défaut chez les insectes. Dans une seconde partie de ma thèse, j'ai mesuré les effets d'une infection orale par des pathogènes naturels sur les capacités d'apprentissage associatif de la drosophile. Contrairement aux études précédentes chez les insectes, j'ai trouvé que les mouches infectées par le pathogène virulent P. entomophila apprennent mieux à associer une odeur avec des chocs mécaniques que des mouches non infectées. Cet effet semble spécifique à l'infection orale, et jusqu'à présent je n'ai pas pu conclure sur les contributions respectives de la virulence du pathogène et de l'activité immunitaire des mouches dans cet effet. De façon intéressante, les mouches infectées pourraient montrer une plus grande réactivité à la douleur physique. Si l'amélioration de l'apprentissage observée chez les mouches infectées était due en partie à l'activité du système immunitaire, mes résultats suggéreraient l'existence de connections physiologiques entre le système immunitaire et le système nerveux. Les mécanismes de ces connections seraient à explorer. L'apprentissage et l'immunité sont liés sur un plan physiologique chez les insectes sociaux. Les liens physiologiques entre les caractères résultent souvent de l'expression de liens entre ces caractères au niveau génétique. Cependant, chez les insectes sociaux, il n'y a pas de preuve que l'apprentissage et l'immunité soient liés par un compromis évolutif. J'ai précédemment rapporté un effet positif de l'infection sur l'apprentissage chez la drosophile. Cela pourrait suggérer qu'une relation génétique positive existerait entre l'apprentissage et l'immunité. Nous avons testé cette hypothèse par deux approches : le croisement diallèle avec des lignées consanguines, et les lignées isofemelles. Les deux approches ont fournies des résultats similaires : nous n'avons pas détecté de corrélation génétique additive entre l'apprentissage et la résistance à l'infection avec le croisement diallèle, et pas de corrélation génétique chez des mouches non adaptées aux conditions de laboratoire avec les lignées isofemelles. En ligne avec la littérature, ces deux études suggèrent que l'effet positif de l'infection sur l'apprentissage que j'ai précédemment observé ne refléterait pas un lien évolutif positif entre l'apprentissage et l'immunité. Néanmoins, l'existence de relations génétiques complexes n'est pas exclue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY : Two-component systems are key mediators implicated in the response of numerous bacteria to a wide range of signals and stimuli. The two-component system comprised of the sensor kinase GacS and the response regulator GacA is broadly distributed among γ-proteobacteria bacteria and fulfils diverse functions such as regulation of carbon storage and expression of virulence. In Pseudomonas fluorescens, a soil bacterium which protects plants from root-pathogenic fungi and nematodes, the GacS/GacA two-component system has been shown to be essential for the production of secondary metabolites and exoenzymes required for the biocontrol activity of the bacterium. The regulatory cascade initiated by GacS/GacA consists of two translational repressor proteins, RsmA and RsmE, as well as three GacAcontrolled small regulatory RNAs RsmX, RsmY and RsmZ, which titrate RsmA and RsmE to allow the expression of biocontrol factors. Genetic analysis revealed that two additional sensor kinases termed RetS and Lads were involved as negative and positive control elements, respectively, in the Gac/Rsm pathway in P. fluoresens CHAO. Furthermore, it could be proposed that RetS and Lads interact with GacS, thereby modulating the expression of antibiotic compounds and hydrogen cyanide, as well as the rpoS gene encoding the stress and stationary phase sigma factor σ. Temperature was found to be an important environmental cue that influences the Gac/Rsm network. Indeed, the production of antibiotic compounds and hydrogen cyanide was reduced at 35°C, by comparison with the production at 30°C. RetS was identified to be involved in this temperature control. The small RNA RsmY was confirmed to be positively regulated by GacA and RsmA/RsmE. Two essential regions were identified in the rsmY promoter by mutational analysis, the upstream activating sequence (UAS) and the linker sequence. Although direct experimental evidence is still missing, several observations suggest that GacA may bind to the UAS, whereas the linker region would be recognized by intermediate RsmA/RsmEdependent repressors and/or activators. In conclusion, this work has revealed new elements contributing to the function of the signal transduction mechanisms in the Gac/Rsm pathway. RESUME : Les systèmes ä deux composants sont des mécanismes d'une importance notoire que beaucoup de bactéries utilisent pour faire face et répondre aux stimuli environnementaux. Le système à deux composants comprenant le senseur GacS et le régulateur de réponse GacA est très répandu chez les γ-protéobactéries et remplit des fonctions aussi diverses que la régulation du stockage de carbone ou l'expression de la virulence. Chez Pseudomonas fluorescens CHAO, une bactérie du sol qui protège les racines des plantes contre des attaques de champignons et nématodes pathogènes, le système à deux composants GacS/GacA est essentiel à la production de métabolites secondaires et d'exoenzymes requis pour l'activité de biocontrôle de la bactérie. La cascade régulatrice initiée pas GacS/GacA fait intervenir deux protéines répresseur de traduction, RsmA et RsmE, ainsi que trois petits ARNs RsmX, RsmY et RsmZ, dont la production est contrôlée par GacA. Ces petits ARNs ont pour rôle de contrecarrer l'action des protéines répressseur de la traduction, ce qui permet l'expression de facteurs de biocontrôle. Des analyses génétiques ont révélé la présence de deux senseurs supplémentaires, appelés Rets et Lads, qui interviennent dans la cascade Gac/Rsm de P. fluorescens. L'impact de ces senseurs est, respectivement, négatif et positif. Ces interactions ont apparenunent lieu au niveau de GacS et permettent une modulation de l'expression des antibiotiques et de l'acide cyanhydrique, ainsi que du gène rpoS codant pour le facteur sigma du stress. La température s'est révélée être un facteur environnemental important qui influence la cascade Gac/Rsm. Il s'avère en effet que la production d'antibiotiques ainsi que d'acide cyanhydrique est moins importante à 35°C qu'à 30°C. L'implication du senseur Rets dans ce contrôle par la température a pu être démontrée. La régulation positive du petit ARN RsmY par GacA et RsmA/RsmE a pu être confirmée; par le biais d'une analyse mutationelle, deux régions essentielles ont pu être mises en évidence dans la région promotrice de rsmY. Malgré le manque de preuves expérimentales directes, certains indices suggèrent que GacA puisse directement se fixer sur une des deux régions (appelée UAS), tandis que la deuxième région (appelée linker) serait plutôt reconnue par des facteurs intermédiaires (activateurs ou répresseurs) dépendant de RsmA/RsmE. En conclusion, ce travail a dévoilé de nouveaux éléments permettant d'éclairer les mécanismes de transduction des signaux dans la cascade Gac/Rsm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La comparaison des fécondités entre reines de sociétés expérimentales monogynes et polygynes de la fourmi d'Argentine (lridomyrmex humilis) nous a permis de montrer que les reines des sociétés monogynes pondent significativement plus d'oeufs que les reines des sociétés polygynes. Dans ce contexte nous n'avons pas pu mettre en évidence de dominance ou de hiérarchie stricte entre les reines. Deux hypothèses ont été émises pour expliquer la diminution de la fécondité qui affecte toutes les reines en sociétés polygynes: -. inhibition mutuelle entre reines, -. coordination et efficacité plus faible en sociétés polygynes. Afin d'intégrer la polygynie dans un cadre évolutif l'hypothèse du "mutualisme" est proposée comme alternative à l'hypothèse de la sélection de parentèle (kin selection).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La douleur neuropathique est définie comme une douleur causée par une lésion du système nerveux somato-sensoriel. Elle se caractérise par des douleurs exagérées, spontanées, ou déclenchées par des stimuli normalement non douloureux (allodynie) ou douloureux (hyperalgésie). Bien qu'elle concerne 7% de la population, ses mécanismes biologiques ne sont pas encore élucidés. L'étude des variations d'expressions géniques dans les tissus-clés des voies sensorielles (notamment le ganglion spinal et la corne dorsale de la moelle épinière) à différents moments après une lésion nerveuse périphérique permettrait de mettre en évidence de nouvelles cibles thérapeutiques. Elles se détectent de manière sensible par reverse transcription quantitative real-time polymerase chain reaction (RT- qPCR). Pour garantir des résultats fiables, des guidelines ont récemment recommandé la validation des gènes de référence utilisés pour la normalisation des données ("Minimum information for publication of quantitative real-time PCR experiments", Bustin et al 2009). Après recherche dans la littérature des gènes de référence fréquemment utilisés dans notre modèle de douleur neuropathique périphérique SNI (spared nerve injury) et dans le tissu nerveux en général, nous avons établi une liste de potentiels bons candidats: Actin beta (Actb), Glyceraldehyde-3-phosphate dehydrogenase (GAPDH), ribosomal proteins 18S (18S), L13a (RPL13a) et L29 (RPL29), hypoxanthine phosphoribosyltransferase 1 (HPRT1) et hydroxymethyl-bilane synthase (HMBS). Nous avons évalué la stabilité d'expression de ces gènes dans le ganglion spinal et dans la corne dorsale à différents moments après la lésion nerveuse (SNI) en calculant des coefficients de variation et utilisant l'algorithme geNorm qui compare les niveaux d'expression entre les différents candidats et détermine la paire de gènes restante la plus stable. Il a aussi été possible de classer les gènes selon leur stabilité et d'identifier le nombre de gènes nécessaires pour une normalisation la plus précise. Les gènes les plus cités comme référence dans le modèle SNI ont été GAPDH, HMBS, Actb, HPRT1 et 18S. Seuls HPRT1 and 18S ont été précédemment validés dans des arrays de RT-qPCR. Dans notre étude, tous les gènes testés dans le ganglion spinal et dans la corne dorsale satisfont au critère de stabilité exprimé par une M-value inférieure à 1. Par contre avec un coefficient de variation (CV) supérieur à 50% dans le ganglion spinal, 18S ne peut être retenu. La paire de gènes la plus stable dans le ganglion spinal est HPRT1 et Actb et dans la corne dorsale il s'agit de RPL29 et RPL13a. L'utilisation de 2 gènes de référence stables suffit pour une normalisation fiable. Nous avons donc classé et validé Actb, RPL29, RPL13a, HMBS, GAPDH, HPRT1 et 18S comme gènes de référence utilisables dans la corne dorsale pour le modèle SNI chez le rat. Dans le ganglion spinal 18S n'a pas rempli nos critères. Nous avons aussi déterminé que la combinaison de deux gènes de référence stables suffit pour une normalisation précise. Les variations d'expression génique de potentiels gènes d'intérêts dans des conditions expérimentales identiques (SNI, tissu et timepoints post SNI) vont pouvoir se mesurer sur la base d'une normalisation fiable. Non seulement il sera possible d'identifier des régulations potentiellement importantes dans la genèse de la douleur neuropathique mais aussi d'observer les différents phénotypes évoluant au cours du temps après lésion nerveuse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.