175 resultados para Mesures de seguretat
Resumo:
Natural environments are constantly challenged by the release of hydrophobic organic contaminants, which represent a threat for both the ecosystem and human health. Despite a substantial degradation by naturally occurring micro-organisms, a non negligible fraction of these pollutants tend to persist in soil and sediments due to their reduced accessibility to microbial degraders. This lack of 'bioavailability' is acknowledged as a key parameter for the natural and stimulated clean-up (bioremediation) of contaminated sites. We developed a bacterial bioreporter that responds to the presence of polyaromatic hydrocarbons (PAHs) by the production of the green fluorescent protein (GFP), based on the PAH-degrading bacterium Burkholderia sartisoli. We showed in this study that the bacterial biosensor B. sartisoli strain RP037 was faithfully reporting the degradation of naphthalene and phenanthrene (two PAHs of low molecular weight) via the production of GFP. What is more, the magnitude of GFP induction was influenced by change in the PAH flux triggered by a variety of physico-chemical parameters, such as the contact surface between the pollutant and the aqueous suspension. Further experiments permitted to test the influence of dissolved organic matter, which is an important component of natural habitats and can interact with organic pollutants. In addition, we tested the influence of two types of biosurfactants (tensio-active agents produced by living organisms) on phenanthrene's degradation by RP037. Interestingly, the surfactant's effects on the biodegradation rate appeared to depend on the type of biosurfactant and probably on the type of bacterial strain. Finally, we tagged B. sartisoli strain RP037 with a constitutively expressed mCherry fluorescent protein. The presence of mCherry allowed us to visualize the bacteria in complex samples even when GFP production was not induced. The new strain RP037-mChe embedded in a gel patch was used to detect PAH fluxes from a point source, such as a non-aqueous liquid or particles of contaminated soil. In parallel, we also developed and tested a so-called multiwell bacterial biosensor platform, which permitted the simultaneous use of four different reporter strains for the detection of major crude oil components (e.g., saturated hydrocarbons, mono- and polyaromatics) in aqueous samples. We specifically constructed the strain B. sartisoli RP007 (pPROBE-phn-luxAB) for the detection of naphthalene and phenanthrene. It was equipped with a reporter plasmid similar to the one in strain RP037, except that the gfp gene was replaced by the genes luxAB, which encoded the bacterial luciferase. The strain was implemented in the biosensor platform and detected an equivalent naphthalene concentration in oil spilled-sea water. We also cloned the gene for the transcriptional activator AlkS and the operator/promoter region of the operon alkSB1GHJ from the alkane-degrader bacterium Alcanivorax borkumensis strain SK2 in order to construct a new bacterial biosensor with higher sensitivity towards long-chain alkanes. However, the resulting strain showed no increased light emission in presence of tetradecane (C14), while it still efficiently reported low concentrations of octane (C8). RÉSUMÉ : Les écosystèmes naturels sont constamment exposés à nombre de contaminants organiques hydrophobes (COHs) d'origine industrielle, agricole ou même naturelle. Les COHs menacent à la fois l'environnement, le bien-être des espèces animales et végétales et la santé humaine, mais ils peuvent être dégradés par des micro-organismes tels que les bactéries et les champignons, qui peuvent être capables des les transformer en produits inoffensifs comme le gaz carbonique et l'eau. La biodégradation des COHs est cependant fréquemment limitée par leur pauvre disponibilité envers les organismes qui les dégradent. Ainsi, bien que la biodégradation opère partiellement, les COHs persistent dans l'environnement à de faibles concentrations qui potentiellement peuvent encore causer des effets toxiques chroniques. Puisque la plupart des COHs peuvent être métabolisés par l'activité microbienne, leur persistance a généralement pour origine des contraintes physico-chimiques plutôt que biologiques. Par exemple, leur solubilité dans l'eau très limitée réduit leur prise par des consommateurs potentiels. De plus, l'adsorption à la matière organique et la séquestration dans les micropores du sol participent à réduire leur disponibilité envers les microbes. Les processus de biodisponibilité, c'est-à-dire les processus qui gouvernent la dissolution et la prise de polluants par les organismes vivants, sont généralement perçus comme des paramètres clés pour la dépollution (bioremédiation) naturelle et stimulée des sites contaminés. Les hydrocarbures aromatiques polycycliques (HAPs) sont un modèle de COH produits par les activités aussi bien humaines que naturelles, et listés comme des contaminants chroniques de l'air, des sols et des sédiments. Ils peuvent être dégradés par un vaste nombre d'espèces bactériennes mais leur taux de biodégradation est souvent limité par les contraintes mentionnées ci-dessus. Afin de comprendre les processus de biodisponibilité pour les cellules bactériennes, nous avons décidé d'utiliser les bactéries elles-mêmes pour détecter et rapporter les flux de COH. Ceci a été réalisé par l'application d'une stratégie de conception visant à produire des bactéries `biocapteurs-rapporteurs', qui littéralement s'allument lorsqu'elles détectent un composé cible pour lequel elles ont été conçues. En premier lieu, nous nous sommes concentrés sur Burkholderia sartisoli (souche RP007), une bactérie isolée du sol et consommatrice de HAP .Cette souche a servi de base à la construction d'un circuit génétique permettant la formation de la protéine autofluorescente GFP dès que les cellules détectent le naphtalène ou le phénanthrène, deux HAP de faible masse moléculaire. En effet, nous avons pu montrer que la bactérie obtenue, la souche RP037 de B. sartisoli, produit une fluorescence GFP grandissante lors d'une exposition en culture liquide à du phénanthrène sous forme cristalline (0.5 mg par ml de milieu de culture). Nous avons découvert que pour une induction optimale il était nécessaire de fournir aux cellules une source additionnelle de carbone sous la forme d'acétate, ou sinon seul un nombre limité de cellules deviennent induites. Malgré cela, le phénanthrène a induit une réponse très hétérogène au sein de la population de cellules, avec quelques cellules pauvrement induites tandis que d'autres l'étaient très fortement. La raison de cette hétérogénéité extrême, même dans des cultures liquides mélangées, reste pour le moment incertaine. Plus important, nous avons pu montrer que l'amplitude de l'induction de GFP dépendait de paramètres physiques affectant le flux de phénanthrène aux cellules, tels que : la surface de contact entre le phénanthrène solide et la phase aqueuse ; l'ajout de surfactant ; le scellement de phénanthrène à l'intérieur de billes de polymères (Model Polymer Release System) ; la dissolution du phénanthrène dans un fluide gras immiscible à l'eau. Nous en avons conclu que la souche RP037 détecte convenablement des flux de phénantrène et nous avons proposé une relation entre le transfert de masse de phénanthrène et la production de GFP. Nous avons par la suite utilisé la souche afin d'examiner l'effet de plusieurs paramètres chimiques connus dans la littérature pour influencer la biodisponibilité des HAP. Premièrement, les acides humiques. Quelques rapports font état que la disponibilité des HAP pourrait être augmentée par la présence de matière organique dissoute. Nous avons mesuré l'induction de GFP comme fonction de l'exposition des cellules RP037 au phénanthrène ou au naphtalène en présence ou absence d'acides humiques dans la culture. Nous avons testé des concentrations d'acides humiques de 0.1 et 10 mg/L, tandis que le phénanthrène était ajouté via l'heptamethylnonane (HMN), un liquide non aqueux, ce qui au préalable avait produit le plus haut flux constant de phénanthrène aux cellules. De plus, nous avons utilisé des tests en phase gazeuse avec des concentrations d'acides humiques de 0.1, 10 et 1000 mg/L mais avec du naphtalène. Contrairement à ce que décrit la littérature, nos résultats ont indiqué que dans ces conditions l'expression de GFP en fonction de l'exposition au phénanthrène dans des cultures en croissance de la souche RP037 n'était pas modifiée par la présence d'acides humiques. D'un autre côté, le test en phase gazeuse avec du naphtalène a montré que 1000 mg/L d'acides humiques abaissent légèrement mais significativement la production de GFP dans les cellules de RP037. Nous avons conclu qu'il n'y a pas d'effet général des acides humiques sur la disponibilité des HAP pour les bactéries. Par la suite, nous nous sommes demandé si des biosurfactants modifieraient la disponibilité du phénanthrène pour les bactéries. Les surfactants sont souvent décrits dans la littérature comme des moyens d'accroître la biodisponibilité des COHs. Les surfactants sont des agents tensio-actifs qui augmentent la solubilité apparente de COH en les dissolvant à l'intérieur de micelles. Nous avons ainsi testé si des biosurfactants (des surfactants produits par des organismes vivants) peuvent être utilisé pour augmenter la biodisponibilité du phénanthrène pour la souche B. sartisoli RP037. Premièrement, nous avons tenté d'obtenir des biosurfactants produits par une autre bactérie vivant en co-culture avec les biocapteurs bactériens. Deuxièmement, nous avons utilisé des biosurfactants purifiés. La co-cultivation en présence de la bactérie productrice de lipopeptide Pseudomonas putida souche PCL1445 a augmenté l'expression de GFP induite par le phénanthrène chez B. sartisoli en comparaison des cultures simples, mais cet effet n'était pas significativement différent lorsque la souche RP037 était co-cultivée avec un mutant de P. putida ne produisant pas de lipopeptides. L'ajout de lipopeptides partiellement purifiés dans la culture de RP037 a résulté en une réduction de la tension de surface, mais n'a pas provoqué de changement dans l'expression de GFP. D'un autre côté, l'ajout d'une solution commerciale de rhamnolipides (un autre type de biosurfactants produits par Pseudomonas spp.) a facilité la dégradation du phénanthrène par la souche RP037 et induit une expression de GFP élevée dans une plus grande proportion de cellules. Nous avons ainsi conclu que les effets des biosurfactants sont mesurables à l'aide de la souche biocapteur, mais que ceux-ci sont dépendants du type de surfactant utilisé conjointement avec le phénanthrène. La question suivante que nous avons abordée était si les tests utilisant des biocapteurs peuvent être améliorés de manière à ce que les flux de HAP provenant de matériel contaminé soient détectés. Les tests en milieu liquide avec des échantillons de sol ne fournissant pas de mesures, et sachant que les concentrations de HAP dans l'eau sont en général extrêmement basses, nous avons conçu des tests de diffusion dans lesquels nous pouvons étudier l'induction par les HAPs en fonction de la distance aux cellules. Le biocapteur bactérien B. sartisoli souche RP037 a été marqué avec une seconde protéine fluorescente (mCherry), qui est constitutivement exprimée dans les cellules et leur confère une fluorescence rouge/rose. La souche résultante RP037-mChe témoigne d'une fluorescence rouge constitutive mais n'induit la fluorescence verte qu'en présence de naphtalène ou de phénanthrène. La présence d'un marqueur fluorescent constitutif nous permet de visualiser les biocapteurs bactériens plus facilement parmi des particules de sol. Un test de diffusion a été conçu en préparant un gel fait d'une suspension de cellules mélangées à 0.5 % d'agarose. Des bandes de gel de dimensions 0.5 x 2 cm x 1 mm ont été montées dans des chambres d'incubation et exposées à des sources de HAP (soit dissouts dans du HMN ou en tant que matériel solide, puis appliqués à une extrémité de la bande). En utilisant ce montage expérimental, le naphtalène ou le phénanthrène (dissouts dans du HMN à une concentration de 2.5 µg/µl) ont induit un gradient d'intensité de fluorescence GFP après 24 heures d'incubation, tandis que la fluorescence mCherry demeurait comparable. Un sol contaminé par des HAPs (provenant d'un ancien site de production de gaz) a induit la production de GFP à un niveau comparable à celui du naphtalène. Des biocapteurs bactériens individuels ont également détecté un flux de phénanthrène dans un gel contenant des particules de sol amendées avec 1 et 10 mg/g de phénanthrène. Ceci a montré que le test de diffusion peut être utilisé pour mesurer des flux de HAP provenant de matériel contaminé. D'un autre côté, la sensibilité est encore très basse pour plusieurs sols contaminés, et l'autofluorescence de certains échantillons rend difficile l'identification de la réponse de la GFP chez les cellules. Pour terminer, un des points majeurs de ce travail a été la production et la validation d'une plateforme multi-puits de biocapteurs bactériens, qui a permis l'emploi simultané de plusieurs souches différentes de biocapteurs pour la détection des constituants principaux du pétrole. Pour cela nous avons choisi les alcanes linéaires, les composés mono-aromatiques, les biphényls et les composés poly-aromatiques. De plus, nous avons utilisé un capteur pour la génotoxicité afin de détecter la `toxicité globale' dans des échantillons aqueux. Plusieurs efforts d'ingénierie ont été investis de manière à compléter ce set. En premier lieu, chaque souche a été équipée avec soit gfp, soit luxAB en tant que signal rapporteur. Deuxièmement, puisqu'aucune souche de biocapteur n'était disponible pour les HAP ou pour les alcanes à longues chaînes, nous avons spécifiquement construit deux nouveaux biocapteurs. L'un d'eux est également basé sur B. sartisoli RP007, que nous avons équipé avec le plasmide pPROBE-phn-luxAB pour la détection du naphtalène et du phénanthrène mais avec production de luciférase bactérienne. Un autre est un nouveau biocapteur bactérien pour les alcanes. Bien que nous possédions une souche Escherichia coli DHS α (pGEc74, pJAMA7) détectant les alcanes courts de manière satisfaisante, la présence des alcanes à longues chaînes n'était pas rapportée efficacement. Nous avons cloné le gène de l'activateur transcriptionnel A1kS ainsi que la région opérateur/promoteur de l'opéron alkSB1GHJ chez la bactérie dégradant les alcanes Alcanivorax borkumensis souche SK2, afin de construire un nouveau biocapteur bactérien bénéficiant d'une sensibilité accrue envers les alcanes à longues chaînes. Cependant, la souche résultante E. coli DHSα (pAlk3} n'a pas montré d'émission de lumière augmentée en présence de tétradécane (C14), tandis qu'elle rapportait toujours efficacement de basses concentrations d'octane (C8). De manière surprenante, l'utilisation de A. borkumensis en tant que souche hôte pour le nouveau plasmide rapporteur basé sur la GFP a totalement supprimé la sensibilité pour l'octane, tandis que la détection de tétradécane n'était pas accrue. Cet aspect devra être résolu dans de futurs travaux. Pour calibrer la plateforme de biocapteurs, nous avons simulé une fuite de pétrole en mer dans une bouteille en verre ouverte de 5L contenant 2L d'eau de mer contaminée avec 20 ml (1%) de pétrole brut. La phase aqueuse a été échantillonée à intervalles réguliers après la fuite durant une période allant jusqu'à une semaine tandis que les principaux contaminants pétroliers étaient mesurés via les biocapteurs. L'émission de bioluminescence a été mesurée de manière à déterminer la réponse des biocapteurs et une calibration intégrée faite avec des inducteurs types a servi à calculer des concentrations d'équivalents inducteurs dans l'échantillon. E. coli a été utilisée en tant que souche hôte pour la plupart des spécificités des biocapteurs, à l'exception de la détection du naphtalène et du phénanthrène pour lesquels nous avons utilisé B. sartisoli. Cette souche, cependant, peut être employée plus ou moins selon la même procédure. Il est intéressant de noter que le pétrole répandu a produit une apparition séquentielle de composés dissouts dans la phase aqueuse, ceux-ci .étant détectables par les biocapteurs. Ce profil contenait d'abord les alcanes à courtes chaînes et les BTEX (c'est-à dire benzène, toluène, éthylbenzène et xylènes), apparaissant entre des minutes et des heures après que le pétrole a été versé. Leurs concentrations aqueuses ont par la suite fortement décru dans l'eau échantillonnée après 24 heures, à cause de la volatilisation ou de la biodégradation. Après quelques jours d'incubation, ces composés sont devenus indétectables. Les HAPs, en revanche, sont apparus plus tard que les alcanes et les BTEX, et leur concentration a augmenté de pair avec un temps d'incubation prolongé. Aucun signal significatif n'a été mis en évidence avec le biocapteur pour le biphényl ou pour la génotoxicité. Ceci démontre l'utilité de ces biocapteurs, spécifiquement pour la détection des composés pétroliers, comprenant les alcanes à courtes chaînes, les BTEX et les HAPs légers.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
Les débats politiques actuels en Allemagne autour de la jeunesse sont marqués par deux problèmes majeurs : un taux de chômage élevé qui indique les limites du système d'apprentissage et un faible taux de natalité qui appelle à une réorientation profonde des politiques familiales. Ces deux problèmes sont analysés à partir d'éléments historiques et factuels. Dans le domaine de l'emploi, il est difficile de déceler une politique spécifique destinée exclusivement à la jeunesse en Allemagne, car toutes les mesures ont pour objectif de permettre aux personnes en difficultés d'obtenir un diplôme scolaire et/ou une formation professionnelle. En revanche, les jeunes d'origine étrangère sont moins qualifiés et rencontrent des difficultés d'insertion sur le marché de travail, ce qui a poussé le gouvernement à développer un grand nombre de mesures spécifiques. D'un autre côté, l'Allemagne présente un très faible niveau de diplômés de l'enseignement supérieur. Ce groupe est presque épargné par les problèmes de chômage. Face aux graves problèmes démographiques qui s'annoncent, l'Allemagne repense les politiques publiques en faveur de la famille, de la jeunesse et de la solidarité entre les générations. Les nouvelles mesures proposées par la ministre de la Famille (une allocation pour les parents d'enfants ayant entre 12 et 14 mois, et la création d'ici à 2013 de nouvelles places en crèche permettant de garder un tiers des enfants) se heurtent à des méfiances anciennes vis-à-vis de l'État. Finalement, les rapports entre les générations sont repensés par la création de lieux de vie communs qui sont un moyen de faire face à la modification des structures familiales et au surnombre de personnes âgées. Dans une première partie, les nouvelles mesures d'orientation destinées aux jeunes en difficulté sont analysées dans le contexte du marché de travail. La seconde partie est consacrée à une analyse des nouveaux dispositifs des politiques familiales.
Resumo:
SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.
Resumo:
Rapport de synthèse: Enjeux et contexte de recherche : la coarctation de l'aorte, rétrécissement de l'aorte thoracique descendante, est une des malformations cardiaques congénitales les plus fréquentes. Son diagnostic reste cependant difficile surtout lorsqu'elle est associée à la présence d'un canal artériel ou à une malformation cardiaque plus complexe. Dans ces contextes, les signes échographiques classiques qui posent habituellement le diagnostic (visualisation d'un rétrécissement juxtaductal et accélération au Doppler au niveau de l'isthme aortique) peuvent faire défaut ou être difficile à imager. La validation d'index basé sur des mesures anatomiques faciles à acquérir par échographie cardiaque, indépendantes de l'âge, de la situation hémodynamique et des malformations cardiaques associées représente une aide significative dans le diagnostic de la coarctation de l'aorte. Nous avons donc voulu valider par une étude rétrospective la fiabilité de deux index dans cette indication : l'index des artères carotido-sous-clavière (index CSA; rapport du diamètre de l'arc aortique transverse distal sur la distance entre les artères carotide et sous-clavière gauches) et l'index de l'aorte isthmique-descendante (index I/D; rapport des diamètres de l'aorte isthmique sur celui de l'aorte descendante). Notre article : nous avons rétrospectivement calculé la valeur des deux index (CSA et I/D) chez un groupe de 68 enfants avec coarctation et un groupe 24 cas contrôles apparenté pour l'âge et le sexe. Les enfants avec coarctation ont un index CSA et I/D significativement plus bas que le groupe contrôle (Index CSA : 0.84 ± 0.39 vs. 2.65 ± 0.82, p<0.0001 - Index I/D : 0.58 ± 0.18 vs. 0.98 ± 0.19, p<0.0001). Pour les deux index, ni la présence d'une autre malformation cardiaque, ni l'âge n'ont un impact sur la différence significative entre les deux groupes. Conclusions: notre recherche à permis de valider qu'un index CSA de moins de 1,5 est fortement suggestif d'une coarctation, indépendamment de l'âge du patient et de la présence d'une autre malformation cardiaque. L'index I/D (valeur limite 0,64) est moins spécifique que l'index CSA. L'association des deux index augmente la sensibilité et permet rétrospectivement le diagnostic de tous les cas de coarctation seulement sur la base d'une échographie cardiaque standard faite au lit du patient. Perspectives : cette étude rétrospective mérite d'être vérifiée par une étude prospective afin de confirmer la contribution de ces index à la prise en charge des patients suspects d'une coarctation de l'aorte. Cependant, la situation dans laquelle ces index pourraient avoir le plus grand impact reste encore à explorer. En effet, si le diagnostic postnatal de la coarctation est parfois difficile, son diagnostic prénatal l'est nettement plus. La présence obligatoire du canal artériel et l'existence d'une hypoplasie isthmique physiologique chez le foetus obligent le cardiologue foetale à observer des signes indirects, peu sensibles, d'une possible coarctation (prépondérance des cavités droites). La validation de l'index CSA et/ou de l'index I/D chez le foetus constituerait donc une avancée majeure dans le diagnostic prénatal de la coarctation de l'aorte.
Resumo:
Recently, the introduction of second generation sequencing and further advance-ments in confocal microscopy have enabled system-level studies for the functional characterization of genes. The degree of complexity intrinsic to these approaches needs the development of bioinformatics methodologies and computational models for extracting meaningful biological knowledge from the enormous amount of experi¬mental data which is continuously generated. This PhD thesis presents several novel bioinformatics methods and computational models to address specific biological questions in Plant Biology by using the plant Arabidopsis thaliana as a model system. First, a spatio-temporal qualitative analysis of quantitative transcript and protein profiles is applied to show the role of the BREVIS RADIX (BRX) protein in the auxin- cytokinin crosstalk for root meristem growth. Core of this PhD work is the functional characterization of the interplay between the BRX protein and the plant hormone auxin in the root meristem by using a computational model based on experimental evidence. Hyphotesis generated by the modelled to the discovery of a differential endocytosis pattern in the root meristem that splits the auxin transcriptional response via the plasma membrane to nucleus partitioning of BRX. This positional information system creates an auxin transcriptional pattern that deviates from the canonical auxin response and is necessary to sustain the expression of a subset of BRX-dependent auxin-responsive genes to drive root meristem growth. In the second part of this PhD thesis, we characterized the genome-wide impact of large scale deletions on four divergent Arabidopsis natural strains, through the integration of Ultra-High Throughput Sequencing data with data from genomic hybridizations on tiling arrays. Analysis of the identified deletions revealed a considerable portion of protein coding genes affected and supported a history of genomic rearrangements shaped by evolution. In the last part of the thesis, we showed that VIP3 gene in Arabidopsis has an evo-lutionary conserved role in the 3' to 5' mRNA degradation machinery, by applying a novel approach for the analysis of mRNA-Seq data from random-primed mRNA. Altogether, this PhD research contains major advancements in the study of natural genomic variation in plants and in the application of computational morphodynamics models for the functional characterization of biological pathways essential for the plant. - Récemment, l'introduction du séquençage de seconde génération et les avancées dans la microscopie confocale ont permis des études à l'échelle des différents systèmes cellulaires pour la caractérisation fonctionnelle de gènes. Le degrés de complexité intrinsèque à ces approches ont requis le développement de méthodologies bioinformatiques et de modèles mathématiques afin d'extraire de la masse de données expérimentale générée, des information biologiques significatives. Ce doctorat présente à la fois des méthodes bioinformatiques originales et des modèles mathématiques pour répondre à certaines questions spécifiques de Biologie Végétale en utilisant la plante Arabidopsis thaliana comme modèle. Premièrement, une analyse qualitative spatio-temporelle de profiles quantitatifs de transcripts et de protéines est utilisée pour montrer le rôle de la protéine BREVIS RADIX (BRX) dans le dialogue entre l'auxine et les cytokinines, des phytohormones, dans la croissance du méristème racinaire. Le noyau de ce travail de thèse est la caractérisation fonctionnelle de l'interaction entre la protéine BRX et la phytohormone auxine dans le méristème de la racine en utilisant des modèles informatiques basés sur des preuves expérimentales. Les hypothèses produites par le modèle ont mené à la découverte d'un schéma différentiel d'endocytose dans le méristème racinaire qui divise la réponse transcriptionnelle à l'auxine par le partitionnement de BRX de la membrane plasmique au noyau de la cellule. Cette information positionnelle crée une réponse transcriptionnelle à l'auxine qui dévie de la réponse canonique à l'auxine et est nécessaire pour soutenir l'expression d'un sous ensemble de gènes répondant à l'auxine et dépendant de BRX pour conduire la croissance du méristème. Dans la seconde partie de cette thèse de doctorat, nous avons caractérisé l'impact sur l'ensemble du génome des délétions à grande échelle sur quatre souches divergentes naturelles d'Arabidopsis, à travers l'intégration du séquençage à ultra-haut-débit avec l'hybridation génomique sur puces ADN. L'analyse des délétions identifiées a révélé qu'une proportion considérable de gènes codant était affectée, supportant l'idée d'un historique de réarrangement génomique modelé durant l'évolution. Dans la dernière partie de cette thèse, nous avons montré que le gène VÏP3 dans Arabidopsis a conservé un rôle évolutif dans la machinerie de dégradation des ARNm dans le sens 3' à 5', en appliquant une nouvelle approche pour l'analyse des données de séquençage d'ARNm issue de transcripts amplifiés aléatoirement. Dans son ensemble, cette recherche de doctorat contient des avancées majeures dans l'étude des variations génomiques naturelles des plantes et dans l'application de modèles morphodynamiques informatiques pour la caractérisation de réseaux biologiques essentiels à la plante. - Le développement des plantes est écrit dans leurs codes génétiques. Pour comprendre comment les plantes sont capables de s'adapter aux changements environnementaux, il est essentiel d'étudier comment leurs gènes gouvernent leur formation. Plus nous essayons de comprendre le fonctionnement d'une plante, plus nous réalisons la complexité des mécanismes biologiques, à tel point que l'utilisation d'outils et de modèles mathématiques devient indispensable. Dans ce travail, avec l'utilisation de la plante modèle Arabidopsis thalicinci nous avons résolu des problèmes biologiques spécifiques à travers le développement et l'application de méthodes informatiques concrètes. Dans un premier temps, nous avons investigué comment le gène BREVIS RADIX (BRX) régule le développement de la racine en contrôlant la réponse à deux hormones : l'auxine et la cytokinine. Nous avons employé une analyse statistique sur des mesures quantitatives de transcripts et de produits de gènes afin de démontrer que BRX joue un rôle antagonisant dans le dialogue entre ces deux hormones. Lorsque ce-dialogue moléculaire est perturbé, la racine primaire voit sa longueur dramatiquement réduite. Pour comprendre comment BRX répond à l'auxine, nous avons développé un modèle informatique basé sur des résultats expérimentaux. Les simulations successives ont mené à la découverte d'un signal positionnel qui contrôle la réponse de la racine à l'auxine par la régulation du mouvement intracellulaire de BRX. Dans la seconde partie de cette thèse, nous avons analysé le génome entier de quatre souches naturelles d'Arabidopsis et nous avons trouvé qu'une grande partie de leurs gènes étaient manquant par rapport à la souche de référence. Ce résultat indique que l'historique des modifications génomiques conduites par l'évolution détermine une disponibilité différentielle des gènes fonctionnels dans ces plantes. Dans la dernière partie de ce travail, nous avons analysé les données du transcriptome de la plante où le gène VIP3 était non fonctionnel. Ceci nous a permis de découvrir le rôle double de VIP3 dans la régulation de l'initiation de la transcription et dans la dégradation des transcripts. Ce rôle double n'avait jusqu'alors été démontrée que chez l'homme. Ce travail de doctorat supporte le développement et l'application de méthodologies informatiques comme outils inestimables pour résoudre la complexité des problèmes biologiques dans la recherche végétale. L'intégration de la biologie végétale et l'informatique est devenue de plus en plus importante pour l'avancée de nos connaissances sur le fonctionnement et le développement des plantes.
Resumo:
Résumé : Des événements traumatiques précoces peuvent favoriser le développement ultérieur de psychopathologies telles que les troubles anxieux ou dépressifs. Dans quelle mesure ces événements influencent-ils la réaction d'un sujet à un stress aigu ? Objectif : comparer la prévalence de troubles psychiatriques et déterminer la différence de réaction au stress à l'âge adulte de femmes ayant ou non subi un traumatisme de type abus sexuel dans leur enfance. Participants : 46 femmes âgées de 22 à 48 ans recrutées entre juin 2004 et juillet 2006 réparties en 2 groupes (groupe contrôle de 16 sujets, groupe traumatisé de 30 sujets). L'étude se déroule dans l'Unité de recherche du SUPEA, rue du Bugnon 25A, 1005 Lausanne. Mesures : hormone adrenocorticotropiqué (ACTI-I), cortisol plasmatique et salivaire, fréquence cardiaque au cours du TSST (test psychosocial de stress standardisé), réponses aux questionnaires standardisés VAS (visual analog scale) et MDBF (Mehrdimensionale Befindlichkeitsfragebogen), MINI (mini international neuropsychiatric interview), ETI (early trauma inventory). Les différences de cóncentration d'ACTH et de cortisol, du rythme cardiaque, et des réponses aux questionnaires VAS et MDBF entre des groupes contrôle et abus ont été analysés (ANOVA, ANalysis Of VAriance). Lorsque les résultats montraient une grande hétérogénéité, nous .avons également appliqué les tests de Mann-Whitney et de Kruskal-Wallis: Résultats principaux : les personnes abusées dans leur enfance souffrent à l'âge adulte plus fréquemment de troubles psychiatriques selon les critères du MINI DSM-IV. Ces personnes réagissent fortement au stress, mais seules leurs réponses subjectives montrent des différences significatives par rapport à un groupe de contrôle.
Efficacité des analyses de Gumbel pour déterminer les précipitations journalières extrêmes en Suisse
Resumo:
Les précipitations journalières extrêmes centennales ont été estimées à partir d'analyses de Gumbel effectuées sur des séries de mesures pluviométriques à 151 endroits en Suisse pour 4 périodes de 30 ans différentes. Ces estimations ont été comparées avec les valeurs journalières maximales mesurées durant les 100 dernières années (1911-2010) afin de tester l'efficacité de ces analyses. Cette comparaison révèle que ces dernières aboutissent à de bons résultats pour 50 à 60% des stations de ce pays à partir des séries de mesures pluviométriques de 1961-1990 et de 1981-2010. Par contre, les précipitations journalières centennales estimées à partir des séries de mesures de 1931-1960 et surtout de 1911-1940 sont sous-estimées pour la plupart des stations. Cette sous-estimation résulte de l'augmentation des précipitations journalières maximales mesurées de 1911 à 2010 pour 90% des stations en Suisse.
Resumo:
The thesis at hand is concerned with the spatio-temporal brain mechanisms of visual food perception as investigated by electrical neuroimaging. Due to the increasing prevalence of obesity and its associated challenges for public health care, there is a need to better understand behavioral and brain processes underlying food perception and food-based decision-making. The first study (Study A) of this thesis was concerned with the role of repeated exposure to visual food cues. In our everyday lives we constantly and repeatedly encounter food and these exposures influence our food choices and preferences. In Study A, we therefore applied electrical neuroimaging analyses of visual evoked potentials to investigate the spatio-temporal brain dynamics linked to the repeated viewing of high- and low-energy food cues (published manuscript: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). In this study, we found that repetitions differentially affect behavioral and brain mechanisms when high-energy, as opposed to low-energy foods and non-food control objects, were viewed. The representation of high-energy food remained invariant between initial and repeated exposures indicating that the sight of high-energy dense food induces less behavioral and neural adaptation than the sight of low-energy food and non-food control objects. We discuss this finding in the context of the higher salience (due to greater motivation and higher reward or hedonic valuation) of energy- dense food that likely generates a more mnemonically stable representation. In turn, this more invariant representation of energy-dense food is supposed to (partially) explain why these foods are over-consumed despite of detrimental health consequences. In Study Β we investigated food responsiveness in patients who had undergone Roux-en-Y gastric bypass surgery to overcome excessive obesity. This type of gastric bypass surgery is not only known to alter food appreciation, but also the secretion patterns of adipokines and gut peptides. Study Β aimed at a comprehensive and interdisciplinary investigation of differences along the gut-brain axis in bypass-operated patients as opposed to weight-matched non-operated controls. On the one hand, the spatio-temporal brain dynamics to the visual perception of high- vs. low-energy foods under differing states of motivation towards food intake (i.e. pre- and post-prandial) were assessed and compared between groups. On the other hand, peripheral gut hormone measures were taken in pre- and post-prandial nutrition state and compared between groups. In order to evaluate alterations in the responsiveness along the gut-brain-axis related to gastric bypass surgery, correlations between both measures were compared between both participant groups. The results revealed that Roux-en- Y gastric bypass surgery alters the spatio-temporal brain dynamics to the perception of high- and low-energy food cues, as well as the responsiveness along the gut-brain-axis. The potential role of these response alterations is discussed in relation to previously observed changes in physiological factors and food intake behavior post-Roux-en-Y gastric bypass surgery. By doing so, we highlight potential behavioral, neural and endocrine (i.e. gut hormone) targets for the future development of intervention strategies for deviant eating behavior and obesity. Together, the studies showed that the visual representation of foods in the brain is plastic and that modulations in neural activity are already noted at early stages of visual processing. Different factors of influence such as a repeated exposure, Roux-en-Y gastric bypass surgery, motivation (nutrition state), as well as the energy density of the visually perceived food were identified. En raison de la prévalence croissante de l'obésité et du défi que cela représente en matière de santé publique, une meilleure compréhension des processus comportementaux et cérébraux liés à la nourriture sont nécessaires. En particulier, cette thèse se concentre sur l'investigation des mécanismes cérébraux spatio-temporels liés à la perception visuelle de la nourriture. Nous sommes quotidiennement et répétitivement exposés à des images de nourriture. Ces expositions répétées influencent nos choix, ainsi que nos préférences alimentaires. La première étude (Study A) de cette thèse investigue donc l'impact de ces exposition répétée à des stimuli visuels de nourriture. En particulier, nous avons comparé la dynamique spatio-temporelle de l'activité cérébrale induite par une exposition répétée à des images de nourriture de haute densité et de basse densité énergétique. (Manuscrit publié: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). Dans cette étude, nous avons pu constater qu'une exposition répétée à des images représentant de la nourriture de haute densité énergétique, par opposition à de la nourriture de basse densité énergétique, affecte les mécanismes comportementaux et cérébraux de manière différente. En particulier, la représentation neurale des images de nourriture de haute densité énergétique est similaire lors de l'exposition initiale que lors de l'exposition répétée. Ceci indique que la perception d'images de nourriture de haute densité énergétique induit des adaptations comportementales et neurales de moindre ampleur par rapport à la perception d'images de nourriture de basse densité énergétique ou à la perception d'une « catégorie contrôle » d'objets qui ne sont pas de la nourriture. Notre discussion est orientée sur les notions prépondérantes de récompense et de motivation qui sont associées à la nourriture de haute densité énergétique. Nous suggérons que la nourriture de haute densité énergétique génère une représentation mémorielle plus stable et que ce mécanisme pourrait (partiellement) être sous-jacent au fait que la nourriture de haute densité énergétique soit préférentiellement consommée. Dans la deuxième étude (Study Β) menée au cours de cette thèse, nous nous sommes intéressés aux mécanismes de perception de la nourriture chez des patients ayant subi un bypass gastrique Roux- en-Y, afin de réussir à perdre du poids et améliorer leur santé. Ce type de chirurgie est connu pour altérer la perception de la nourriture et le comportement alimentaire, mais également la sécrétion d'adipokines et de peptides gastriques. Dans une approche interdisciplinaire et globale, cette deuxième étude investigue donc les différences entre les patients opérés et des individus « contrôles » de poids similaire au niveau des interactions entre leur activité cérébrale et les mesures de leurs hormones gastriques. D'un côté, nous avons investigué la dynamique spatio-temporelle cérébrale de la perception visuelle de nourriture de haute et de basse densité énergétique dans deux états physiologiques différent (pre- et post-prandial). Et de l'autre, nous avons également investigué les mesures physiologiques des hormones gastriques. Ensuite, afin d'évaluer les altérations liées à l'intervention chirurgicale au niveau des interactions entre la réponse cérébrale et la sécrétion d'hormone, des corrélations entre ces deux mesures ont été comparées entre les deux groupes. Les résultats révèlent que l'intervention chirurgicale du bypass gastrique Roux-en-Y altère la dynamique spatio-temporelle de la perception visuelle de la nourriture de haute et de basse densité énergétique, ainsi que les interactions entre cette dernière et les mesures périphériques des hormones gastriques. Nous discutons le rôle potentiel de ces altérations en relation avec les modulations des facteurs physiologiques et les changements du comportement alimentaire préalablement déjà démontrés. De cette manière, nous identifions des cibles potentielles pour le développement de stratégies d'intervention future, au niveau comportemental, cérébral et endocrinien (hormones gastriques) en ce qui concerne les déviances du comportement alimentaire, dont l'obésité. Nos deux études réunies démontrent que la représentation visuelle de la nourriture dans le cerveau est plastique et que des modulations de l'activité neurale apparaissent déjà à un stade très précoce des mécanismes de perception visuelle. Différents facteurs d'influence comme une exposition repetee, le bypass gastrique Roux-en-Y, la motivation (état nutritionnel), ainsi que la densité énergétique de la nourriture qui est perçue ont pu être identifiés.
Resumo:
The study of wave propagation at sonic frequency in soil leads to elasticity parameter determination. These parameters are compatible to those measured simultaneously by static loading. The acquisition of in situ elasticity parameter combined with laboratory description of the elastoplastic behaviour can lead to in situ elastoplastic curves. - L'étude de la propagation des ondes acoustiques permet la détermination des paramètres d'élasticité dans les sols. Ces paramètres sont cohérents avec des mesures statiques simultanées. L'acquisition des paramètres d'élasticité in situ associée à une description du comportement élasto-plastique mesuré en laboratoire permet d'obtenir des courbes d'élastoplasticité in situ.
Resumo:
Summary: Global warming has led to an average earth surface temperature increase of about 0.7 °C in the 20th century, according to the 2007 IPCC report. In Switzerland, the temperature increase in the same period was even higher: 1.3 °C in the Northern Alps anal 1.7 °C in the Southern Alps. The impacts of this warming on ecosystems aspecially on climatically sensitive systems like the treeline ecotone -are already visible today. Alpine treeline species show increased growth rates, more establishment of young trees in forest gaps is observed in many locations and treelines are migrating upwards. With the forecasted warming, this globally visible phenomenon is expected to continue. This PhD thesis aimed to develop a set of methods and models to investigate current and future climatic treeline positions and treeline shifts in the Swiss Alps in a spatial context. The focus was therefore on: 1) the quantification of current treeline dynamics and its potential causes, 2) the evaluation and improvement of temperaturebased treeline indicators and 3) the spatial analysis and projection of past, current and future climatic treeline positions and their respective elevational shifts. The methods used involved a combination of field temperature measurements, statistical modeling and spatial modeling in a geographical information system. To determine treeline shifts and assign the respective drivers, neighborhood relationships between forest patches were analyzed using moving window algorithms. Time series regression modeling was used in the development of an air-to-soil temperature transfer model to calculate thermal treeline indicators. The indicators were then applied spatially to delineate the climatic treeline, based on interpolated temperature data. Observation of recent forest dynamics in the Swiss treeline ecotone showed that changes were mainly due to forest in-growth, but also partly to upward attitudinal shifts. The recent reduction in agricultural land-use was found to be the dominant driver of these changes. Climate-driven changes were identified only at the uppermost limits of the treeline ecotone. Seasonal mean temperature indicators were found to be the best for predicting climatic treelines. Applying dynamic seasonal delimitations and the air-to-soil temperature transfer model improved the indicators' applicability for spatial modeling. Reproducing the climatic treelines of the past 45 years revealed regionally different attitudinal shifts, the largest being located near the highest mountain mass. Modeling climatic treelines based on two IPCC climate warming scenarios predicted major shifts in treeline altitude. However, the currently-observed treeline is not expected to reach this limit easily, due to lagged reaction, possible climate feedback effects and other limiting factors. Résumé: Selon le rapport 2007 de l'IPCC, le réchauffement global a induit une augmentation de la température terrestre de 0.7 °C en moyenne au cours du 20e siècle. En Suisse, l'augmentation durant la même période a été plus importante: 1.3 °C dans les Alpes du nord et 1.7 °C dans les Alpes du sud. Les impacts de ce réchauffement sur les écosystèmes - en particuliers les systèmes sensibles comme l'écotone de la limite des arbres - sont déjà visibles aujourd'hui. Les espèces de la limite alpine des forêts ont des taux de croissance plus forts, on observe en de nombreux endroits un accroissement du nombre de jeunes arbres s'établissant dans les trouées et la limite des arbres migre vers le haut. Compte tenu du réchauffement prévu, on s'attend à ce que ce phénomène, visible globalement, persiste. Cette thèse de doctorat visait à développer un jeu de méthodes et de modèles pour étudier dans un contexte spatial la position présente et future de la limite climatique des arbres, ainsi que ses déplacements, au sein des Alpes suisses. L'étude s'est donc focalisée sur: 1) la quantification de la dynamique actuelle de la limite des arbres et ses causes potentielles, 2) l'évaluation et l'amélioration des indicateurs, basés sur la température, pour la limite des arbres et 3) l'analyse spatiale et la projection de la position climatique passée, présente et future de la limite des arbres et des déplacements altitudinaux de cette position. Les méthodes utilisées sont une combinaison de mesures de température sur le terrain, de modélisation statistique et de la modélisation spatiale à l'aide d'un système d'information géographique. Les relations de voisinage entre parcelles de forêt ont été analysées à l'aide d'algorithmes utilisant des fenêtres mobiles, afin de mesurer les déplacements de la limite des arbres et déterminer leurs causes. Un modèle de transfert de température air-sol, basé sur les modèles de régression sur séries temporelles, a été développé pour calculer des indicateurs thermiques de la limite des arbres. Les indicateurs ont ensuite été appliqués spatialement pour délimiter la limite climatique des arbres, sur la base de données de températures interpolées. L'observation de la dynamique forestière récente dans l'écotone de la limite des arbres en Suisse a montré que les changements étaient principalement dus à la fermeture des trouées, mais aussi en partie à des déplacements vers des altitudes plus élevées. Il a été montré que la récente déprise agricole était la cause principale de ces changements. Des changements dus au climat n'ont été identifiés qu'aux limites supérieures de l'écotone de la limite des arbres. Les indicateurs de température moyenne saisonnière se sont avérés le mieux convenir pour prédire la limite climatique des arbres. L'application de limites dynamiques saisonnières et du modèle de transfert de température air-sol a amélioré l'applicabilité des indicateurs pour la modélisation spatiale. La reproduction des limites climatiques des arbres durant ces 45 dernières années a mis en évidence des changements d'altitude différents selon les régions, les plus importants étant situés près du plus haut massif montagneux. La modélisation des limites climatiques des arbres d'après deux scénarios de réchauffement climatique de l'IPCC a prédit des changements majeurs de l'altitude de la limite des arbres. Toutefois, l'on ne s'attend pas à ce que la limite des arbres actuellement observée atteigne cette limite facilement, en raison du délai de réaction, d'effets rétroactifs du climat et d'autres facteurs limitants.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
SOUND OBJECTS IN TIME, SPACE AND ACTIONThe term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. At cortical level, sound objects are represented by temporo-spatial activity patterns within distributed neural networks. This investigation concerns temporal, spatial and action aspects as assessed in normal subjects using electrical imaging or measurement of motor activity induced by transcranial magnetic stimulation (TMS).Hearing the same sound again has been shown to facilitate behavioral responses (repetition priming) and to modulate neural activity (repetition suppression). In natural settings the same source is often heard again and again, with variations in spectro-temporal and spatial characteristics. I have investigated how such repeats influence response times in a living vs. non-living categorization task and the associated spatio-temporal patterns of brain activity in humans. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory cortex as a function of the temporal history of exposure to these objects. Often heard sounds are coded by a modulation in a bilateral network. Recently heard sounds, independently of the number of previous exposures, are coded by a modulation of a left-sided network.With sound objects which carry spatial information, I have investigated how spatial aspects of the repeats influence neural representations. Dynamics analyses of distributed source estimations revealed an ultra rapid discrimination of sound objects which are characterized by spatial cues. This discrimination involved two temporo-spatially distinct cortical representations, one associated with position-independent and the other with position-linked representations within the auditory ventral/what stream.Action-related sounds were shown to increase the excitability of motoneurons within the primary motor cortex, possibly via an input from the mirror neuron system. The role of motor representations remains unclear. I have investigated repetition priming-induced plasticity of the motor representations of action sounds with the measurement of motor activity induced by TMS pulses applied on the hand motor cortex. TMS delivered to the hand area within the primary motor cortex yielded larger magnetic evoked potentials (MEPs) while the subject was listening to sounds associated with manual than non- manual actions. Repetition suppression was observed at motoneuron level, since during a repeated exposure to the same manual action sound the MEPs were smaller. I discuss these results in terms of specialized neural network involved in sound processing, which is characterized by repetition-induced plasticity.Thus, neural networks which underlie sound object representations are characterized by modulations which keep track of the temporal and spatial history of the sound and, in case of action related sounds, also of the way in which the sound is produced.LES OBJETS SONORES AU TRAVERS DU TEMPS, DE L'ESPACE ET DES ACTIONSLe terme "objet sonore" décrit une expérience auditive associée avec un événement acoustique produit par une source sonore. Au niveau cortical, les objets sonores sont représentés par des patterns d'activités dans des réseaux neuronaux distribués. Ce travail traite les aspects temporels, spatiaux et liés aux actions, évalués à l'aide de l'imagerie électrique ou par des mesures de l'activité motrice induite par stimulation magnétique trans-crânienne (SMT) chez des sujets sains. Entendre le même son de façon répétitive facilite la réponse comportementale (amorçage de répétition) et module l'activité neuronale (suppression liée à la répétition). Dans un cadre naturel, la même source est souvent entendue plusieurs fois, avec des variations spectro-temporelles et de ses caractéristiques spatiales. J'ai étudié la façon dont ces répétitions influencent le temps de réponse lors d'une tâche de catégorisation vivant vs. non-vivant, et les patterns d'activité cérébrale qui lui sont associés. Des analyses dynamiques d'estimations de sources ont révélé des représentations différenciées des objets sonores au niveau du cortex auditif en fonction de l'historique d'exposition à ces objets. Les sons souvent entendus sont codés par des modulations d'un réseau bilatéral. Les sons récemment entendus sont codé par des modulations d'un réseau du côté gauche, indépendamment du nombre d'expositions. Avec des objets sonores véhiculant de l'information spatiale, j'ai étudié la façon dont les aspects spatiaux des sons répétés influencent les représentations neuronales. Des analyses dynamiques d'estimations de sources ont révélé une discrimination ultra rapide des objets sonores caractérisés par des indices spatiaux. Cette discrimination implique deux représentations corticales temporellement et spatialement distinctes, l'une associée à des représentations indépendantes de la position et l'autre à des représentations liées à la position. Ces représentations sont localisées dans la voie auditive ventrale du "quoi".Des sons d'actions augmentent l'excitabilité des motoneurones dans le cortex moteur primaire, possiblement par une afférence du system des neurones miroir. Le rôle des représentations motrices des sons d'actions reste peu clair. J'ai étudié la plasticité des représentations motrices induites par l'amorçage de répétition à l'aide de mesures de potentiels moteurs évoqués (PMEs) induits par des pulsations de SMT sur le cortex moteur de la main. La SMT appliquée sur le cortex moteur primaire de la main produit de plus grands PMEs alors que les sujets écoutent des sons associée à des actions manuelles en comparaison avec des sons d'actions non manuelles. Une suppression liée à la répétition a été observée au niveau des motoneurones, étant donné que lors de l'exposition répétée au son de la même action manuelle les PMEs étaient plus petits. Ces résultats sont discuté en termes de réseaux neuronaux spécialisés impliqués dans le traitement des sons et caractérisés par de la plasticité induite par la répétition. Ainsi, les réseaux neuronaux qui sous-tendent les représentations des objets sonores sont caractérisés par des modulations qui gardent une trace de l'histoire temporelle et spatiale du son ainsi que de la manière dont le son a été produit, en cas de sons d'actions.