374 resultados para modèles EGDS
Resumo:
Cette thèse comprend trois essais qui abordent l'information le processus d'ap-prentissage ainsi que le risque dans les marchés finances. Elle se concentre d'abord sur les implications à l'équilibre de l'hétérogénéité des agents à travers un processus d'apprentissage comprtemental et de mise à jour de l'information. De plus, elle examine les effets du partage des risques dans un reseau entreprise-fournisseur. Le premier chapitre étudie les effets du biais de disponibili sur l'évaluation des actifs. Ce biais décrit le fait que les agents surestiment l'importance de l'information acquise via l'expérience personnelle. L'hétérogénéité restante des différentes perceptions individuelles amène à une volonté d'échanges. Conformé¬ment aux données empiriques, les jeunes agents échangent plus mais en même temps souffrent d'une performance inférieure. Le deuxième chapitre se penche sur l'impact qu'ont les différences de modelisation entre les agents sur leurs percevons individuelles du processus de prix, dans le contexte des projections de modèles. Les agents sujets à un biais de projection pensent être représentatifs et interprètent les opinions des autres agents comme du bruit. Les agents, avec des modèles plus persistants, perçoivent que les prix réagissent de façon excessive lors des périodes de turbulence. Le troisième chapitre analyse l'impact du partage des risques dans la relation entreprise-fournisseur sur la décision optimale de financement de l'entreprise. Il étudie l'impact sur l'optimisation de la structure du capital ainsi que sur le coût du capital. Les résultats indiquent en particulier qu'un fournisseur avec un effet de levier faible est utile pour le financement d'un nouveau projet d'investissement. Pour des projets très rentables et des fournisseurs à faible effet de levier, le coût des capitaux propres de l'entreprise peut diminuer.
Resumo:
De nombreuses études ont été consacrées en Suisse à la promotion de la nouvelle gestion publique (NGP) au niveau des cantons, puis à son évaluation. Or, les chercheurs se sont peu intéressés jusqu'ici aux effets de son introduction sur les structures administratives et les effectifs de la fonction publique. Ils n'ont pas non plus expliqué suffisamment les facteurs ayant favorisé ou freiné la modernisation de l'Etat au-delà de la NGP. Les réformes de l'Etat menées au sein des administrations cantonales dans le cadre de la revitalisation du fédéralisme ont des causes multiples. Cette étude exploratoire tente de décrire les transformations au niveau des structures et de l'organisation de l'Etat depuis le début des années 1990 en analysant le niveau et l'impact des principes NGP ou d'autres facteurs ayant pu jouer un rôle dans la modernisation des administrations: force des partis, degré de professionnalisation des législatifs, taille de la population et des administrations, RPT et revitalisation de la collaboration intercantonale. Il ressort de l'étude qu'un groupe de cantons essentiellement alémaniques, plutôt de taille moyenne à grande (AG, BE, LU, SO, TG, VS, ZH) ont réussi à davantage réformer les administrations selon les principes de la NGP alors que d'autres ont choisi des voies différentes ou médianes (tels que BS, GE, JU, SG, TI, VD). Ces réformes se sont traduites pratiquement partout par un resserrement des structures décisionnelles (modèle ministériel 5/7), par une variation du nombre de services (hausse dans une première phase puis réduction) mais aussi du personnel (plutôt hausse à l'exception de BS et ZH) allant dans le sens d'une convergence des modèles institutionnels déterminée autant par des facteurs externes qu'internes aux cantons. Notre étude montre que la professionnalisation des parlements, davantage développée dans les cantons où le système représentatif est étendu (cantons latins, Bâle-Ville), retarde ou empêche l'essor des principes NGP alors que les cantons alémaniques à démocratie directe plus prononcée favorisent l'autonomisation des processus de réformes administratives avec une capacité de blocage moins grande des parlements.
Resumo:
Combining theories on social trust and social capital with sociopsychological approaches and applying contextual analyses to Swiss and European survey data, this thesis examines under what circumstances generalised trust, often understood as public good, may not benefit everyone, but instead amplify inequality. The empirical investigation focuses on the Swiss context, but considers different scales of analysis. Two broader questions are addressed. First, might generalised trust imply more or less narrow visions of community and solidarity in different contexts? Applying nonlinear principal component analysis to aggregate indicators, Study 1 explores inclusive and exclusive types of social capital in Europe, measured as regional configurations of generalised trust, civic participation and attitudes towards diversity. Study 2 employs multilevel models to examine how generalised trust, as an individual predisposition and an aggregate climate at the level of Swiss cantons, is linked to equality- directed collective action intention versus radical right support. Second, might high-trust climates impact negatively on disadvantaged members of society, precisely because they reflect a normative discourse of social harmony that impedes recognition of inequality? Study 3 compares how climates of generalised trust at the level of Swiss micro-regions and subjective perceptions of neighbourhood cohesion moderate the negative relationship between socio-economic disadvantage and mental health. Overall, demonstrating beneficial, as well as counterintuitive effects of social trust, this thesis proposes a critical and contextualised approach to the sources and dynamics of social cohesion in democratic societies. -- Cette thèse combine des théories sur le capital social et la confiance sociale avec des approches psychosociales et s'appuie sur des analyses contextuelles de données d'enquêtes suisses et européennes, afin d'étudier dans quelles circonstances la confiance généralisée, souvent présentée comme un bien public, pourrait ne pas bénéficier à tout le monde, mais amplifier les inégalités. Les études empiriques, centrées sur le contexte suisse, intègrent différentes échelles d'analyse et investiguent deux questions principales. Premièrement, la confiance généralisée implique-t-elle des visions plus ou moins restrictives de la communauté et de la solidarité selon le contexte? Dans l'étude 1, une analyse à composantes principales non-linéaire sur des indicateurs agrégés permet d'explorer des types de capital social inclusif et exclusif en Europe, mesurés par des configurations régionales de confiance généralisée, de participation civique, et d'attitudes envers la diversité. L'étude 2 utilise des modèles multiniveaux afin d'analyser comment la confiance généralisée, en tant que prédisposition individuelle et climat agrégé au niveau des cantons suisses, est associée à l'intention de participer à des actions collectives en faveur de l'égalité ou, au contraire, à l'intention de voter pour la droite radicale. Deuxièmement, des climats de haute confiance peuvent-ils avoir un impact négatif sur des membres désavantagés de la société, précisément parce qu'ils reflètent un discours normatif d'harmonie sociale qui empêche la reconnaissance des inégalités? L'étude 3 analyse comment des climats de confiance au niveau des micro-régions suisses et la perception subjective de faire partie d'un environnement cohésif modèrent la relation négative entre le désavantage socio-économique et la santé mentale. En démontrant des effets bénéfiques mais aussi contre-intuitifs de la confiance sociale, cette thèse propose une approche critique et contextualisée des sources et dynamiques de la cohésion sociale dans les sociétés démocratiques.
Resumo:
Glutaric aciduria type-I (GA-I) and methylmalonic aciduria (MMA-uria) are two neurometabolic diseases manifesting in neonatal period and early childhood. They belong to the group of organic acidurias and are caused by defects in the catabolism of amino acids, leading to massive accumulation of toxic metabolites in the body and severe brain injury. Therapeutic strategies are mainly based on reversing catabolic state during metabolic crisis and dietary protein restriction that both aim to prevent extra production of toxic metabolites. Specific and neuroprotective treatments are missing because the mechanisms of brain damage in these diseases are only poorly understood. The principal objective of my work was to develop in vitro models for both diseases aiming at elucidation of toxic effects of the main metabolites accumulating in GA-I (glutaric acid (GA) and 3-hydroxy glutaric acid (3-OHGA)) and MMA-uria (methylmalonic acid (MMA), propionic acid (PA) and 2-methylcitric acid (2-MCA)) on developing brain cells, and to study the cellular pathways targeted by these deleterious effects in order to find new therapeutic potentials. We used re-aggregated embryonic rat brain cells in organotypic 3D cultures, which were exposed to toxic metabolites at different developing stages of the cultures. In parallel, we studied the cellular localization of the defected enzyme in GA-I, glutaryl-CoA dehydrogenase (GCDH), in the brain and peripheral tissues of rats in adulthood and during embryonic development. GCDH expression: GCDH showed a strong neuronal expression in embryonic central and peripheral nervous system. In the adult brain, GCDH expression was exclusively neuronal with the strongest signal in cerebral cortex and Purkinje cells. GCDH expression was homogenous in embryonic peripheral organs with high levels in intestinal mucosa at late stages. Strong GCDH expression was also observed in liver and intestinal mucosa and with lower intensity in muscles, convoluted renal tubules and renal collecting tubes in adult peripheral organs. GA-I and MMA-uria in vitro models: 3-OHGA (for GA-I) and 2-MCA (for MMA-uria) showed the most deleterious effects at early stages of the cultures with morphological and biochemical alterations and induction of cell death. 3-OHGA and 2-MCA caused astrocytic cell suffering reflected by astrocytic fiber loss and swelling and retardation in oligodendrocytic maturation and/or differentiation. High ammonium increase concomitant with glutamine decrease was observed in these cultures. Neurons were not substantially affected. Our studies revealed that brain-cell generated ammonia may play a role in the neuropathogenesis of these diseases. Thus, developing neuroprotective strategies that target ammonium toxicity in the brain of GA-I and MMA-uria patients might be important according to our findings. -- L'acidurie glutarique de type I (GA-I) et l'acidurie méthylmalonique (MMA-urie) sont deux maladies neurométaboliques se manifestant durant la période néonatale ou la petite enfance, et qui appartiennent aux aciduries organiques. Elles sont causées par des défauts dans le catabolisme des acides aminés, conduisant à une accumulation des métabolites toxiques dans le corps et aussi des lésions cérébrales sévères. Le traitement est limité à une prise en charge d'urgence pendant la crise métabolique et à une diète restreinte en protéines naturelles. Des traitements spécifiques, neuroprotecteurs manquent principalement parce que les mécanismes conduisant aux lésions cérébrales dans ces maladies sont peu connus. L'objectif principal de mon travail était d'élucider les effets toxiques des métabolites accumulés dans GA-I (l'acide glutarique (GA) et l'acide 3-hydroxyglutarique (3-OHGA)) et MMA-uria (l'acide méthylmalonique (MMA), l'acide propionique (PA) et l'acide 2-méthylcitrique(2-MCA) sur les cellules du cerveau ainsi que les voies cellulaires impliquées, dans le but de trouver de potentielles nouvelles stratégies thérapeutiques. Nous avons utilisé un modèle in vitro de cultures 3D de cellules de cerveau d'embryons de rat (en développement) en les exposant aux métabolites toxiques à différents stades de développement des cultures. En parallèle, nous avons étudié la localisation cellulaire de l'enzyme déficiente dans GA-I, la CoA-glutarly déshydrogénase (GCDH), dans le cerveau et les organes périphériques des rats adultes et pendant le développement embryonnaire. L'expression de GCDH: GCDH a montré une expression neuronale forte dans le système nerveux chez l'embryon et le cerveau adulte. L'expression était homogène dans les organes périphériques avec une forte expression dans l'intestin. Les modèles in vitro de GA-I et MMA-uria : 3-OHGA en modèle GA-I et 2-MCA en modèle MMA-uria ont montré les effets délétères les plus importants avec des altérations morphologiques des cellules et biochimiques dans le milieu de culture et l'induction de mort cellulaire non-apoptotique (3-OHGA) ou apoptotique (2-MCA). 3-OHGA et 2-MCA ont provoqué une souffrance astrocytaire avec perte des fibres et gonflement et un retard de maturation et/ou de différentiation des oligodendrocytes. Une augmentation importante d'ammonium avec une diminution concomitante de glutamine a été observée dans les cultures. Les neurones n'étaient pas vraiment affectés. Nos études ont révélé que l'ammonium généré par les cellules cérébrales pourrait jouer un rôle dans la neuropathogenèse de ces deux maladies. Par conséquent, développer des stratégies neuroprotectrices ciblant la toxicité de l'ammonium dans le cerveau des patients atteints de GA-I ou MMA-urie pourrait être très important selon nos résultats.
Resumo:
Avec plus de 100000 transplantations d'organes solides (TOS) par année dans le monde, la transplantation d'organes reste actuellement l'un des meilleurs traitements disponibles pour de nombreuses maladies en phase terminale. Bien que les médicaments immunosuppresseurs couramment utilisés soient efficaces dans le contrôle de la réponse immune engendrant le rejet aigu d'une greffe, la survie du greffon à long terme ainsi que la présence d'effets secondaires indésirables restent un enjeu considérable en clinique. C'est pourquoi il est nécessaire de trouver de nouvelles approches thérapeutiques innovantes permettant de contrôler la réponse immunitaire et ainsi d'améliorer les résultats à long terme. L'utilisation des lymphocytes T régulateurs (Treg), suppresseurs naturels de la réponse inflammatoire, a fait l'objet de nombreuses études ces dix dernières années, et pourrait être considérée comme un moyen intéressant d'améliorer la tolérance immunologique de la greffe. Cependant, l'un des obstacles de l'utilisation des Treg comme agent thérapeutique est leur nombre insuffisant non seulement en conditions normales, mais en particulier lors d'une forte réponse immune avec expansion de cellules immunitaires alloréactives. En raison des limitations techniques connues pour l'induction des Treg ex-vivo ou in vitro, nous avons dédié la première partie du travail de thèse à la détermination de l'efficacité de l'induction des Treg in vivo grâce à l'utilisation d'un complexe protéique IL-2/JES6-1 (IL2c). Nous avons montré que l'expansion des Treg par IL2c permettait d'augmenter la survie du greffon sur un modèle murin de transplantation de peau avec mismatch entre le donneur et le receveur pour le complexe majeur d'histocompatibilité (CMH). De plus, nous avons vu qu'en combinant IL2c à une inhibition à court terme de la voie de co-stimulation CD40L-CD40 (anti-CD154/MRl, administré au moment de la transplantation) pour empêcher l'activation des lymphocytes T, il est possible d'induire une tolérance robuste à long terme. Finalement, nos résultats soulignent l'importance de cibler une voie de co-stimulation bien particulière. En effet, l'utilisation d'IL2c combinée au blocage de la co-stimulation CD28-B7.1/2 (CTLA-4 Ig) n'induit qu'une faible prolongation de la survie de la greffe et n'induit pas de tolérance. L'application chez l'humain des traitements induisant la tolérance dans des modèles expérimentaux murins ou de primates n'a malheureusement pas montré de résultats probants en recherche clinique ; une des principales raisons étant la présence de lymphocytes B et T mémoires provenant du systeme d immunité acquise. C est pourquoi nous avons testé si la combinaison d'IL2c et MR1 améliorait la survie de la greffe dans des souris pré¬sensibilisées. Nous avons trouvé qu'en présence de lymphocytes B et T mémoires alloréactifs, l'utilisation d'IL2c et MR1 permettait une amélioration de la survie de la greffe de peau des souris immunocompétentes mais comparé aux souris receveuses naïves, aucune tolérance n'a pu être induite. Toutefois, l'ajout d'un traitement anti-LFA-1 (permettant de bloquer la circulation des lymphocytes T activées) a permis d'améliorer de manière significative la survie de la greffe. Cependant, le rejet chronique, dû à la présence de lymphocytes B activés/mémoires et la production d'anticorps donneur-spécifiques, n'a pas pu être évité. Cibler l'activation des lymphocytes T est la stratégie immunothérapeutique prépondérente après une TOS. C'est pourquoi dans la deuxième partie de cette thèse nous nous sommes intéressés au système de signalisation d'un récepteur des lymphocytes T qui dépend de la paracaspase Malti en tant que nouvelle stratégie immunosuppressive pour le contrôle des lymphocytes T alloréactifs. Nous avons montré que bien que l'inhibition de la signalisation du lymphocyte T en aval de Malti induise une tolérance envers un greffon de peau avec incompatibilités antigéniques mineures, cela ne permet cependant qu'une régulation partielle de l'alloréponse contre des antigènes du CMH. Nous nous sommes aussi intéressés spécifiquement à l'activité protéolytique de Malti. L'inhibition constitutive de l'activité protéolytique de Malti chez les souris Malti-ki s'est révélée délétère pour l'induction de la tolérance car elle diminue la fonction des Treg et augmente l'alloréactivité des cellules Thl. Cependant, lors de l'utilisation d'un inhibiteur peptidique de l'activité protéase de Malti in vitro, il a été possible d'observer une atténuation de l'alloéactivité des lymphocytes T ainsi qu'un maintien de la population des Treg existants. Ces résultats nous laissent penser que des études plus poussées sur le rôle de la signalisation médiée par Malti seraient à envisager dans le domaine de la transplantation. En résumé, les résultats obtenus durant cette thèse nous ont permis d'élucider certains mécanismes immunologiques propres à de nouvelles stratégies thérapeutiques potentielles dont le but est d'induire une tolérance lors de TOS. De plus, ces résultats nous ont permis de souligner l'importance d'utiliser des modèles davantage physiologiques contenant, notamment en tenant compte des lymphocytes B et T mémoires alloréactifs. -- Organ transplantation remains the best available treatment for many forms of end-stage organ diseases, with over 100,000 solid organ transplantations (SOT) occurring worldwide eveiy year. Although the available immunosuppressive (IS) drugs are efficient in controlling acute immune activation and graft rejection, the off-target side effects as well as long-term graft and patient survival remain a challenge in the clinic. Hence, innovative therapeutic approaches are needed to improve long-term outcome across immunological barriers. Based on extensive experimental data obtained over the last decade, it is tempting to consider immunotherapy using Treg; the natural suppressors of overt inflammatory responses, in promoting transplantation tolerance. The first hurdle for the therapeutic use of Treg is their insufficient numbers in non- manipulated individuals, in particular when facing strong immune activation and expanding alloreactive effector cells. Because of the limitations associated with current protocols aiming at ex-vivo expansion or in vitro induction of Treg, the aim of the first part of this thesis was to determine the efficacy of direct in vivo expansion of Treg using the IL-2/JES6- 1 immune complex (IL2c). We found that whilst IL2c mediated Treg expansion alone allowed the prolonged graft survival of fìlli MHC-mismatched skin grafts, its combination with short-term CD40L-CD40 co-stimulation blockade (anti-CD 154/MR1) to inhibit T cell activation administered at the time of transplantation was able to achieve long-term robust tolerance. This study also highlighted the importance of combining Treg based therapies with the appropriate co-stimulation blockade as a combination of IL2c and CD28-B7.1/2 co- stimulation blockade (CTLA-4 Ig) only resulted in slight prolongation of graft survival but not tolerance. The translation of tolerance induction therapies modelled in rodents into non-human primates or into clinical trials has seldom been successful. One main reason being the presence of pre-existing memory T- and B-cells due to acquired immunity in humans versus laboratory animals. Hence, we tested whether IL2c+MRl could promote graft survival in pre-sensitized mice. We found that in the presence of alloreactive memory T- and B-cells, IL2c+MRl combination therapy could prolong MHC-mismatched skin graft survival in immunocompetent mice but tolerance was lost compared to the naïve recipients. The addition of anti-LF A-1 treatment, which prevents the trafficking of memory T cells worked synergistically to significantly further enhance graft survival. However, late rejection mediated by activated/memory B cells and persistent donor-specific alloantibodies still occurred. Immunotherapeutic strategies targeting the activation of T cells are the cornerstone in the current immunosuppressive management after SOT. Therefore, in the next part of this thesis we investigated the paracaspase Malti-dependent T-cell receptor signalling as a novel immunosuppressive strategy to control alloreactive T cells in transplantation. We observed that although the inhibition of Malti downstream T signalling lead to tolerance of a minor H- mismatch skin grafts, it was however not sufficient to regulate alloresponses against MHC mismatches and only prolonged graft survival. Furthermore, we investigated the potential of more selectively targeting the protease activity of Malti. Constitutive inhibition of Malti protease activity in Malti-ki mice was detrimental to tolerance induction as it diminished Treg function and increased Thl alloreactivity. However, when using a small peptide inhibitor of Malti proteolytic activity in vitro, we observed an attenuation of alloreactive T cells and sparing of the pre-existing Treg pool. This indicates that further investigation of the role of Malti signalling in the field of transplantation is required. Collectively, the findings of this thesis provide immunological mechanisms underlying novel therapeutic strategies for the promotion of tolerance in SOT. Moreover, we highlight the importance of testing tolerance induction therapies in more physiological models with pre-existing alloreactive memory T and B cells.
Resumo:
Comparer une intervention psychothérapeutique interdisciplinaire brève à une prise en charge standard comme traitements pour des patients ayant récemment été diagnostiqués comme souffrant d'un trouble de conversion moteur sévère ou d'attaques non-épileptiques. Méthodes Cette étude randomisée contrôlée de 23 patients consécutifs a comparé a) un groupe d'intervention psychothérapeutique interdisciplinaire recevant 4-6 séances par un psychiatre de liaison, la première et dernière séance étant couplée à une consultation neurologique et à une consultation conjointe par le neurologue et le psychiatre; b) un groupe de prise en charge standard. Après l'intervention, les patients ont été évalués à 2, 6 et 12 mois par le questionnaire de dissociation somatoforme SDQ-20, l'échelle d'impression clinique globale, l'échelle de Rankin, l'utilisation des services de santé, la santé mentale en général (MADRS, échelle de dépression de Beck, composante de santé mentale du SF-36), la qualité de vie (SF-36). Nous avons calculé des modèles linéaires mixtes. Résultats Notre intervention a mené à une amélioration statistiquement significative ? des symptômes physiques (par une mesure du SDQ-20 (p<0.02), et par l'échelle de l'impression clinique globale (p=0.02)) ? des symptômes psychologiques (meilleurs scores à la composante de santé mentale du SF-36 (p<0.05) et à l'inventaire de dépression de Beck (p<0.05)) ? et à une réduction des nouvelles hospitalisations après l'intervention (p<0.05). Conclusion Une intervention psychothérapeutique interdisciplinaire brève en étroite collaboration avec des spécialistes en neurologie dans un cadre de psychiatrie de consultation et liaison a un effet statistiquement significatif sur l'amélioration de patients souffrant de trouble de conversion moteur et d'attaques non-épileptiques.
Resumo:
L'élément génétique intégratif et conjugatif auto-transférable de 103 kb qui se trouve dans le génome de Pseudomonas knackmussii B13 (ICEc/c) confère la capacité de dégrader le 3-chlorobenzoate et le 2-aminophénol. L'élément ICE c/c peut être transféré par conjugaison de la souche B13 à diverses bêta- et gamma- protéobactéries. Seule une sous-population de 3 à 5% des cellules transfère l'élément, les cellules dites "compétentes pour le transfert". L'acquisition de la compétence pour le transfert est vraisemblablement la conséquence d'une régulation bistable, conduisant une partie des cellules au transfert de l'élément ICE c/c tandis que, dans les autres, l'élément reste quiescent et ne se transfère pas. À ce jour, les mécanismes et les acteurs moléculaires qui régulent l'activation bistable de l'élément sont restés inconnus. Mon travail de doctorat visait à identifier les éléments bistables du régulon de la compétence pour le transfert et d'analyser les fondements moléculaires de la bistabilité de l'élément ICE c/c chez P. knackmussii. Le premier chapitre introduit le thème du transfert génétique horizontal avec un accent particulier sur les éléments intégratifs et conjugatifs (ICE) et ICEcIc. L'état actuel des connaissances sur l'organisation génétique, la régulation, l'intégration et le transfert de différents modèles de ICEs est exposé en détail. En outre, je m'étends sur les phénomènes d'hétérogénéité et de bistabilité phénotyplques, qu'on peut distinguer dans une population isogénique dans des conditions de culture homogènes, et qui sont susceptibles de jouer un rôle dans le transfert de l'élément ICE c/c, dans la mesure où il ne s'active et n'est transférable que dans une très petite sous-population de cellules. Dans le chapitre 2, je présente une analyse globale des régions promotrices minimales des gènes appartenant au régulon de la compétence pour le transfert de l'élément ICE c/c. Nous avons étudié les caractéristiques d'expression des promoteurs et, s'ils s'avéraient bistables, leur activation dans le temps par comparaison avec le mutant lntB13. Pour ce faire, nous avons utilisé des fusions de promoteurs avec des gènes rapporteurs et testé l'expression bistable chez P. knackmussii par microscopie à épifluorescence. Pour six promoteurs présentant une expression bistable, nous avons employé de la microscopie temporelle pour déterminer la chronologie de leur expression par rapport à Pint et PinR. Parmi eux, nous avons identifié deux gènes exprimés précocement et trois gènes exprimés tardivement dans le processus d'acquisition de la compétence de transfert. Dans le chapitre 3, j'expose une analyse d'expression génétique pour l'un des groupes de gènes dont la transcription est la plus élevée dans la région conservée de ICE c/c, les gènes orf81655-orf68241 contenus dans une région de 14 kb. Nous montrons d'abord que cet opéron fait partie du même régulon bistable que intB13 et inrR et analysons les caractéristiques génétiques qui conduisent à une transcription élevée. Nous étudions les fonctions biologiques de ce groupe de gènes par des délétlons ciblées et montrons que certaines d'entre elles empêchent le transfert de l'élément. Nous approfondissons la caractérlsatlon de I'orf8l655 en construisant une fusion transcrlptionnelle avec le gène codant pour la protéine fluorescente verte (egfp) (en utilisant le système minl-Tn5). L'expression de Vorf81655 dans des cellules individuelles est comparée au signal mesuré par hybridation in situ en fluorescence (FISH) sur le ARN messager du gène. En utilisant FISH, des délétlons du promoteur et de l'analyse directe de transcription, nous avons localisé la région promotrice du groupe de gènes. En outre, nous avons utilisé des mutations dirigées pour comprendre la bistabilité de cette région promotrice, caractérisée par une transcription très élevée et une traduction lente de l'ARN messager. Dans le chapitre 4, nous nous efforçons de comprendre comment la bistabilité est générée au sein du régulon te de l'élément ICE c/c. Pour ce faire, nous avons tenté de reconstituer une expression bistable, dans un hôte qui ne présente pas de bistabilité naturellement, à partir d'éléments génétiques individuels. L'hôte choisi est Pseudomonas putida dans lequel nous avons introduit une copie unique de Pint, PinR ou PaipA fusionnés à la egfp, construits qui permettent d'observer l'apparition de bistabilité. Nous avons ensuite construit différents assemblages de composants génétiques de l'élément ICE c/c, en nous concentrant sur la région parA-inrR. En effet, nous avons pu démontrer qu'une expression bistable apparaît dans P. putida grâce à ces éléments en l'absence de l'élément ICE c/c complet. À noter que la plupart des construits génétiques activent PaipA ou P|,,R, mais qu'un seul recrée la bistabilité de Pint, ce qui suggère que la région parA-inrR permet à la fois d'engendrer la bistabilité et d'opérer la transition entre les promoteurs précoces et les promoteurs tardifs du régulon de la bistabilité. Dans le chapitre 5, nous concluons sur une discussion de la pertinence de nos résultats et sur de futures perspectives de recherche. -- The 103-kb self-transmissible integrative and conjugative element (ICE) of Pseudomonas knackmussii B13 (ICEc/c) confers the capacity to degrade 3- chlorobenzoate and 2-aminophenol. ICEc/c can be conjugated from strain B13 to a variety of Beta- and Gammaproteobacteria. Interestingly, ICE c/c transfer is observed in a subpopulatlon of cells (3-5%) only, the so-called 'transfer competent' cells. The formation of transfer competence (tc) is thought to be the consequence of a 'bistable' decision, which forces those cells to follow the developmental path which leads to ICEc/c transfer, whereas in others ICE c/c remains silent and does not transfer. So far, the mechanisms and molecular partners generating this bistable transfer activation in cells of P. knackmussii B13 remain mostly unidentified. This thesis aimed at understanding the extent of the tc bistability regulon and to dissect the molecular basis of bistabillty formation of ICEc/c in P. knackmussii. The first chapter is a general Introduction on horizontal gene transfer (HGT) with particular emphasis on ICEs and ICE c/c. The emphasis is made on the current knowledge about the HGT gene organization, regulation and specific integration and transfer aspects of the different ICEs models. Furthermore, I focus on the phenomena of phenotypic heterogeneity and bistability (the property of two distinguishable phenotypes existing within an isogenic population under homogeneous conditions), which may play a particular role in ICEc/c behaviour, since ICE activation and transfer only occurs in a very small subpopulation of cells. In Chapter Two, I focus on a global analysis of the different core promoters that might belong to the ICEc/c tc pathway regulon. We studied both expression patterns of ICEc/c promoters and, once being identified as "bistable", their temporal activation compared to that of intB13. In order to do this, we used promoter reporter fusions and tested blstability expression in P. knackmussii using epifluorescence microscopy. For the 6 promoters that showed bistable expression, we used time-lapse microscopy to study the timing of promoter expression in comparison to that of P,,,t or PlnR. We could establish two "early" and 3 "late" phase promoters in the process of transfer competence. In Chapter Three, I focused my attention on analysis of gene expression of one of the most highly transcribed gene clusters in the conserved core region of ICEc/c, a 14-kb gene cluster formed by the genes orf81655-orf68241. First we showed that this operon is part of the same bistability 'regulon' as intB13 and inrR, and analysed the genetic features that lead to high transcription. We studied the potential biological function of this cluster for ICE c/c by making specific gene deletions, showing that some interrupt ICEc/c transfer. We further analysed the orfdl655 promoter by constructing transcriptional egfp fusion reporter strains using the miniTn5 delivery system. Expression of the orf81655 promoter in single cells was compared to signals measured by Fluorescence In Situ Hybridization (FISH) on orfSl655 mRNA. We localized the promoter region of the gene cluster using FISH, promoter deletions, and by direct transcript analysis. We further used site-directed mutagenesis to understand the bistability character of the promoter region and the extremely high transcription but low translation from this mRNA. In Chapter Four, we set out to understand how bistability is generated in the tc pathway of ICEc/c. For this we tried rebuilding bistable expression from ICEc/c individual gene components in a host, which normally does not display bistability. As host we used P. putida without ICEc/c but with a single copy Pint-, PlnR- or PalpA- egfp fusion that enabled us to verify bistability formation. Subsequently, we built different assemblages of ICEc/c gene components, focusing on the parA-inrR region. Indeed, we found that bistable expression can be build from those components in P. putida without ICEc/c. Interestingly, most genetic constructs activated PaipA or PlnR, but only one resulted in bistable activation of PinT. This suggests that the parA-inrR region acts as a bistability "generator", but also as a bistability "relay" from early to late promoters in the tc pathway hierarchy. In the final fifth chapter, we conclude with a discussion of the relevance of the present thesis and the resulting perspectives for future studies.
Resumo:
Résumé: L'impact de la maladie d'Alzheimer (MA) est dévastateur pour la vie quotidienne de la personne affectée, avec perte progressive de la mémoire et d'autres facultés cognitives jusqu'à la démence. Il n'existe toujours pas de traitement contre cette maladie et il y a aussi une grande incertitude sur le diagnostic des premiers stades de la MA. La signature anatomique de la MA, en particulier l'atrophie du lobe temporal moyen (LTM) mesurée avec la neuroimagerie, peut être utilisée comme un biomarqueur précoce, in vivo, des premiers stades de la MA. Toutefois, malgré le rôle évident du LMT dans les processus de la mémoire, nous savons que les modèles anatomiques prédictifs de la MA basés seulement sur des mesures d'atrophie du LTM n'expliquent pas tous les cas cliniques. Au cours de ma thèse, j'ai conduit trois projets pour comprendre l'anatomie et le fonctionnement du LMT dans (1) les processus de la maladie et dans (2) les processus de mémoire ainsi que (3) ceux de l'apprentissage. Je me suis intéressée à une population avec déficit cognitif léger (« Mild Cognitive Impairment », MCI), à risque pour la MA. Le but du premier projet était de tester l'hypothèse que des facteurs, autres que ceux cognitifs, tels que les traits de personnalité peuvent expliquer les différences interindividuelles dans le LTM. De plus, la diversité phénotypique des manifestations précliniques de la MA provient aussi d'une connaissance limitée des processus de mémoire et d'apprentissage dans le cerveau sain. L'objectif du deuxième projet porte sur l'investigation des sous-régions du LTM, et plus particulièrement de leur contribution dans différentes composantes de la mémoire de reconnaissance chez le sujet sain. Pour étudier cela, j'ai utilisé une nouvelle méthode multivariée ainsi que l'IRM à haute résolution pour tester la contribution de ces sous-régions dans les processus de familiarité (« ou Know ») et de remémoration (ou « Recollection »). Finalement, l'objectif du troisième projet était de tester la contribution du LTM en tant que système de mémoire dans l'apprentissage et l'interaction dynamique entre différents systèmes de mémoire durant l'apprentissage. Les résultats du premier projet montrent que, en plus du déficit cognitif observé dans une population avec MCI, les traits de personnalité peuvent expliquer les différences interindividuelles du LTM ; notamment avec une plus grande contribution du neuroticisme liée à une vulnérabilité au stress et à la dépression. Mon étude a permis d'identifier un pattern d'anormalité anatomique dans le LTM associé à la personnalité avec des mesures de volume et de diffusion moyenne du tissu. Ce pattern est caractérisé par une asymétrie droite-gauche du LTM et un gradient antéro-postérieur dans le LTM. J'ai interprété ce résultat par des propriétés tissulaires et neurochimiques différemment sensibles au stress. Les résultats de mon deuxième projet ont contribué au débat actuel sur la contribution des sous-régions du LTM dans les processus de familiarité et de remémoration. Utilisant une nouvelle méthode multivariée, les résultats supportent premièrement une dissociation des sous-régions associées aux différentes composantes de la mémoire. L'hippocampe est le plus associé à la mémoire de type remémoration et le cortex parahippocampique, à la mémoire de type familiarité. Deuxièmement, l'activation correspondant à la trace mnésique pour chaque type de mémoire est caractérisée par une distribution spatiale distincte. La représentation neuronale spécifique, « sparse-distributed», associée à la mémoire de remémoration dans l'hippocampe serait la meilleure manière d'encoder rapidement des souvenirs détaillés sans interférer les souvenirs précédemment stockés. Dans mon troisième projet, j'ai mis en place une tâche d'apprentissage en IRM fonctionnelle pour étudier les processus d'apprentissage d'associations probabilistes basé sur le feedback/récompense. Cette étude m'a permis de mettre en évidence le rôle du LTM dans l'apprentissage et l'interaction entre différents systèmes de mémoire comme la mémoire procédurale, perceptuelle ou d'amorçage et la mémoire de travail. Nous avons trouvé des activations dans le LTM correspondant à un processus de mémoire épisodique; les ganglions de la base (GB), à la mémoire procédurale et la récompense; le cortex occipito-temporal (OT), à la mémoire de représentation perceptive ou l'amorçage et le cortex préfrontal, à la mémoire de travail. Nous avons également observé que ces régions peuvent interagir; le type de relation entre le LTM et les GB a été interprété comme une compétition, ce qui a déjà été reporté dans des études récentes. De plus, avec un modèle dynamique causal, j'ai démontré l'existence d'une connectivité effective entre des régions. Elle se caractérise par une influence causale de type « top-down » venant de régions corticales associées avec des processus de plus haut niveau venant du cortex préfrontal sur des régions corticales plus primaires comme le OT cortex. Cette influence diminue au cours du de l'apprentissage; cela pourrait correspondre à un mécanisme de diminution de l'erreur de prédiction. Mon interprétation est que cela est à l'origine de la connaissance sémantique. J'ai également montré que les choix du sujet et l'activation cérébrale associée sont influencés par les traits de personnalité et des états affectifs négatifs. Les résultats de cette thèse m'ont amenée à proposer (1) un modèle expliquant les mécanismes possibles liés à l'influence de la personnalité sur le LTM dans une population avec MCI, (2) une dissociation des sous-régions du LTM dans différents types de mémoire et une représentation neuronale spécifique à ces régions. Cela pourrait être une piste pour résoudre les débats actuels sur la mémoire de reconnaissance. Finalement, (3) le LTM est aussi un système de mémoire impliqué dans l'apprentissage et qui peut interagir avec les GB par une compétition. Nous avons aussi mis en évidence une interaction dynamique de type « top -down » et « bottom-up » entre le cortex préfrontal et le cortex OT. En conclusion, les résultats peuvent donner des indices afin de mieux comprendre certains dysfonctionnements de la mémoire liés à l'âge et la maladie d'Alzheimer ainsi qu'à améliorer le développement de traitement. Abstract: The impact of Alzheimer's disease is devastating for the daily life of the affected patients, with progressive loss of memory and other cognitive skills until dementia. We still lack disease modifying treatment and there is also a great amount of uncertainty regarding the accuracy of diagnostic classification in the early stages of AD. The anatomical signature of AD, in particular the medial temporal lobe (MTL) atrophy measured with neuroimaging, can be used as an early in vivo biomarker in early stages of AD. However, despite the evident role of MTL in memory, we know that the derived predictive anatomical model based only on measures of brain atrophy in MTL does not explain all clinical cases. Throughout my thesis, I have conducted three projects to understand the anatomy and the functioning of MTL on (1) disease's progression, (2) memory process and (3) learning process. I was interested in a population with mild cognitive impairment (MCI), at risk for AD. The objective of the first project was to test the hypothesis that factors, other than the cognitive ones, such as the personality traits, can explain inter-individual differences in the MTL. Moreover, the phenotypic diversity in the manifestations of preclinical AD arises also from the limited knowledge of memory and learning processes in healthy brain. The objective of the second project concerns the investigation of sub-regions of the MTL, and more particularly their contributions in the different components of recognition memory in healthy subjects. To study that, I have used a new multivariate method as well as MRI at high resolution to test the contribution of those sub-regions in the processes of familiarity and recollection. Finally, the objective of the third project was to test the contribution of the MTL as a memory system in learning and the dynamic interaction between memory systems during learning. The results of the first project show that, beyond cognitive state of impairment observed in the population with MCI, the personality traits can explain the inter-individual differences in the MTL; notably with a higher contribution of neuroticism linked to proneness to stress and depression. My study has allowed identifying a pattern of anatomical abnormality in the MTL related to personality with measures of volume and mean diffusion of the tissue. That pattern is characterized by right-left asymmetry in MTL and an anterior to posterior gradient within MTL. I have interpreted that result by tissue and neurochemical properties differently sensitive to stress. Results of my second project have contributed to the actual debate on the contribution of MTL sub-regions in the processes of familiarity and recollection. Using a new multivariate method, the results support firstly a dissociation of the subregions associated with different memory components. The hippocampus was mostly associated with recollection and the surrounding parahippocampal cortex, with familiarity type of memory. Secondly, the activation corresponding to the mensic trace for each type of memory is characterized by a distinct spatial distribution. The specific neuronal representation, "sparse-distributed", associated with recollection in the hippocampus would be the best way to rapidly encode detailed memories without overwriting previously stored memories. In the third project, I have created a learning task with functional MRI to sudy the processes of learning of probabilistic associations based on feedback/reward. That study allowed me to highlight the role of the MTL in learning and the interaction between different memory systems such as the procedural memory, the perceptual memory or priming and the working memory. We have found activations in the MTL corresponding to a process of episodic memory; the basal ganglia (BG), to a procedural memory and reward; the occipito-temporal (OT) cortex, to a perceptive memory or priming and the prefrontal cortex, to working memory. We have also observed that those regions can interact; the relation type between the MTL and the BG has been interpreted as a competition. In addition, with a dynamic causal model, I have demonstrated a "top-down" influence from cortical regions associated with high level cortical area such as the prefrontal cortex on lower level cortical regions such as the OT cortex. That influence decreases during learning; that could correspond to a mechanism linked to a diminution of prediction error. My interpretation is that this is at the origin of the semantic knowledge. I have also shown that the subject's choice and the associated brain activation are influenced by personality traits and negative affects. Overall results of this thesis have brought me to propose (1) a model explaining the possible mechanism linked to the influence of personality on the MTL in a population with MCI, (2) a dissociation of MTL sub-regions in different memory types and a neuronal representation specific to each region. This could be a cue to resolve the actual debates on recognition memory. Finally, (3) the MTL is also a system involved in learning and that can interact with the BG by a competition. We have also shown a dynamic interaction of « top -down » and « bottom-up » types between the pre-frontal cortex and the OT cortex. In conclusion, the results could give cues to better understand some memory dysfunctions in aging and Alzheimer's disease and to improve development of treatment.
Resumo:
La perception du patient vis-à-vis de son médecin traitant (MT) a suscité beaucoup de recherches et d'interet, notamment à cause de l'importance de la relation médecin-patient nécessaire à la qualité des soins. En Suisse, dans un contexte de libre choix du médecin, le rôle de MT peut être assumé par un generalise mais aussi, théoriquement, par un spécialiste. La fréquence de cette situation est cependant inconnue de même que son impact sur l'expérience des patients. L'objectif principal de cette etude était de décrire l'expérience des personnes âgées du canton de Vaud auprès de leur medecin traitant et de tester l'hypothèse selon laquelle cette expérience serait différente lorsque le MT est décrit comme « Généraliste » (MT Gén) ou comme « Spécialiste » (MT Spéc). Méthode : La recherche a été effectuée sur la base des données d'une enquête par questionnaire, envoyé à la population lausannoise participant à l'étude Lc65+ et à un échantillon supplémentaire de personnes agees de 68 ans ou plus sélectionnées aléatoirement dans le canton de Vaud. L'analyse a porté sur 17 items relatifs à la perception qu'ont les patients de leur MT, regroupés en 4 thèmes ? Access,bihte/Disponibilité, Relation Médecin-Patient, Information et Continuité des soins Nous ayons également analysé le recours déclaré aux soins ambulatoires, aux consultations de services d urgence, ainsi qu'aux actes de prévention. Les différences de perception et de recours selon le type de MT (Gen vs Spéc) ont été analysées par des modèles multivariés tenant compte de l'âge du sexe de I education, de la morbidité, de la présence de symptômes dépressifs et de la durée de la relation medecin-patient. Résultats : Les participants ont exprimé une perception favorable de leur MT à des taux excédant 75% pour la plupart des 17 items. Cependant, seulement 38 à 51% des participants ont répondu positivement aux questions relatives à la disponibilité en dehors des heures d'ouvertures, à l'accès au MT le soir ou en tin de semaine, à la possibilité de visites à domicile, à la probabilité de se voir prescrire des medicaments coûteux en cas de besoin, ou à la connaissance du médecin des médicaments en vente libre que le patient consomme. Les analyses bivariées et multivariées n'ont pas montré de différence entre les groupes MT Gén et MT Spec quant à la perception qu'ont les patients de leur MT, au recours aux actes de prévention ou aux services de santé. Conclusion : L'expérience des personnes interrogées était globalement positive, à part quelques questions concernant principalement le thème de l'Accessibilité/Disponibilité du MT. Nous n'avons pas mis en evidence de différence de perception ou de recours aux soins entre les deux groupes que nous avons analyses pour tester notre hypothèse. Perspective : Cette étude connaît des limites (données rapportées par les participants, groupe des MT Spéc de taille restreinte, absence de données sur les non-répondants, possible conflit de loyauté vis-à-vis du MT pour certaines questions) mais repose sur un large échantillon lui conférant une puissance suffisante, aléatoirement sélectionné dans une population géographiquement définie. Bien que ces résultats ne soient généralisables qu'au canton de Vaud, elle montre d'abord que les spécialistes reconnus comme MT s'inscrivent généralement dans des disciplines impliquant une formation en medec.ne interne. Dans cette circonstance, elle ne met en évidence aucune différence de résultats entre les personnes âgées traitées par un MT généraliste ou spécialiste.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Cette thèse met en lumière les relations réciproques entre les deux artefacts‐clés de la culture russe et mondiale du XXe siècle : la théorie du carnaval et de la ménippée de Mikhaïl Bakhtine et le dernier roman de Mikhaïl Boulgakov. Les chercheurs n'ont pas tardé à remarquer leur étonnante synthonie après leur sortie de l'oubli qui a eu lieu presque en même temps et qui a été marquée par la publication des ouvrages de Bakhtine Problèmes de la poétique de Dostoïevski (1963), L'oeuvre de François Rabelais et la culture populaire au Moyen Âge et sous la Renaissance (1965) et par la parution du roman de Boulgakov Le Maître et Marguerite (1966-1967). C'est déjà dans la postface de la première édition du roman que Le Maître et Marguerite reçoit le nom de «ménippée de Bakhtine». Un tel rapprochement entre la théorie de Bakhtine et le roman de Boulgakov s'explique par leur intérêt simultané pour différentes manifestations de la poétique du carnaval qui s'appuie sur des traditions portant l'empreinte des conceptions du temps cyclique et de l'éternel retour par le biais de la mort, propres aux rituels agraires de l'époque archaïque et aux fêtes du Nouvel An de l'Antiquité. A partir du début du XXe siècle et jusqu'aux années 40, la notion de carnavalesque en Russie est un ensemble d'idées unique, un concept doté d'un caractère d'universalité culturelle de son temps: le carnavalesque attire l'attention non seulement de Bakhtine et de Boulgakov, mais aussi de presque tous les modernistes russes et de certains philologues de l'époque. Dans notre travail, l'étude de la ressemblance des approches du problème du carnaval chez Boulgakov et chez Bakhtine s'organise selon deux axes de recherche. Le premier est lié à la théorie des genres moderne et à son développement dans la philosophie de Bakhtine. C'est dans ce contexte que nous examinons la notion antique de la satire ménippée (ou de la ménippée), considérée par Bakhtine en tant que genre littéraire qui reflète le mieux la poétique du carnaval. C'est également ce contexte qui nous permet d'analyser l'évolution de la théorie du carnaval et de la ménippée chez Bakhtine depuis ses travaux des années 30 jusqu'à la parution du « quatrième chapitre célèbre » de la deuxième édition de son ouvrage consacré à Dostoïevski. Le même contexte sert à délimiter l'emploi de la théorie du carnaval et de la ménippée dans la critique littéraire et à déterminer l'efficacité de cet outil théorique que nous utilisons lors de l'analyse du roman Le Maître et Marguerite. Le second axe de notre recherche est lié à l'étude des traditions du carnaval, à l'examen de leurs sources mythologiques et de leurs sources relatives aux mystères. Ces sources sont considérées telles qu'elles se présentent dans les manières de concevoir le carnaval propres à Bakhtine et à Boulgakov que nous avons nommées, respectivement, le carnaval de Bakhtine et le carnaval de Boulgakov. La reconstruction du carnaval de Bakhtine a permis de mettre en évidence plusieurs approches du thème du carnaval présentes dans ses ouvrages. La distinction de ces approches est d'autant plus importante que son oubli peut causer de fausses interprétations des idées de Bakhtine exprimées dans L'oeuvre de François Rabelais et mener à des critiques injustes de son auteur. Nous avons également tenu compte des théories avec lesquelles dialogue la philosophie du carnaval de Bakhtine : nous l'avons examinée en relation avec des études de la fête, du carnaval et du sacrifice caractéristiques du paysage scientifique des premières décennies du XXe siècle. Nous avons également comparée la philosophie du carnaval aux théories des philosophes européens contemporains de Bakhtine qui se sont intéressés à la même problématique, mais qu'on n'a pas l'habitude de mentionner à ce propos. En ce qui concerne l'étude du roman Le Maître et Marguerite et l'analyse du carnaval de Boulgakov, nous avons tâché d'unir deux approches. D'une part, nous avons mis au jour les sources de l'auteur ; d'autre part, nous avons examiné cette oeuvre dans une perspective dont le but est d'aider à comprendre la spécificité du carnavalesque chez Boulgakov en s'appuyant sur des travaux d'éminents spécialistes du folklore, de la mytho-archéologie, de la mytho-critique et de la sémiotique moderne. Notre recherche a permis de mettre en évidence les manifestations caractéristiques de la poétique du carnaval dans Le Maître et Marguerite, auparavant négligées par la critique. En outre, nous avons prêté une attention particulière à la façon dont Boulgakov utilise des éléments et modèles mythologiques « pré-carnavalesques » qui n'ont pas été étudiés de manière suffisante dans l'oeuvre de Bakhtine. Cela nous a permis non seulement de voir sous un autre jour les scènes-clés du roman, mais aussi d'avoir la connaissance plus approfondie du carnaval de Bakhtine à travers le carnaval de Boulgakov.
Resumo:
We all make decisions of varying levels of importance every day. Because making a decision implies that there are alternative choices to be considered, almost all decision involves some conflicts or dissatisfaction. Traditional economic models esteem that a person must weight the positive and negative outcomes of each option, and based on all these inferences, determines which option is the best for that particular situation. However, individuals rather act as irrational agents and tend to deviate from these rational choices. They somewhat evaluate the outcomes' subjective value, namely, when they face a risky choice leading to losses, people are inclined to have some preference for risk over certainty, while when facing a risky choice leading to gains, people often avoid to take risks and choose the most certain option. Yet, it is assumed that decision making is balanced between deliberative and emotional components. Distinct neural regions underpin these factors: the deliberative pathway that corresponds to executive functions, implies the activation of the prefrontal cortex, while the emotional pathway tends to activate the limbic system. These circuits appear to be altered in individuals with ADHD, and result, amongst others, in impaired decision making capacities. Their impulsive and inattentive behaviors are likely to be the cause of their irrational attitude towards risk taking. Still, a possible solution is to administrate these individuals a drug treatment, with the knowledge that it might have several side effects. However, an alternative treatment that relies on cognitive rehabilitation might be appropriate. This project was therefore aimed at investigate whether an intensive working memory training could have a spillover effect on decision making in adults with ADHD and in age-matched healthy controls. We designed a decision making task where the participants had to select an amount to gamble with the chance of 1/3 to win four times the chosen amount, while in the other cases they could loose their investment. Their performances were recorded using electroencephalography prior and after a one-month Dual N-Back training and the possible near and far transfer effects were investigated. Overall, we found that the performance during the gambling task was modulated by personality factors and by the importance of the symptoms at the pretest session. At posttest, we found that all individuals demonstrated an improvement on the Dual N-Back and on similar untrained dimensions. In addition, we discovered that not only the adults with ADHD showed a stable decrease of the symptomatology, as evaluated by the CAARS inventory, but this reduction was also detected in the control samples. In addition, Event-Related Potential (ERP) data are in favor of an change within prefrontal and parietal cortices. These results suggest that cognitive remediation can be effective in adults with ADHD, and in healthy controls. An important complement of this work would be the examination of the data in regard to the attentional networks, which could empower the fact that complex programs covering the remediation of several executive functions' dimensions is not required, a unique working memory training can be sufficient. -- Nous prenons tous chaque jour des décisions ayant des niveaux d'importance variables. Toutes les décisions ont une composante conflictuelle et d'insatisfaction, car prendre une décision implique qu'il y ait des choix alternatifs à considérer. Les modèles économiques traditionnels estiment qu'une personne doit peser les conséquences positives et négatives de chaque option et en se basant sur ces inférences, détermine quelle option est la meilleure dans une situation particulière. Cependant, les individus peuvent dévier de ces choix rationnels. Ils évaluent plutôt les valeur subjective des résultats, c'est-à-dire que lorsqu'ils sont face à un choix risqué pouvant les mener à des pertes, les gens ont tendance à avoir des préférences pour le risque à la place de la certitude, tandis que lorsqu'ils sont face à un choix risqué pouvant les conduire à un gain, ils évitent de prendre des risques et choisissent l'option la plus su^re. De nos jours, il est considéré que la prise de décision est balancée entre des composantes délibératives et émotionnelles. Ces facteurs sont sous-tendus par des régions neurales distinctes: le chemin délibératif, correspondant aux fonctions exécutives, implique l'activation du cortex préfrontal, tandis que le chemin émotionnel active le système limbique. Ces circuits semblent être dysfonctionnels chez les individus ayant un TDAH, et résulte, entre autres, en des capacités de prise de décision altérées. Leurs comportements impulsifs et inattentifs sont probablement la cause de ces attitudes irrationnelles face au risque. Cependant, une solution possible est de leur administrer un traitement médicamenteux, en prenant en compte les potentiels effets secondaires. Un traitement alternatif se reposant sur une réhabilitation cognitive pourrait être appropriée. Le but de ce projet est donc de déterminer si un entrainement intensif de la mémoire de travail peut avoir un effet sur la prise de décision chez des adultes ayant un TDAH et chez des contrôles sains du même âge. Nous avons conçu une tâche de prise de décision dans laquelle les participants devaient sélectionner un montant à jouer en ayant une chance sur trois de gagner quatre fois le montant choisi, alors que dans l'autre cas, ils pouvaient perdre leur investissement. Leurs performances ont été enregistrées en utilisant l'électroencéphalographie avant et après un entrainement d'un mois au Dual N-Back, et nous avons étudié les possibles effets de transfert. Dans l'ensemble, nous avons trouvé au pré-test que les performances au cours du jeu d'argent étaient modulées par les facteurs de personnalité, et par le degré des sympt^omes. Au post-test, nous avons non seulement trouvé que les adultes ayant un TDAH montraient une diminutions stable des symptômes, qui étaient évalués par le questionnaire du CAARS, mais que cette réduction était également perçue dans l'échantillon des contrôles. Les rsultats expérimentaux mesurés à l'aide de l'éléctroencéphalographie suggèrent un changement dans les cortex préfrontaux et pariétaux. Ces résultats suggèrent que la remédiation cognitive est efficace chez les adultes ayant un TDAH, mais produit aussi un effet chez les contrôles sains. Un complément important de ce travail pourrait examiner les données sur l'attention, qui pourraient renforcer l'idée qu'il n'est pas nécessaire d'utiliser des programmes complexes englobant la remédiation de plusieurs dimensions des fonctions exécutives, un simple entraiment de la mémoire de travail devrait suffire.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Nowadays, Species Distribution Models (SDMs) are a widely used tool. Using different statistical approaches these models reconstruct the realized niche of a species using presence data and a set of variables, often topoclimatic. There utilization range is quite large from understanding single species requirements, to the creation of nature reserve based on species hotspots, or modeling of climate change impact, etc... Most of the time these models are using variables at a resolution of 50km x 50km or 1 km x 1 km. However in some cases these models are used with resolutions below the kilometer scale and thus called high resolution models (100 m x 100 m or 25 m x 25 m). Quite recently a new kind of data has emerged enabling precision up to lm x lm and thus allowing very high resolution modeling. However these new variables are very costly and need an important amount of time to be processed. This is especially the case when these variables are used in complex calculation like models projections over large areas. Moreover the importance of very high resolution data in SDMs has not been assessed yet and is not well understood. Some basic knowledge on what drive species presence-absences is still missing. Indeed, it is not clear whether in mountain areas like the Alps coarse topoclimatic gradients are driving species distributions or if fine scale temperature or topography are more important or if their importance can be neglected when balance to competition or stochasticity. In this thesis I investigated the importance of very high resolution data (2-5m) in species distribution models using either very high resolution topographic, climatic or edaphic variables over a 2000m elevation gradient in the Western Swiss Alps. I also investigated more local responses of these variables for a subset of species living in this area at two precise elvation belts. During this thesis I showed that high resolution data necessitates very good datasets (species and variables for the models) to produce satisfactory results. Indeed, in mountain areas, temperature is the most important factor driving species distribution and needs to be modeled at very fine resolution instead of being interpolated over large surface to produce satisfactory results. Despite the instinctive idea that topographic should be very important at high resolution, results are mitigated. However looking at the importance of variables over a large gradient buffers the importance of the variables. Indeed topographic factors have been shown to be highly important at the subalpine level but their importance decrease at lower elevations. Wether at the mountane level edaphic and land use factors are more important high resolution topographic data is more imporatant at the subalpine level. Finally the biggest improvement in the models happens when edaphic variables are added. Indeed, adding soil variables is of high importance and variables like pH are overpassing the usual topographic variables in SDMs in term of importance in the models. To conclude high resolution is very important in modeling but necessitate very good datasets. Only increasing the resolution of the usual topoclimatic predictors is not sufficient and the use of edaphic predictors has been highlighted as fundamental to produce significantly better models. This is of primary importance, especially if these models are used to reconstruct communities or as basis for biodiversity assessments. -- Ces dernières années, l'utilisation des modèles de distribution d'espèces (SDMs) a continuellement augmenté. Ces modèles utilisent différents outils statistiques afin de reconstruire la niche réalisée d'une espèce à l'aide de variables, notamment climatiques ou topographiques, et de données de présence récoltées sur le terrain. Leur utilisation couvre de nombreux domaines allant de l'étude de l'écologie d'une espèce à la reconstruction de communautés ou à l'impact du réchauffement climatique. La plupart du temps, ces modèles utilisent des occur-rences issues des bases de données mondiales à une résolution plutôt large (1 km ou même 50 km). Certaines bases de données permettent cependant de travailler à haute résolution, par conséquent de descendre en dessous de l'échelle du kilomètre et de travailler avec des résolutions de 100 m x 100 m ou de 25 m x 25 m. Récemment, une nouvelle génération de données à très haute résolution est apparue et permet de travailler à l'échelle du mètre. Les variables qui peuvent être générées sur la base de ces nouvelles données sont cependant très coûteuses et nécessitent un temps conséquent quant à leur traitement. En effet, tout calcul statistique complexe, comme des projections de distribution d'espèces sur de larges surfaces, demande des calculateurs puissants et beaucoup de temps. De plus, les facteurs régissant la distribution des espèces à fine échelle sont encore mal connus et l'importance de variables à haute résolution comme la microtopographie ou la température dans les modèles n'est pas certaine. D'autres facteurs comme la compétition ou la stochasticité naturelle pourraient avoir une influence toute aussi forte. C'est dans ce contexte que se situe mon travail de thèse. J'ai cherché à comprendre l'importance de la haute résolution dans les modèles de distribution d'espèces, que ce soit pour la température, la microtopographie ou les variables édaphiques le long d'un important gradient d'altitude dans les Préalpes vaudoises. J'ai également cherché à comprendre l'impact local de certaines variables potentiellement négligées en raison d'effets confondants le long du gradient altitudinal. Durant cette thèse, j'ai pu monter que les variables à haute résolution, qu'elles soient liées à la température ou à la microtopographie, ne permettent qu'une amélioration substantielle des modèles. Afin de distinguer une amélioration conséquente, il est nécessaire de travailler avec des jeux de données plus importants, tant au niveau des espèces que des variables utilisées. Par exemple, les couches climatiques habituellement interpolées doivent être remplacées par des couches de température modélisées à haute résolution sur la base de données de terrain. Le fait de travailler le long d'un gradient de température de 2000m rend naturellement la température très importante au niveau des modèles. L'importance de la microtopographie est négligeable par rapport à la topographie à une résolution de 25m. Cependant, lorsque l'on regarde à une échelle plus locale, la haute résolution est une variable extrêmement importante dans le milieu subalpin. À l'étage montagnard par contre, les variables liées aux sols et à l'utilisation du sol sont très importantes. Finalement, les modèles de distribution d'espèces ont été particulièrement améliorés par l'addition de variables édaphiques, principalement le pH, dont l'importance supplante ou égale les variables topographique lors de leur ajout aux modèles de distribution d'espèces habituels.
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.