244 resultados para Programmation stochastique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : This work is concerned with the development and application of novel unsupervised learning methods, having in mind two target applications: the analysis of forensic case data and the classification of remote sensing images. First, a method based on a symbolic optimization of the inter-sample distance measure is proposed to improve the flexibility of spectral clustering algorithms, and applied to the problem of forensic case data. This distance is optimized using a loss function related to the preservation of neighborhood structure between the input space and the space of principal components, and solutions are found using genetic programming. Results are compared to a variety of state-of--the-art clustering algorithms. Subsequently, a new large-scale clustering method based on a joint optimization of feature extraction and classification is proposed and applied to various databases, including two hyperspectral remote sensing images. The algorithm makes uses of a functional model (e.g., a neural network) for clustering which is trained by stochastic gradient descent. Results indicate that such a technique can easily scale to huge databases, can avoid the so-called out-of-sample problem, and can compete with or even outperform existing clustering algorithms on both artificial data and real remote sensing images. This is verified on small databases as well as very large problems. Résumé : Ce travail de recherche porte sur le développement et l'application de méthodes d'apprentissage dites non supervisées. Les applications visées par ces méthodes sont l'analyse de données forensiques et la classification d'images hyperspectrales en télédétection. Dans un premier temps, une méthodologie de classification non supervisée fondée sur l'optimisation symbolique d'une mesure de distance inter-échantillons est proposée. Cette mesure est obtenue en optimisant une fonction de coût reliée à la préservation de la structure de voisinage d'un point entre l'espace des variables initiales et l'espace des composantes principales. Cette méthode est appliquée à l'analyse de données forensiques et comparée à un éventail de méthodes déjà existantes. En second lieu, une méthode fondée sur une optimisation conjointe des tâches de sélection de variables et de classification est implémentée dans un réseau de neurones et appliquée à diverses bases de données, dont deux images hyperspectrales. Le réseau de neurones est entraîné à l'aide d'un algorithme de gradient stochastique, ce qui rend cette technique applicable à des images de très haute résolution. Les résultats de l'application de cette dernière montrent que l'utilisation d'une telle technique permet de classifier de très grandes bases de données sans difficulté et donne des résultats avantageusement comparables aux méthodes existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract in English : Ubiquitous Computing is the emerging trend in computing systems. Based on this observation this thesis proposes an analysis of the hardware and environmental constraints that rule pervasive platforms. These constraints have a strong impact on the programming of such platforms. Therefore solutions are proposed to facilitate this programming both at the platform and node levels. The first contribution presented in this document proposes a combination of agentoriented programming with the principles of bio-inspiration (Phylogenesys, Ontogenesys and Epigenesys) to program pervasive platforms such as the PERvasive computing framework for modeling comPLEX virtually Unbounded Systems platform. The second contribution proposes a method to program efficiently parallelizable applications on each computing node of this platform. Résumé en Français : Basée sur le constat que les calculs ubiquitaires vont devenir le paradigme de programmation dans les années à venir, cette thèse propose une analyse des contraintes matérielles et environnementale auxquelles sont soumises les plateformes pervasives. Ces contraintes ayant un impact fort sur la programmation des plateformes. Des solutions sont donc proposées pour faciliter cette programmation tant au niveau de l'ensemble des noeuds qu'au niveau de chacun des noeuds de la plateforme. La première contribution présentée dans ce document propose d'utiliser une alliance de programmation orientée agent avec les grands principes de la bio-inspiration (Phylogénèse, Ontogénèse et Épigénèse). Ceci pour répondres aux contraintes de programmation de plateformes pervasives comme la plateforme PERvasive computing framework for modeling comPLEX virtually Unbounded Systems . La seconde contribution propose quant à elle une méthode permettant de programmer efficacement des applications parallélisable sur chaque noeud de calcul de la plateforme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèseDes événements pathologiques survenant pendant la période foetale prédisposent la descendance aux maladies cardiovasculaires systémiques. Il existe peu de connaissances au sujet de la circulation pulmonaire et encore moins quant aux mécanismes sous-jacents. La sous-alimentation maternelle pendant la grossesse peut représenter un modèle d'investigation de ces mécanismes, parce que chez l'animal et l'homme elle est associée à une dysfonction vasculaire systémique chez la progéniture. Chez le rat, la diète restrictive pendant la grossesse induit une augmentation du stress oxydatif dans le placenta. Les dérivés de l'oxygène sont connus pour induire des altérations épigénétiques et peuvent traverser la barrière placentaire. Nous avons dès lors spéculé que chez la souris la diète restrictive pendant la grossesse induit une dysfonction vasculaire pulmonaire chez sa progéniture qui serait liée à un mécanisme épigénétique.Pour tester cette hypothèse, nous avons examiné la fonction vasculaire pulmonaire et la méthylation de l'ADN pulmonaire à la fin de 2 semaines d'exposition à l'hypoxie chez la progéniture de souris soumises à une diète restrictive pendant la grossesse et des souris contrôles. Nous avons trouvé que la vasodilatation endothélium-dépendante de l'artère pulmonaire in vitro était défectueuse, et que l'hypertension pulmonaire et l'hypertrophie ventriculaire droite induites par l'hypoxie in vivo étaient exagérées chez la progéniture de souris soumises à une diète restrictive pendant la grossesse. Cette dysfonction vasculaire pulmonaire était associée avec une altération de la méthylation de l'ADN pulmonaire. L'administration d'inhibiteurs de la déacétylase des histones, le Butyrate et la Trichostatine-A à la progéniture de souris soumises à une diète restrictive pendant la grossesse a normalisé la méthylation de l'ADN et la fonction vasculaire pulmonaire. Finalement, l'administration du nitroxyde Tempol aux mères durant la diète restrictive pendant la grossesse a prévenu la dysfonction vasculaire et la dysméthylation chez la progéniture.Ces découvertes démontrent que chez la souris la sous-alimentation pendant la gestation induit une dysfonction vasculaire chez la progéniture qui est causée par un mécanisme épigénétique. Il est possible qu'un mécanisme similaire soit impliqué dans la programmation foetale de la dysfonction vasculaire chez les humains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contrairement aux animaux, les plantes sont des organismes sessiles qui ne possèdent pas de mécanismes de fuite quand les conditions environnementales ne sont plus optimales. Les plantes sont physiquement ancrées à l'endroit où elles ont germées et aux conditions environnementales qui parfois peuvent être extrêmes. Les possibilités d'acclimatation de différentes espèces, parfois même de groupes de plantes au sein d'une même espèce, peuvent varier mais repose sur une adaptation génétique de la plante. L'adaptation est un long processus qui repose sur l'apparition spontanée de mutations génétiques, leur mise à l'épreuve face aux conditions environnementales, et dans le cas où la mutation a un impact positif sur la survie dans cet habitat particulier, elle sera maintenue dans une population donnée de plantes. De telles populations, appelées écotypes, sont le matériel de départ pour la découverte de gènes qui induisent un bénéfice pour la plante dans un environnement donné. La plante la plus étudiée en biologie moléculaire est Arabidopsis thaliana, l'arabette des prés. Dans une étude précédente, les racines d'écotypes naturels d'Arabidopsis ont été comparées et un écotype, Uk-1, avait le système racinaire le plus particulier. Cet écotype possède des racines beaucoup plus courtes et plus ramifiées que tous les autres écotypes. Des analyses plus poussées ont montré qu'une seule mutation dans un gène était la cause de ce phénotype, le gène BREVIS RADIX (BRX), mot latin signifiant 'racine courte'. Bien que l'on connaisse le gène BRX, on connaît finalement peu de choses sur son importance adaptative. Dans cette étude, nous avons montré que la mutation dans le gène BRX rend la plante plus résistante aux sols acides. Dans l'optique de mieux comprendre cette valeur adaptative du mutant brx, nous avons analysé dans quels tissus le gène BRX jouait un rôle important. Nous avons pu mettre en évidence que BRX est important pour le développement du protophloème. Le protophloème est un élément du système vasculaire de la plante. En général, les plantes supérieures possèdent deux systèmes de transport à longue distance. L'un d'eux, appelé xylème, transporte l'eau et les nutriments absorbés du sol par les racines vers les feuilles. Les feuilles sont le siège du processus de photosynthèse au cours duquel sont produits des sucres qui devront être distribués partout dans les autres parties de la plante. Le tissu cellulaire chargé de livrer les produits de la photosynthèse, ainsi que les régulateurs de croissance, est le phloème. Ce dernier regroupe le métaphloème et le protophloème. Le protophloème est essentiel pour la livraison des sucres synthétisés ainsi que des signaux de croissance aux pointes des racines, centres organogéniques responsables de la production de nouvelles cellules durant la phase de croissance de la racine. La structure du protophloème peut être décrite comme des tubes continus, vides et résistants, faits de cellules spécialisées qui permettent un transport efficace et rapide. Nous avons montré que dans les mutants brx ces canaux de transports sont discontinus car certaines cellules n'ont pas terminé leur cycle de différenciation. Ces cellules obstruent le conduit ce qui fait que les sucres et les signaux de croissance, comme l'auxine, ne peuvent plus être transportés aux méristèmes. En conséquence, la prolifération de l'activité des méristèmes est compromise, ce qui explique les racines courtes. Au lieu d'être délivré aux méristèmes, l'auxine se concentre en amont des méristèmes où cela provoque l'apparition de nouvelles racines branchées et, très probablement, l'activation des pompes à protons. Sur des sols acides, la concentration en ion H+ est très élevée. Ces ions entrent dans les cellules de la racine par diffusion et perturbent notablement la croissance des racines et de la plante en général. Si les cellules de la racine possédaient des pompes à protons hyperactives, elles seraient capable d'évacuer le surplus d'ions H+ en dehors de la cellule, ce qui leur assurerait de meilleures chances de survie sur sols acides. De fait, le mutant brx est capable d'acidifier le milieu de culture dans lequel il est cultivé plus efficacement que la plante sauvage. Ce mutant est également capable de donner plus de progéniture sur ce type de milieu de croissance que les plantes sauvages. Finalement, nous avons trouvé d'autres mutants brx en milieu naturel poussant sur sols acides, ce qui suggère fortement que la mutation du gène BRX est une des causes de l'adaptation aux sols acides. -- Plants as sessile organisms have developed different mechanisms to cope with the complex environmental conditions in which they live. Adaptation is the process through which traits evolve by natural selection to functionally improve in a given environmental context. An adaptation to the environment is characterized by the genetic changes in the entire populations that have been fixed by natural selection over many generations. BREVIS RADIX (BRX) gene was found through natural Arabidopsis accessions screen and was characterized as a root growth regulator since loss-of-function mutants exhibit arrested post-embryonic primary root growth in addition to a more branched root system. Although brx loss-of-function causes a complete alteration in root architecture, BRX activity is only required in the root vasculature, in particular in protophloem cell file. Protophloem is a part of the phloem transport network and is responsible for delivery of photo-assimilates and growth regulators, coming from the shoot through mature phloem component - metaphloem, to the all plant primary meristems. In order to perform its function, protophloem is the first cell file to differentiate within the root meristem. During this process, protophloem cells undergo a partial programmed cell death, during which they build a thicker cell wall, degrade nucleus and tonoplast while plasma membrane stays functional. Interestingly, protophloem cells enter elongation process only after differentiation into sieve elements is completed. Here we show that brx mutants fail to differentiate protophloem cell file properly, a phenotype that can be distinguished by a presence of a "gap" cells, non-differentiated cells between two flanking differentiated cells. Discontinuity of protophloem differentiation in brx mutants is considered to be a consequence of local hyperactivity of CLAVATA3/EMBRYO SURROUNDING REGION 45 (CLE45) - BARELY ANY MERISTEM 3 (BAM3) signaling module. Interestingly, a CLE45 activity, most probably at the level of receptor binding, can be modulated by apoplastic pH. Altogether, our results imply that the activity of proton pumps, expressed in non-differentiated cells of protophloem, must be maintained under certain threshold, otherwise CLE45-BAM3 signaling pathway will be stimulated and in turn protophloem will not differentiate. Based on vacuolar morphology, a premature cell wall acidification in brx mutants stochastically prevents the protophloem differentiation. Only after protophloem differentiates, proton pumps can be activated in order to acidify apoplast and to support enucleated protophloem multifold elongation driven by surrounding cells growth. Finally, the protophloem differentiation failure would result in an auxin "traffic jam" in the upper parts of the root, created from the phloem-transported auxin that cannot be efficiently delivered to the meristem. Physiologically, auxin "leakage" from the plant vasculature network could have various consequences, since auxin is involved in the regulation of almost every aspect of plant growth and development. Thus, given that auxin stimulates lateral roots initiation and growth, this scenario explains more branched brx root system. Nevertheless, auxin is considered to activate plasma membrane proton pumps. Along with this, it has been shown that brx mutants acidify media much more than the wild type plants do, a trait that was proposed as an adaptive feature of naturally occurring brx null alleles in Arabidopsis populations found on acidic soils. Additionally, in our study we found that most of accessions originally collected from acidic sampling sites exhibit hypersensitivity to CLE45 treatment. This implies that adaptation of plants to acidic soil involves a positive selection pressure against upstream negative regulators of CLE45-BAM3 signaling, such as BRX. Perspective analysis of these accessions would provide more profound understanding of molecular mechanisms underlying plant adaptation to acidic soils. All these results are suggesting that targeting of the factors that affect protophloem differentiation is a good strategy of natural selection to change the root architecture and to develop an adaptation to a certain environment. -- Les plantes comme organismes sessiles ont développé différents mécanismes pour s'adapter aux conditions environnementales complexes dans lesquelles elles vivent. L'adaptation est le processus par lequel des traits vont évoluer via la sélection naturelle vers une amélioration fonctionnelle dans un contexte environnemental donné. Une adaptation à l'environnement est caractérisée par des changements génétiques dans des populations entières qui ont été fixés par la sélection naturelle sur plusieurs générations. Le gène BREVIS RADIX (BRX) a été identifié dans le crible d'une collection d'accessions naturelles d'Arabidopsis et a été caractérisé comme un régulateur de la croissance racinaire étant donné que le mutant perte-de-fonction montre une croissance racinaire primaire arrêtée au stade post-embryonnaire et présente de plus un système racinaire plus ramifié que la plante sauvage. Bien que le mutant perte-de-fonction brx cause une altération complète de l'architecture racinaire, l'activité de BRX n'est requise que dans la vascularisation racinaire, en particulier au niveau du protophloème. Le protophloème est un composant du réseau de transport du phloème et est responsable du transit des dérivés de la photosynthèse ainsi que des régulateurs de croissances, venant de la partie aérienne par le phloème mature (métaphloème) vers tous les méristèmes primaires de la plante. Pour pouvoir réaliser sa fonction, le protophloème est la première file de cellules à se différencier à l'intérieur du méristème de la racine. Pendant ce processus, les cellules du protophloème subissent une mort cellulaire programmée partielle durant laquelle elles épaississent leur paroi cellulaire, dégradent le noyau et le tonoplaste tandis que la membrane plasmique demeure fonctionnelle. De manière intéressante, les cellules du protophloème entament le processus d'allongement seulement après que la différenciation en tubes criblés soit complète. Ce travail montre que le mutant brx est incapable de mener à bien la différenciation de la file de cellules du protophloème, phénotype qui peut être visualisé par la présence de cellules 'trous', de cellules non différenciées entourées de deux cellules différenciées. La discontinuité de la différenciation du phloème dans le mutant brx est considérée comme la conséquence de l'hyperactivité localisée du module de signalisation CLA VA TA3/EMBRYO SURROUNDING REGION 45 (CLE45) - BARELY ANY MERISTEM 3 (BAM3). De manière intéressante, l'activité de CLE45, très probablement au niveau de la liaison avec le récepteur, peut être modulé par le pH apoplastique. Pris ensemble, nos résultats impliquent que l'activité des pompes à protons, actives dans les cellules non différenciées du protophloème, doit être maintenue en dessous d'un certain seuil autrement la cascade de signalisation CLE45-BAM3 serait stimulée, en conséquence de quoi le protophloème ne pourrait se différencier. D'après la morphologie vacuolaire, une acidification prématurée de la paroi cellulaire dans le mutant brx empêche la différenciation du protophloème de manière stochastique. Une fois que le protophloème se différencie, les pompes à protons peuvent alors être activées afin d'acidifier l'apoplaste et ainsi faciliter l'allongement des cellules énuclées du protophloème, entraînées par la croissance des cellules environnantes. Finalement, la différenciation défectueuse du protophloème produit une accumulation d'auxine dans la partie supérieure de la racine car le phloème ne peut plus acheminer efficacement l'auxine au méristème. Physiologiquement, la 'fuite' d'auxine à partir du réseau vasculaire de la plante peut avoir des conséquences variées puisque l'auxine est impliquée dans la régulation de la majorité des aspects de la croissance et développement de la plante. Etant donné que l'auxine stimule l'initiation et développement des racines latérales, ce scénario pourrait expliquer le système racinaire plus ramifié du mutant brx. En plus, l'auxine est considérée comme un activateur des pompes à protons. Par ailleurs, nous avons montré que les mutants brx ont la capacité d'acidifier le milieu plus efficacement que les plantes sauvages, une caractéristique des populations sauvages <¥Arabidopsis poussant sur des sols acides et contenant les allèles délétés brx. De plus, dans nos résultats nous avons mis en évidence que la plupart des accessions collectées originellement sur des sites acidophiles montre une hypersensibilité au traitement par CLE45. Ceci implique que l'adaptation des plantes aux sols acides repose sur la pression de sélection positive à rencontre des régulateurs négatifs de CLE45- BAM3, situés en amont de la cascade, tel le produit du gène BRX. Les analyses de ces accessions pourraient aboutir à une meilleure compréhension des mécanismes moléculaires responsables de l'adaptation des plantes aux sols acides. Tous nos résultats suggèrent que le ciblage des facteurs affectant la différenciation du protophloème serait une stratégie gagnante dans la sélection naturelle pour changer l'architecture de la racine et ainsi s'adapter efficacement à un nouvel environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dialectique entre radiodiffusion et histoire des relations culturelles internationales est un domaine largement inexploré. L'objectif de cette thèse est d'analyser le rôle de la Société suisse de radiodiffusion (SSR), société privée qui exerce jusqu'en 1983 le monopole sur l'ensemble des stations de radio suisses, dans l'intensification des relations culturelles internationales de la Confédération. Pour examiner cette dimension des activités de la SSR, je me suis prioritairement penchée sur l'étude de la radio internationale helvétique, dénommée alors « Service suisse d'ondes courtes » (SOC). A l'instar de plusieurs organismes similaires à l'étranger, le SOC remplit dès ses débuts une double mission : resserrer les liens avec la diaspora et faire rayonner le pays hors des frontières nationales. Cette recherche met sur le devant de la scène un acteur médiatique aujourd'hui totalement oublié, le Service suisse d'ondes courtes. Par rapport à l'historiographie des radios internationales, elle mêle approche institutionnelle et, dans la mesure des sources disponibles, l'analyse de la programmation. Elle complète aussi l'histoire de la diplomatie culturelle suisse en rappelant la place du service public audiovisuel parmi les institutions chargées de promouvoir le pays à l'étranger. Pour finir, cette étude constitue également un apport à l'histoire des organisations internationales liées à la radiodiffusion (UIR, UIT). L'analyse du volet international des activités de la SSR a permis de dépasser la seule notion de « puissance » qui a été jusqu'à ces dernières années au coeur des ouvrages dévolus aux radios internationales. L'objectif poursuivi par la SSR ne réside pas tellement dans la diplomatie d'influence (l'exercice d'un « soft power »), qui tend à imposer ses valeurs et un mode de vie, mais plutôt dans la volonté de faire comprendre et reconnaître la culture politique de la Suisse dans le but de renforcer et pérenniser la place de celle-ci dans le concert des nations. Dans cette perspective, la culture devient un moyen utilisé pour transmettre à l'étranger une représentation valorisante du pays, une image de marque (une forme de « Nation Branding » avant l'heure) également utile au secteur touristique et à l'industrie d'exportation. Le Service suisse d'ondes courtes fait ainsi avant tout des relations publiques, un avant-goût de ce que les Américains appelleront dans les années 1960 la « public diplomacy »

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we study the existence of a unique solution for linear stochastic differential equations driven by a Lévy process, where the initial condition and the coefficients are random and not necessarily adapted to the underlying filtration. Towards this end, we extend the method based on Girsanov transformations on Wiener space and developped by Buckdahn [7] to the canonical Lévy space, which is introduced in [25].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce diplôme présente les marchés prédictifs, qui sont un moyen d'agréger l'information en utilisant les processus à la base des marchés financiers et en proposant des contrats à termes représentant la probabilité de survenance d'une proposition. Des publications dans le domaine de la finance, du management ou de l'informatique font référence à l'utilisation des marchés prédictifs et démontrent les bons résultats obtenus par cette méthode. Nous nous sommes demandé s'il était possible de concevoir et utiliser un tel marché dans un milieu académique, pour prédire l'émergence de nouvelles théories et applications dans le domaine des communications mobiles. Pour supporter notre réflexion, nous avons mis en place un prototype qui devrait pouvoir nous permettre de tester le concept, d'étudier les fonctions de calcul de prix et les mécanismes d'agrégation de l'information. Pour débuter, nous présentons l'état de l'art en nous appuyant sur la littérature parue depuis 1988 lorsque l'University of Iowa a lancé sa plate-forme Iowa Electronic Market (IEM) dans le cadre de l'élection présidentielle Bush-Dukakis. Depuis, plusieurs chercheurs se sont penchés sur les marchés prédictifs comme instrument de prévision dans de nombreux domaines: politique, sport, cinéma, marketing, ... Nous allons comparer les marchés prédictifs à d'autres outils de prévision puis nous présenterons en détail les marchés prédictifs ainsi qu'un essai d'en formaliser les spécifications. Nous illustrerons alors ceci par des exemples tirés des principales plates-formes en activité pour le moment. S'ensuit une discussion sur l'orientation ludique des plates-formes actuelles et une présentation des utilisations que l'on pourrait en faire et qui apporteraient un réel bénéfice. Nous nous penchons alors sur l'analyse des besoins tant de l'expérimentateur que des utilisateurs. Cherchant des raisons à l'absence totale de telles plates-formes dans le cadre de la recherche, nous avons mené une série d'entretiens avec des professeurs de l'EPFL engagés dans la direction du projet MICS. Leurs réticences et craintes ont été prises en compte pour la définition des spécifications du prototype. Nous utilisons la méthode de (Spann and Skiera 2003) pour définir les spécifications de la plate-forme. Ces spécifications comprennent le choix du but prévisionnel, qui dans notre cas découle directement de notre proposition de recherche, des mécanismes financiers à la base des transactions, ainsi que des moyens incitatifs mis en place pour amener les utilisateurs à utiliser la plate-forme et surtout, pour amener les plus éclairés d'entre eux à transmettre leurs informations au marché. Ces spécifications débouchent sur la présentation de quatre cas d'utilisation. Notre objectif étant de développer un prototype pour y tester nos hypothèses, nous faisons un tour d'horizon des plates-formes à disposition et présentons l'architecture de ce dernier, basé sur les développements à la base d'USIFEX, qui n'est plus en activité depuis quatre ans. Le prototype utilise la souplesse de la programmation objet en se basant sur le langage Python dans sa version 2.3. Nous nous attardons ensuite sur la présentation de l'interface du prototype et des interactions avec les utilisateurs. Il faudra par la suite s'attacher à refondre l'interface pour le faire évoluer vers plus de convivialité, et nous permettre de guider l'utilisateur lors de ses sessions sur la plate-forme. Les parties théoriques et logicielles sous toit il nous reste encore à décrire les contrats et la manière de les formuler. A nouveau nous nous penchons sur les marchés actuels pour y tirer des enseignements qui pourraient nous être utiles. N'ayant malheureusement pas fait l'objet de publications, la définition des contrats est intimement liée avec les auteurs qui les rédigent. Nous tentons de tirer quelques enseignements provenant des contrats actifs sur les marchés des matières premières pour proposer un cadre nous permettant de formaliser la rédaction d'un contrat. Ne s'agissant que d'une proposition, il faudra encore tester et compléter ce cadre pour pouvoir s'assurer que la manière de rédiger les contrats n'influence pas sur la pertinence des prédictions. Finalement, nous esquissons les travaux qu'il reste à accomplir avant de pouvoir mener les premiers tests réels de la plate-forme. De la formulation des contrats à l'étude des mécanismes combinatoires d'agrégation de l'information en passant par les fonctions de fixation du prix. Nous revenons sur les travaux effectués dans le cadre de ce diplôme et présentons quelques idées de recherche futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we characterize the asymmetries of the smile through multiple leverage effects in a stochastic dynamic asset pricing framework. The dependence between price movements and future volatility is introduced through a set of latent state variables. These latent variables can capture not only the volatility risk and the interest rate risk which potentially affect option prices, but also any kind of correlation risk and jump risk. The standard financial leverage effect is produced by a cross-correlation effect between the state variables which enter into the stochastic volatility process of the stock price and the stock price process itself. However, we provide a more general framework where asymmetric implied volatility curves result from any source of instantaneous correlation between the state variables and either the return on the stock or the stochastic discount factor. In order to draw the shapes of the implied volatility curves generated by a model with latent variables, we specify an equilibrium-based stochastic discount factor with time non-separable preferences. When we calibrate this model to empirically reasonable values of the parameters, we are able to reproduce the various types of implied volatility curves inferred from option market data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper assesses the empirical performance of an intertemporal option pricing model with latent variables which generalizes the Hull-White stochastic volatility formula. Using this generalized formula in an ad-hoc fashion to extract two implicit parameters and forecast next day S&P 500 option prices, we obtain similar pricing errors than with implied volatility alone as in the Hull-White case. When we specialize this model to an equilibrium recursive utility model, we show through simulations that option prices are more informative than stock prices about the structural parameters of the model. We also show that a simple method of moments with a panel of option prices provides good estimates of the parameters of the model. This lays the ground for an empirical assessment of this equilibrium model with S&P 500 option prices in terms of pricing errors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we provide both qualitative and quantitative measures of the cost of measuring the integrated volatility by the realized volatility when the frequency of observation is fixed. We start by characterizing for a general diffusion the difference between the realized and the integrated volatilities for a given frequency of observations. Then, we compute the mean and variance of this noise and the correlation between the noise and the integrated volatility in the Eigenfunction Stochastic Volatility model of Meddahi (2001a). This model has, as special examples, log-normal, affine, and GARCH diffusion models. Using some previous empirical works, we show that the standard deviation of the noise is not negligible with respect to the mean and the standard deviation of the integrated volatility, even if one considers returns at five minutes. We also propose a simple approach to capture the information about the integrated volatility contained in the returns through the leverage effect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we introduce a new approach for volatility modeling in discrete and continuous time. We follow the stochastic volatility literature by assuming that the variance is a function of a state variable. However, instead of assuming that the loading function is ad hoc (e.g., exponential or affine), we assume that it is a linear combination of the eigenfunctions of the conditional expectation (resp. infinitesimal generator) operator associated to the state variable in discrete (resp. continuous) time. Special examples are the popular log-normal and square-root models where the eigenfunctions are the Hermite and Laguerre polynomials respectively. The eigenfunction approach has at least six advantages: i) it is general since any square integrable function may be written as a linear combination of the eigenfunctions; ii) the orthogonality of the eigenfunctions leads to the traditional interpretations of the linear principal components analysis; iii) the implied dynamics of the variance and squared return processes are ARMA and, hence, simple for forecasting and inference purposes; (iv) more importantly, this generates fat tails for the variance and returns processes; v) in contrast to popular models, the variance of the variance is a flexible function of the variance; vi) these models are closed under temporal aggregation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’aide d’un modèle de cycles réels, la présente étude vise à expliquer, de façon endogène, les fluctuations des termes de l’échange en Côte-d’Ivoire. Pour ce faire, nous cherchons principalement à répondre aux deux questions suivantes : les chocs d’offre et de demande sur le marché d’exportation suffisent-ils à expliquer les variations des termes de l’échange? Et quelle est leur importance relative dans la dynamique des termes de l’échange? Les résultats montrent que les deux chocs considérés expliquent bien la volatilité des termes de l’échange. Nous avons noté que ces deux sources d’impulsions ont un impact significatif sur les fluctuations économiques en Côte-d’Ivoire.