20 resultados para Programmation stochastique

em Universit


Relevância:

20.00% 20.00%

Publicador:

Resumo:

TEXTABLE est un nouvel outil open source de programmation visuelle pour l'analyse de données textuelles. Les implications de la conception de ce logiciel du point de vue de l'interopérabilité et de la flexibilité sont abordées, ainsi que la question que son adéquation pour un usage pédagogique. Une brève introduction aux principes de la programmation visuelle pour l'analyse de données textuelles est également proposée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort. Auguste Detoeuf Propos d'O.L. Brenton, confiseur, Editions du Tambourinaire, 1948. En choisissant volontairement une problématique comptable typiquement empirique, ce travail s'est attelé à tenter de démontrer la possibilité de produire des enseignements purement comptables (ie à l'intérieur du schème de représentation de la Comptabilité) en s'interdisant l'emprunt systématique de theories clé-en-main à l'Économie -sauf quant cela s'avère réellement nécessaire et légitime, comme dans l'utilisation du CAPM au chapitre précédent. Encore une fois, rappelons que cette thèse n'est pas un réquisitoire contre l'approche économique en tant que telle, mais un plaidoyer visant à mitiger une telle approche en Comptabilité. En relation avec le positionnement épistémologique effectué au premier chapitre, il a été cherché à mettre en valeur l'apport et la place de la Comptabilité dans l'Économie par le positionnement de la Comptabilité en tant que discipline pourvoyeuse de mesures de représentation de l'activité économique. Il nous paraît clair que si l'activité économique, en tant que sémiosphère comptable directe, dicte les observations comptables, la mesure de ces dernières doit, tant que faire se peut, tenter de s'affranchir de toute dépendance à la discipline économique et aux théories-méthodes qui lui sont liées, en adoptant un mode opératoire orthogonal, rationnel et systématique dans le cadre d'axiomes lui appartenant en propre. Cette prise de position entraîne la définition d'un nouveau cadre épistémologique par rapport à l'approche positive de la Comptabilité. Cette dernière peut se décrire comme l'expression philosophique de l'investissement de la recherche comptable par une réflexion méthodique propre à la recherche économique. Afin d'être au moins partiellement validé, ce nouveau cadre -que nous voyons dérivé du constructivisme -devrait faire montre de sa capacité à traiter de manière satisfaisante une problématique classique de comptabilité empirico-positive. Cette problématique spécifique a été choisie sous la forme de traitement-validation du principe de continuité de l'exploitation. Le principe de continuité de l'exploitation postule (énonciation d'une hypothèse) et établit (vérification de l'hypothèse) que l'entreprise produit ses états financiers dans la perspective d'une poursuite normale de ses activités. Il y a rupture du principe de continuité de l'exploitation (qui devra alors être écartée au profit du principe de liquidation ou de cession) dans le cas de cessation d'activité, totale ou partielle, volontaire ou involontaire, ou la constatation de faits de nature à compromettre la continuité de l'exploitation. Ces faits concernent la situation financière, économique et sociale de l'entreprise et représentent l'ensemble des événements objectifs 33, survenus ou pouvant survenir, susceptibles d'affecter la poursuite de l'activité dans un avenir prévisible. A l'instar de tous les principes comptables, le principe de continuité de l'exploitation procède d'une considération purement théorique. Sa vérification requiert toutefois une analyse concrète, portant réellement et de manière mesurable à conséquence, raison pour laquelle il représente un thème de recherche fort apprécié en comptabilité positive, tant il peut (faussement) se confondre avec les études relatives à la banqueroute et la faillite des entreprises. Dans la pratique, certaines de ces études, basées sur des analyses multivariées discriminantes (VIDA), sont devenues pour l'auditeur de véritables outils de travail de par leur simplicité d'utilisation et d'interprétation. À travers la problématique de ce travail de thèse, il a été tenté de s'acquitter de nombreux objectifs pouvant être regroupés en deux ensembles : celui des objectifs liés à la démarche méthodologique et celui relevant de la mesure-calibration. Ces deux groupes-objectifs ont permis dans une dernière étape la construction d'un modèle se voulant une conséquence logique des choix et hypothèses retenus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : The canonical Wnt signaling pathway plays key roles in the maintenance of self-renewing tissues, like the gut or the skin. In contrast, the role of this pathway in hematopoiesis remains poorly defined. Wnt ligands transmit signals through ß-catenin which activates gene transcription upon its association with Lymphoid Cell Enhancer/T Cell Factor (LEF/TCF). Currently, v-catenin is the only alternative factor known to transduce canonical Wnt signals. The ß-/γ-catenin bindiná domain in TCF-1 is required to partly rescue thymopoiesis and NK cell development in TCF-1-deficient mice. However, T cell development and hematopoiesis w-as normal in mice deficient of ß-catenin, or of γ-catenin. Surprisingly we found that hematopoiesis and thymopoiesis was also normal in the combined absence of ß- and γ-catenin. Reporter assays showed that double-deficient lymphocytes were still able to transduce canonical wnt signals. These data provided evidence that hematopoietic cells can transduce canonical Wnt signals in the combined absence of ß- and γ-catenin. There exist numerous TCF-1 isoforrns including those that harbor the N-terminal ß-/y-catenin binding domain or that contains a C-terminal CRARF domain whose role in vivo has not been previously tested. We found that the CRARF domain influences lymphocyte development in conjunction with the N-treminal ß-/γ-catenin binding. The presence of the two domains directs thymocytes to the CD8+ T cell lineage whereas NK cell development is abolished. Roles of the canonical Wnt/TCF-1 pathway for lymphocyte function have not been defined. We demonstrate that TCF-1 deficient CDBT T cells mount a normal primary response to viral infection but these T cells fail to expand upon restimulation. The failure of CD8+ T cells to respond to IL-2 during primary infection seems to account for this phenotype. Thus, TCF-1 is essential for programming functional CD8+ T cell memory. Collectively, these data provide significant new insights into the role of Wnt/TCF-1 pathway for lymphocyte development and function and suggest a novel mechanism of Wnt signal transuction in hematopoietic cells. Résumé : La voie de signalisation canonique Wnt joue un rôle prépondérant dans le renouvellement de tissus, comme l'intestin ou la peau. Son rôle dans l'hématopoïèse est quant à lui mal défini. Le ligand Wnt transmet le signal via la ß-catenin qui active la transcription de gènes cibles quand il est associé avec Lymphoid Cell Enhancer,~T Cell Factor (LEF/TCF). Actuellement, la γ-catenin est le seul autre facteur connu pouvant se substituer à la fonction de la ß-catenin. Un variant de TCF-1 contenant le domaine liant ß-/,~-catenin est capable de restaurer le développement des lymphocytes T et NK en l'absence de TCF-1. Cependant la thymopoïèse et l'hématopoïèse sont normales dans les souris déficientes pour la ß-catenin ou la γ-catenin. De façon surprenante, nous avons trouvé que l'hématopoïèse et le développement des lymphocytes sont normaux lors de l'absence combinée de ß-/γ-catenin. De plus, la transduction des signaux de la voie de signalisation Wnt est maintenue dans des lymphocytes déficients pour ß-/γ-catenin. Ces résultats démontrent que les cellules hématopoïétiques peuvent transmettre les signaux de la voie canonique Wnt lors de l'absence combinée de la ß et la γ -catenin. Il existe de nombreuses isofonnes de TCF-1, y compris certaines qui comprennent un domaine qui lie ß-/γ-catenin du côté N-terminus ou qui contiennent un domaine CRARF du côté C-terminus. Nous montrons ici que le domaine CRARF influence le développement des lymphocytes en conjonction avec le domaine liant ß-/γ-catenin. La présence des deux domaines dirige les thymocytes vers la lignée de cellules T CD8, alors que le développement des cellules NK est aboli. Au-delà de sa fonction sur le développement des lymphocytes, le rôle de la soie de signalisation canonique Wnt/TCF-1 lors d'une infection n'a pas été défini. Nous avons montré que les cellules T CD8, déficientes pour TCF-1, développent une réponse primaire normale à une infection virale, mais qu'elles ne s'accumulent pas après restimulation. L'incapacité des cellules TCD8 à répondre à l'IL-2 durant la réponse primaire peut expliquer ce phénotype. Ainsi; TCF-1 est essentiel pour la programmation de cellules T CD8 mémoires fonctionnelles. L'ensemble de ces résultats fournit de nouveaux aperçus du rôle de la voie de signalisation Wnt/TCF-1 pour le développement et la fonction des lymphocytes et suggèrent un nouveau mécanisme de transduction du signal Wnt dans les cellules hématopoïétiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT Allergic asthma is a major complication of atopy. Its severity correlates with the presence of activated T lymphocytes and eosinophils in the bronchoalveolar lavage fluid (BALF). Mechanisms that protect against asthma are poorly understood. Based on oral models of mucosal tolerance induction, models using the nasal route showed that uptake of important amounts of antigen can induce tolerance and reverse the allergic phenotype. 1L-10 producing regulatory T cells were proposed as key players in tolerance induction, but other players, e.g. dendritic cells (DC), B cells and epithelial cells may have to be taken into consideration. The objective of the present study is to characterize the effects of a therapeutic intranasal treatment (INT) in a murine model of asthma and to determine, in this model, the cellular and molecular mechanisms leading to protection against asthma. First, we established an asthma model by sensitizing the BALB/c mouse to ovalbumin (OVA) by two intraperitoneal injections of alum-adsorbed OVA and three inhalations of aerosolized OVA. Then OVA was applied to the nasal mucosa of OVA- sensitized mice. Mice were later re-exposed to OVA aerosols to assess the protection induced by OVA INT. OVA sensitization induced strong eosinophil recruitment, OVA-specific T cell proliferation and IgE production. Three intranasal treatments at 24-hour intervals with 1.5 mg OVA drastically reduced inflammatory cell recruitment into the BALF and inhibited OVA-specific IgE production upon allergen re-exposure. T cell proliferation in ex vivo bronchial lymph node (BLN) cells was inhibited, as well as TH2 cytokine production. Protection against OVA-induced bronchial inflammation was effective for an extended period of time and treated mice resisted a second re-exposure. Transfer of CD4+ cells from BLN and lungs of OVA-treated mice protected asthmatic recipient mice from subsequent aerosol challenge indicating an involvement of CD4+ T regulatory cells in this protection. RESUME L'asthme allergique est une manifestation clinique majeure de l'atopie. La sévérité de l'asthme est liée à la présence de lymphocytes T activés ainsi que d'éosinophiles dans le lavage broncho-alvéolaire (LBA). Les mécanismes permettant de se prémunir contre l'asthme sont mal connus. Basés sur des modèles muqueux d'induction de tolérance par la voie orale, des modèles utilisant la voie nasale ont montré que d'importantes quantités d'antigène peuvent induire une tolérance et ainsi reverser le phénotype allergique. Des cellules régulatrices produisant de l'IL-10 pourraient jouer un rôle clé dans l'induction de la tolérance mais d'autres acteurs tels que les cellules dendritiques, les cellules B et les cellules épithéliales doivent aussi être prises en compte. L'objectif de la présente étude est de caractériser les effets d'un traitement intranasal thérapeutique dans un modèle murin d'asthme et de déterminer dans ce modèle les mécanismes cellulaires et moléculaires conférant une protection contre l'asthme. En premier lieu, un modèle d'asthme allergique a été établi en sensibilisant des souris BALB/c à l'ovalbumine (OVA) par deux injections intraperitonéales d'OVA adsorbé sur de l'alum et trois séances d'OVA en aérosol. Dans un second temps, de l'OVA a été administrée sur la muqueuse nasale des souris sensibilisées à l'OVA. Les souris furent ensuite challengées par des aérosols d'OVA afin d'évaluer la protection conférée par le traitement intranasal à l'OVA. La sensibilisation à l'OVA a induit un fort recrutement d'éosinophiles, une réponse proliférative des cellules T à l'OVA ainsi qu'une production d'lgE spécifiques. Trois traitements intranasaux à 24 heures d'intervalle avec 1.5 mg d'OVA ont permis de réduire drastiquement le recrutement des cellules inflammatoires dans le LBA ainsi que d'inhiber la production d'lgE spécifiques à l'OVA produits lors d'une ré-exposition à l'OVA. La prolifération en réponse à l'OVA de cellules extraites ex vivo de ganglions bronchiques a, elle aussi, été inhibée de même que la production de cytokines TH2. La protection contre l'inflammation provoquée par l'aérosol est efficace pour une longue période et les souris traitées résistent à une seconde ré- exposition. Le transfert de cellules CD4+ issues de ganglions bronchiques et de poumons de souris traitées à l'OVA protège les souris asthmatiques receveuses contre les effets inflammatoires d'un aérosol, indiquant que des cellules T CD4+ régulatrices pourraient être impliquées dans cette protection. RESUME DESTINE A UN LARGE PUBLIC L'asthme est une affection des voies respiratoires qui se caractérise par une contraction de la musculature des voies aériennes, une production de mucus et d'anticorps de l'allergie (IgE). On parle d'asthme allergique lorsque les facteurs déclenchant l'asthme sont des allergènes inhalés tels que acariens, pollens ou poils d'animaux. Le système immunitaire des patients asthmatiques a un défaut de programmation qui le rend réactif à des substances qui sont normalement inoffensives. Le traitement actuel de l'asthme repose sur le soulagement des symptômes grâce à des produits à base de stéroïdes. Les techniques permettant de reprogrammer le système immunitaire (immunothérapie) ne sont pas efficaces pour tous les antigènes et prennent beaucoup de temps. En conséquence, il est nécessaire de mieux comprendre les mécanismes sous-tendant une telle reprogrammation afin d'en améliorer le rendement et l'efficacité. Dans ce but, des modèles d'immunothérapie ont été mis au point chez la souris. Ils permettent une plus grande liberté d'investigation. Dans cette étude, un modèle d'asthme allergique dans la souris a été établi par une sensibilisation à un antigène particulier : l'ovalbumine (OVA). Ce modèle présente les caractéristiques principales de l'asthme humain : recrutement de cellules inflammatoires dans les poumons, augmentation de la production d'anticorps et de la résistance des bronches aux flux respiratoires. Cette souris asthmatique a ensuite été traitée par application nasale d'OVA. Comparées aux souris non traitées, les souris traitées à l'OVA ont moins de cellules inflammatoires dans leurs poumons et produisent moins d'anticorps IgE. D'autres marqueurs inflammatoires sont aussi fortement diminués. Des cellules de poumons ou de ganglions bronchiques prélevées sur des souris traitées injectées dans des souris asthmatiques améliorent les symptômes de l'asthme. Ces cellules pourraient donc avoir un rôle régulateur dans l'asthme. Les caractériser et les étudier afin d'être capable de les générer est crucial pour les futures thérapies de l'asthme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les décisions de gestion des eaux souterraines doivent souvent être justiffées par des modèles quantitatifs d'aquifères qui tiennent compte de l'hétérogénéité des propriétés hydrauliques. Les aquifères fracturés sont parmi les plus hétérogènes et très difficiles à étudier. Dans ceux-ci, les fractures connectées, d'ouverture millimètrique, peuvent agir comme conducteurs hydrauliques et donc créer des écoulements très localisés. Le manque général d'informations sur la distribution spatiale des fractures limite la possibilité de construire des modèles quantitatifs de flux et de transport. Les données qui conditionnent les modèles sont généralement spatialement limitées, bruitées et elles ne représentent que des mesures indirectes de propriétés physiques. Ces limitations aux données peuvent être en partie surmontées en combinant différents types de données, telles que les données hydrologiques et de radar à pénétration de sol plus commun ément appelé géoradar. L'utilisation du géoradar en forage est un outil prometteur pour identiffer les fractures individuelles jusqu'à quelques dizaines de mètres dans la formation. Dans cette thèse, je développe des approches pour combiner le géoradar avec les données hydrologiques affn d'améliorer la caractérisation des aquifères fracturés. Des investigations hydrologiques intensives ont déjà été réalisées à partir de trois forage adjacents dans un aquifère cristallin en Bretagne (France). Néanmoins, la dimension des fractures et la géométrie 3-D des fractures conductives restaient mal connue. Affn d'améliorer la caractérisation du réseau de fractures je propose dans un premier temps un traitement géoradar avancé qui permet l'imagerie des fractures individuellement. Les résultats montrent que les fractures perméables précédemment identiffées dans les forages peuvent être caractérisées géométriquement loin du forage et que les fractures qui ne croisent pas les forages peuvent aussi être identiffées. Les résultats d'une deuxième étude montrent que les données géoradar peuvent suivre le transport d'un traceur salin. Ainsi, les fractures qui font partie du réseau conductif et connecté qui dominent l'écoulement et le transport local sont identiffées. C'est la première fois que le transport d'un traceur salin a pu être imagé sur une dizaines de mètres dans des fractures individuelles. Une troisième étude conffrme ces résultats par des expériences répétées et des essais de traçage supplémentaires dans différentes parties du réseau local. En outre, la combinaison des données de surveillance hydrologique et géoradar fournit la preuve que les variations temporelles d'amplitude des signaux géoradar peuvent nous informer sur les changements relatifs de concentrations de traceurs dans la formation. Par conséquent, les données géoradar et hydrologiques sont complémentaires. Je propose ensuite une approche d'inversion stochastique pour générer des modèles 3-D de fractures discrètes qui sont conditionnés à toutes les données disponibles en respectant leurs incertitudes. La génération stochastique des modèles conditionnés par géoradar est capable de reproduire les connexions hydrauliques observées et leur contribution aux écoulements. L'ensemble des modèles conditionnés fournit des estimations quantitatives des dimensions et de l'organisation spatiale des fractures hydrauliquement importantes. Cette thèse montre clairement que l'imagerie géoradar est un outil utile pour caractériser les fractures. La combinaison de mesures géoradar avec des données hydrologiques permet de conditionner avec succès le réseau de fractures et de fournir des modèles quantitatifs. Les approches présentées peuvent être appliquées dans d'autres types de formations rocheuses fracturées où la roche est électriquement résistive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : This work is concerned with the development and application of novel unsupervised learning methods, having in mind two target applications: the analysis of forensic case data and the classification of remote sensing images. First, a method based on a symbolic optimization of the inter-sample distance measure is proposed to improve the flexibility of spectral clustering algorithms, and applied to the problem of forensic case data. This distance is optimized using a loss function related to the preservation of neighborhood structure between the input space and the space of principal components, and solutions are found using genetic programming. Results are compared to a variety of state-of--the-art clustering algorithms. Subsequently, a new large-scale clustering method based on a joint optimization of feature extraction and classification is proposed and applied to various databases, including two hyperspectral remote sensing images. The algorithm makes uses of a functional model (e.g., a neural network) for clustering which is trained by stochastic gradient descent. Results indicate that such a technique can easily scale to huge databases, can avoid the so-called out-of-sample problem, and can compete with or even outperform existing clustering algorithms on both artificial data and real remote sensing images. This is verified on small databases as well as very large problems. Résumé : Ce travail de recherche porte sur le développement et l'application de méthodes d'apprentissage dites non supervisées. Les applications visées par ces méthodes sont l'analyse de données forensiques et la classification d'images hyperspectrales en télédétection. Dans un premier temps, une méthodologie de classification non supervisée fondée sur l'optimisation symbolique d'une mesure de distance inter-échantillons est proposée. Cette mesure est obtenue en optimisant une fonction de coût reliée à la préservation de la structure de voisinage d'un point entre l'espace des variables initiales et l'espace des composantes principales. Cette méthode est appliquée à l'analyse de données forensiques et comparée à un éventail de méthodes déjà existantes. En second lieu, une méthode fondée sur une optimisation conjointe des tâches de sélection de variables et de classification est implémentée dans un réseau de neurones et appliquée à diverses bases de données, dont deux images hyperspectrales. Le réseau de neurones est entraîné à l'aide d'un algorithme de gradient stochastique, ce qui rend cette technique applicable à des images de très haute résolution. Les résultats de l'application de cette dernière montrent que l'utilisation d'une telle technique permet de classifier de très grandes bases de données sans difficulté et donne des résultats avantageusement comparables aux méthodes existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract in English : Ubiquitous Computing is the emerging trend in computing systems. Based on this observation this thesis proposes an analysis of the hardware and environmental constraints that rule pervasive platforms. These constraints have a strong impact on the programming of such platforms. Therefore solutions are proposed to facilitate this programming both at the platform and node levels. The first contribution presented in this document proposes a combination of agentoriented programming with the principles of bio-inspiration (Phylogenesys, Ontogenesys and Epigenesys) to program pervasive platforms such as the PERvasive computing framework for modeling comPLEX virtually Unbounded Systems platform. The second contribution proposes a method to program efficiently parallelizable applications on each computing node of this platform. Résumé en Français : Basée sur le constat que les calculs ubiquitaires vont devenir le paradigme de programmation dans les années à venir, cette thèse propose une analyse des contraintes matérielles et environnementale auxquelles sont soumises les plateformes pervasives. Ces contraintes ayant un impact fort sur la programmation des plateformes. Des solutions sont donc proposées pour faciliter cette programmation tant au niveau de l'ensemble des noeuds qu'au niveau de chacun des noeuds de la plateforme. La première contribution présentée dans ce document propose d'utiliser une alliance de programmation orientée agent avec les grands principes de la bio-inspiration (Phylogénèse, Ontogénèse et Épigénèse). Ceci pour répondres aux contraintes de programmation de plateformes pervasives comme la plateforme PERvasive computing framework for modeling comPLEX virtually Unbounded Systems . La seconde contribution propose quant à elle une méthode permettant de programmer efficacement des applications parallélisable sur chaque noeud de calcul de la plateforme