1000 resultados para Processus non linéaires
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm
Resumo:
Afin de mieux cerner les enjeux de la transition entre le secondaire et le postsecondaire, nous proposons un examen du passage de la notion de fonction à celle de dérivée. À la lumière de plusieurs travaux mettant en évidence des difficultés inhérentes à ce passage, et nous basant sur les recherches de Carlson et ses collègues (Carlson, 2002; Carlson, Jacobs, Coe, Larsen et Hsu, 2002; Carlson, Larsen et Jacobs, 2001; Oehrtman, Carlson et Thompson, 2008) sur le raisonnement covariationnel, nous présentons une analyse de la dynamique du développement de ce raisonnement chez des petits groupes d’élèves de la fin du secondaire et du début du collégial dans quatre situations-problèmes différentes. L’analyse des raisonnements de ces groupes d’élèves nous a permis, d’une part, de raffiner la grille proposée par Carlson en mettant en évidence, non seulement des unités de processus de modélisation (ou unités de raisonnement) mises en action par ces élèves lors des activités proposées, mais aussi leurs rôles au sein de la dynamique du raisonnement. D’autre part, cette analyse révèle l’influence de certaines caractéristiques des situations sur les interactions non linéaires entre ces unités.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Abstract : The structural build-up of fresh cement-based materials has a great impact on their structural performance after casting. Accordingly, the mixture design should be tailored to adapt the kinetics of build-up given the application on hand. The rate of structural build-up of cement-based suspensions at rest is a complex phenomenon affected by both physical and chemical structuration processes. The structuration kinetics are strongly dependent on the mixture’s composition, testing parameters, as well as the shear history. Accurate measurements of build-up rely on the efficiency of the applied pre-shear regime to achieve an initial well-dispersed state as well as the applied stress during the liquid-solid transition. Studying the physical and chemical mechanisms of build-up of cement suspensions at rest can enhance the fundamental understanding of this phenomenon. This can, therefore, allow a better control of the rheological and time-dependent properties of cement-based materials. The research focused on the use of dynamic rheology in investigating the kinetics of structural build-up of fresh cement pastes. The research program was conducted in three different phases. The first phase was devoted to evaluating the dispersing efficiency of various disruptive shear techniques. The investigated shearing profiles included rotational, oscillatory, and combination of both. The initial and final states of suspension’s structure, before and after disruption, were determined by applying a small-amplitude oscillatory shear (SAOS). The difference between the viscoelastic values before and after disruption was used to express the degree of dispersion. An efficient technique to disperse concentrated cement suspensions was developed. The second phase aimed to establish a rheometric approach to dissociate and monitor the individual physical and chemical mechanisms of build-up of cement paste. In this regard, the non-destructive dynamic rheometry was used to investigate the evolutions of both storage modulus and phase angle of inert calcium carbonate and cement suspensions. Two independent build-up indices were proposed. The structural build-up of various cement suspensions made with different cement contents, silica fume replacement percentages, and high-range water reducer dosages was evaluated using the proposed indices. These indices were then compared to the well-known thixotropic index (Athix.). Furthermore, the proposed indices were correlated to the decay in lateral pressure determined for various cement pastes cast in a pressure column. The proposed pre-shearing protocol and build-up indices (phases 1 and 2) were then used to investigate the effect of mixture’s parameters on the kinetics of structural build-up in phase 3. The investigated mixture’s parameters included cement content and fineness, alkali sulfate content, and temperature of cement suspension. Zeta potential, calorimetric, spectrometric measurements were performed to explore the corresponding microstructural changes in cement suspensions, such as inter-particle cohesion, rate of Brownian flocculation, and nucleation rate. A model linking the build-up indices and the microstructural characteristics was developed to predict the build-up behaviour of cement-based suspensions The obtained results showed that oscillatory shear may have a greater effect on dispersing concentrated cement suspension than the rotational shear. Furthermore, the increase in induced shear strain was found to enhance the breakdown of suspension’s structure until a critical point, after which thickening effects dominate. An effective dispersing method is then proposed. This consists of applying a rotational shear around the transitional value between the linear and non-linear variations of the apparent viscosity with shear rate, followed by an oscillatory shear at the crossover shear strain and high angular frequency of 100 rad/s. Investigating the evolutions of viscoelastic properties of inert calcite-based and cement suspensions and allowed establishing two independent build-up indices. The first one (the percolation time) can represent the rest time needed to form the elastic network. On the other hand, the second one (rigidification rate) can describe the increase in stress-bearing capacity of formed network due to cement hydration. In addition, results showed that combining the percolation time and the rigidification rate can provide deeper insight into the structuration process of cement suspensions. Furthermore, these indices were found to be well-correlated to the decay in the lateral pressure of cement suspensions. The variations of proposed build-up indices with mixture’s parameters showed that the percolation time is most likely controlled by the frequency of Brownian collisions, distance between dispersed particles, and intensity of cohesion between cement particles. On the other hand, a higher rigidification rate can be secured by increasing the number of contact points per unit volume of paste, nucleation rate of cement hydrates, and intensity of inter-particle cohesion.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Abstract (English)General backgroundMultisensory stimuli are easier to recognize, can improve learning and a processed faster compared to unisensory ones. As such, the ability an organism has to extract and synthesize relevant sensory inputs across multiple sensory modalities shapes his perception of and interaction with the environment. A major question in the scientific field is how the brain extracts and fuses relevant information to create a unified perceptual representation (but also how it segregates unrelated information). This fusion between the senses has been termed "multisensory integration", a notion that derives from seminal animal single-cell studies performed in the superior colliculus, a subcortical structure shown to create a multisensory output differing from the sum of its unisensory inputs. At the cortical level, integration of multisensory information is traditionally deferred to higher classical associative cortical regions within the frontal, temporal and parietal lobes, after extensive processing within the sensory-specific and segregated pathways. However, many anatomical, electrophysiological and neuroimaging findings now speak for multisensory convergence and interactions as a distributed process beginning much earlier than previously appreciated and within the initial stages of sensory processing.The work presented in this thesis is aimed at studying the neural basis and mechanisms of how the human brain combines sensory information between the senses of hearing and touch. Early latency non-linear auditory-somatosensory neural response interactions have been repeatedly observed in humans and non-human primates. Whether these early, low-level interactions are directly influencing behavioral outcomes remains an open question as they have been observed under diverse experimental circumstances such as anesthesia, passive stimulation, as well as speeded reaction time tasks. Under laboratory settings, it has been demonstrated that simple reaction times to auditory-somatosensory stimuli are facilitated over their unisensory counterparts both when delivered to the same spatial location or not, suggesting that audi- tory-somatosensory integration must occur in cerebral regions with large-scale spatial representations. However experiments that required the spatial processing of the stimuli have observed effects limited to spatially aligned conditions or varying depending on which body part was stimulated. Whether those divergences stem from task requirements and/or the need for spatial processing has not been firmly established.Hypotheses and experimental resultsIn a first study, we hypothesized that auditory-somatosensory early non-linear multisensory neural response interactions are relevant to behavior. Performing a median split according to reaction time of a subset of behavioral and electroencephalographic data, we found that the earliest non-linear multisensory interactions measured within the EEG signal (i.e. between 40-83ms post-stimulus onset) were specific to fast reaction times indicating a direct correlation of early neural response interactions and behavior.In a second study, we hypothesized that the relevance of spatial information for task performance has an impact on behavioral measures of auditory-somatosensory integration. Across two psychophysical experiments we show that facilitated detection occurs even when attending to spatial information, with no modulation according to spatial alignment of the stimuli. On the other hand, discrimination performance with probes, quantified using sensitivity (d'), is impaired following multisensory trials in general and significantly more so following misaligned multisensory trials.In a third study, we hypothesized that behavioral improvements might vary depending which body part is stimulated. Preliminary results suggest a possible dissociation between behavioral improvements andERPs. RTs to multisensory stimuli were modulated by space only in the case when somatosensory stimuli were delivered to the neck whereas multisensory ERPs were modulated by spatial alignment for both types of somatosensory stimuli.ConclusionThis thesis provides insight into the functional role played by early, low-level multisensory interac-tions. Combining psychophysics and electrical neuroimaging techniques we demonstrate the behavioral re-levance of early and low-level interactions in the normal human system. Moreover, we show that these early interactions are hermetic to top-down influences on spatial processing suggesting their occurrence within cerebral regions having access to large-scale spatial representations. We finally highlight specific interactions between auditory space and somatosensory stimulation on different body parts. Gaining an in-depth understanding of how multisensory integration normally operates is of central importance as it will ultimately permit us to consider how the impaired brain could benefit from rehabilitation with multisensory stimula-Abstract (French)Background théoriqueDes stimuli multisensoriels sont plus faciles à reconnaître, peuvent améliorer l'apprentissage et sont traités plus rapidement comparé à des stimuli unisensoriels. Ainsi, la capacité qu'un organisme possède à extraire et à synthétiser avec ses différentes modalités sensorielles des inputs sensoriels pertinents, façonne sa perception et son interaction avec l'environnement. Une question majeure dans le domaine scientifique est comment le cerveau parvient à extraire et à fusionner des stimuli pour créer une représentation percep- tuelle cohérente (mais aussi comment il isole les stimuli sans rapport). Cette fusion entre les sens est appelée "intégration multisensorielle", une notion qui provient de travaux effectués dans le colliculus supérieur chez l'animal, une structure sous-corticale possédant des neurones produisant une sortie multisensorielle différant de la somme des entrées unisensorielles. Traditionnellement, l'intégration d'informations multisen- sorielles au niveau cortical est considérée comme se produisant tardivement dans les aires associatives supérieures dans les lobes frontaux, temporaux et pariétaux, suite à un traitement extensif au sein de régions unisensorielles primaires. Cependant, plusieurs découvertes anatomiques, électrophysiologiques et de neuroimageries remettent en question ce postulat, suggérant l'existence d'une convergence et d'interactions multisensorielles précoces.Les travaux présentés dans cette thèse sont destinés à mieux comprendre les bases neuronales et les mécanismes impliqués dans la combinaison d'informations sensorielles entre les sens de l'audition et du toucher chez l'homme. Des interactions neuronales non-linéaires précoces audio-somatosensorielles ont été observées à maintes reprises chez l'homme et le singe dans des circonstances aussi variées que sous anes- thésie, avec stimulation passive, et lors de tâches nécessitant un comportement (une détection simple de stimuli, par exemple). Ainsi, le rôle fonctionnel joué par ces interactions à une étape du traitement de l'information si précoce demeure une question ouverte. Il a également été démontré que les temps de réaction en réponse à des stimuli audio-somatosensoriels sont facilités par rapport à leurs homologues unisensoriels indépendamment de leur position spatiale. Ce résultat suggère que l'intégration audio- somatosensorielle se produit dans des régions cérébrales possédant des représentations spatiales à large échelle. Cependant, des expériences qui ont exigé un traitement spatial des stimuli ont produits des effets limités à des conditions où les stimuli multisensoriels étaient, alignés dans l'espace ou encore comme pouvant varier selon la partie de corps stimulée. Il n'a pas été établi à ce jour si ces divergences pourraient être dues aux contraintes liées à la tâche et/ou à la nécessité d'un traitement de l'information spatiale.Hypothèse et résultats expérimentauxDans une première étude, nous avons émis l'hypothèse que les interactions audio- somatosensorielles précoces sont pertinentes pour le comportement. En effectuant un partage des temps de réaction par rapport à la médiane d'un sous-ensemble de données comportementales et électroencépha- lographiques, nous avons constaté que les interactions multisensorielles qui se produisent à des latences précoces (entre 40-83ms) sont spécifique aux temps de réaction rapides indiquant une corrélation directe entre ces interactions neuronales précoces et le comportement.Dans une deuxième étude, nous avons émis l'hypothèse que si l'information spatiale devient perti-nente pour la tâche, elle pourrait exercer une influence sur des mesures comportementales de l'intégration audio-somatosensorielles. Dans deux expériences psychophysiques, nous montrons que même si les participants prêtent attention à l'information spatiale, une facilitation de la détection se produit et ce toujours indépendamment de la configuration spatiale des stimuli. Cependant, la performance de discrimination, quantifiée à l'aide d'un index de sensibilité (d') est altérée suite aux essais multisensoriels en général et de manière plus significative pour les essais multisensoriels non-alignés dans l'espace.Dans une troisième étude, nous avons émis l'hypothèse que des améliorations comportementales pourraient différer selon la partie du corps qui est stimulée (la main vs. la nuque). Des résultats préliminaires suggèrent une dissociation possible entre une facilitation comportementale et les potentiels évoqués. Les temps de réactions étaient influencés par la configuration spatiale uniquement dans le cas ou les stimuli somatosensoriels étaient sur la nuque alors que les potentiels évoqués étaient modulés par l'alignement spatial pour les deux types de stimuli somatosensorielles.ConclusionCette thèse apporte des éléments nouveaux concernant le rôle fonctionnel joué par les interactions multisensorielles précoces de bas niveau. En combinant la psychophysique et la neuroimagerie électrique, nous démontrons la pertinence comportementale des ces interactions dans le système humain normal. Par ailleurs, nous montrons que ces interactions précoces sont hermétiques aux influences dites «top-down» sur le traitement spatial suggérant leur occurrence dans des régions cérébrales ayant accès à des représentations spatiales de grande échelle. Nous soulignons enfin des interactions spécifiques entre l'espace auditif et la stimulation somatosensorielle sur différentes parties du corps. Approfondir la connaissance concernant les bases neuronales et les mécanismes impliqués dans l'intégration multisensorielle dans le système normale est d'une importance centrale car elle permettra d'examiner et de mieux comprendre comment le cerveau déficient pourrait bénéficier d'une réhabilitation avec la stimulation multisensorielle.
Resumo:
La gestion des risques est souvent appréhendée par l'utilisation de méthodes linéaires mettant l'accent sur des raisonnements de positionnement et de type causal : à tel événement correspond tel risque et telle conséquence. Une prise en compte des interrelations entre risques est souvent occultée et les risques sont rarement analysés dans leurs dynamiques et composantes non linéaires. Ce travail présente ce que les méthodes systémiques et notamment l'étude des systèmes complexes sont susceptibles d'apporter en matière de compréhension, de management et d'anticipation et de gestion des risques d'entreprise, tant sur le plan conceptuel que de matière appliquée. En partant des définitions relatives aux notions de systèmes et de risques dans différents domaines, ainsi que des méthodes qui sont utilisées pour maîtriser les risques, ce travail confronte cet ensemble à ce qu'apportent les approches d'analyse systémique et de modélisation des systèmes complexes. En mettant en évidence les effets parfois réducteurs des méthodes de prise en compte des risques en entreprise ainsi que les limitations des univers de risques dues, notamment, à des définitions mal adaptées, ce travail propose également, pour la Direction d'entreprise, une palette des outils et approches différentes, qui tiennent mieux compte de la complexité, pour gérer les risques, pour aligner stratégie et management des risques, ainsi que des méthodes d'analyse du niveau de maturité de l'entreprise en matière de gestion des risques. - Risk management is often assessed through linear methods which stress positioning and causal logical frameworks: to such events correspond such consequences and such risks accordingly. Consideration of the interrelationships between risks is often overlooked and risks are rarely analyzed in their dynamic and nonlinear components. This work shows what systemic methods, including the study of complex systems, are likely to bring to knowledge, management, anticipation of business risks, both on the conceptual and the practical sides. Based on the definitions of systems and risks in various areas, as well as methods used to manage risk, this work confronts these concepts with approaches of complex systems analysis and modeling. This work highlights the reducing effects of some business risk analysis methods as well as limitations of risk universes caused in particular by unsuitable definitions. As a result this work also provides chief officers with a range of different tools and approaches which allows them a better understanding of complexity and as such a gain in efficiency in their risk management practices. It results in a better fit between strategy and risk management. Ultimately the firm gains in its maturity of risk management.
Resumo:
Résumé : La voie de signalisation Notch est essentielle pour la différentiation de l'épiderme lors du développement embryonnaire de la peau. Il a été démontré que l'inactivation de Notch1 dans la peau de souris conduit à une hyperplasie de l'épiderme ainsi qu'à la formation subséquente de carcinomes basocellulaires ainsi que de plaques cornéennes. L'inactivation de Notch1 dans la cornée combinée à des lésions mécaniques démontre que les cellules progénitrices de la cornée se différentient en un épithélium hyperplasique et kératinisé comme la peau. Ce changement de destinée cellulaire conduit à une cécité cornéenne et implique des processus non-autonomes aux cellules épithéliales, caractérisés par la sécrétion de FGF-2 par l'épithélium Notch1-/- suivi d'une vascularisation et d'un remaniement du stroma sous-jacent. La déficience en vitamine A est connu comme cause de lésions cornéennes humaines (xérophtalmie sévère). En accord, nous avons trouvé que la signalisation Notch1 était liée au métabolisme de la vitamine A par la régulation de l'expression de CRBP1, nécessaire pour générer un pool de rétinol intracellulaire. La perte de Notch1 dans l'épiderme, l'autre récepteur de la famille présent dans la peau marine, ne conduit pas à un phénotype manifeste. Cependant, l'inactivation dans l'épiderme de Notch1 et Notch2 ensemble, ou de RBP-J, induit une dermatite atopique (DA) sévère chez les souris. De même, les patients souffrants de DA mais pas ceux souffrant de psoriasis ou de lichen plan, ont une réduction marquée de l'expression des récepteurs Notch dans la peau. La perte de Notch dans les keratinocytes conduit à une activation de la voie NF-κB, ce qui ensuite induit la production de TSLP, une cytokine profondément impliquée dans la pathogenèse de la DA. Nous démontrons génétiquement que TSLP est responsable de la DA ainsi que du développent d'un syndrome myéloprolifératif non-autonome aux cellules induit par le G-CSF. Cependant, ces souris avec une inactivation dans l'épiderme de Notch1 et Notch2 et aussi incapables de répondre au TSLP développent des tumeurs invasive sévères caractérisées par une haute activité de signalisation ß-catenin. TSLPR est identifié comme un potentiel suppresseur de tumeur non-autonome aux cellules tumorales; la transplantation de cellules hématopoïétiques TSLPR-/- dans des souris déficientes pour Notch est suffisant pour causer des tumeurs. Summary : The Notch pathway is essential for proper epidermal differentiation during embryonic skin development. It has previously been demonstrated that Notch1 inactivation in marine skin results in epidermal hyperplasia and subsequent formation of basal cell carcinoma-like (BCC-like) tumors as well as corneal plaques. Inducible ablation of Notch1 in the cornea combined with mechanical wounding show that Notch1 deficient corneal progenitor cells differentiate into a hyperplasic, keratinized, skin-like epithelium. This cell fate switch leads to corneal blindness and involves cell non-autonomous processes, characterized by secretion of FGF-2 through Notch1-/- epithelium followed by vascularisation and remodelling of the underlying stroma. Vitamin A deficiency is known to induce a similar corneal defect in humans (severe xerophthalmia). Accordingly, we found that Notch1 signaling is linked to vitamin A metabolism by regulating the expression of CRBP1, required to generate a pool of intracellular retinol. Epidermal loss of Notch2, the other Notch receptor present in marine skin, doesn't lead to any overt phenotypes. However, postnatal epidermis-specific inactivation of both Notch1 and Notch2, or of RBP-J, induces the development of a severe form of atopic dermatitis (AD) in mice. Likewise, patients suffering from AD, but not psoriasis or lichen planas, have a marked reduction of Notch receptor expression in the skin. Loss of Notch in keratinocytes leads to an activation of NF-κB signaling which in turn induces the production of Thymic stromal lymphopoietin (TSLP), a cytokine deeply implicated in the pathogenesis of AD. We genetically demonstrate that TSLP is responsible for AD as well as the development of a cell non-autonomous G-CSF induced myeloproliferative disorder (MPD) in mice. However, these mice with conditional epidermal inactivation of Notch1 and Notch2 as well as incapable to respond to TSLP develop severe invasive tumors characterized by high ß-catenin signaling activity. TSLPR is identified as a potential cell non-autonomous tumor suppressor; transplantation of TSLPR-/- hematopoietic cells into epidermal Notch deficient mice is sufficient to cause tumors.
Resumo:
Les écosystèmes fournissent de nombreuses ressources et services écologiques qui sont utiles à la population humaine. La biodiversité est une composante essentielle des écosystèmes et maintient de nombreux services. Afin d'assurer la permanence des services écosystémiques, des mesures doivent être prises pour conserver la biodiversité. Dans ce but, l'acquisition d'informations détaillées sur la distribution de la biodiversité dans l'espace est essentielle. Les modèles de distribution d'espèces (SDMs) sont des modèles empiriques qui mettent en lien des observations de terrain (présences ou absences d'une espèce) avec des descripteurs de l'environnement, selon des courbes de réponses statistiques qui décrive la niche réalisée des espèces. Ces modèles fournissent des projections spatiales indiquant les lieux les plus favorables pour les espèces considérées. Le principal objectif de cette thèse est de fournir des projections plus réalistes de la distribution des espèces et des communautés en montagne pour le climat présent et futur en considérant non-seulement des variables abiotiques mais aussi biotiques. Les régions de montagne et l'écosystème alpin sont très sensibles aux changements globaux et en même temps assurent de nombreux services écosystémiques. Cette thèse est séparée en trois parties : (i) fournir une meilleure compréhension du rôle des interactions biotiques dans la distribution des espèces et l'assemblage des communautés en montagne (ouest des Alpes Suisses), (ii) permettre le développement d'une nouvelle approche pour modéliser la distribution spatiale de la biodiversité, (iii) fournir des projections plus réalistes de la distribution future des espèces ainsi que de la composition des communautés. En me focalisant sur les papillons, bourdons et plantes vasculaires, j'ai détecté des interactions biotiques importantes qui lient les espèces entre elles. J'ai également identifié la signature du filtre de l'environnement sur les communautés en haute altitude confirmant l'utilité des SDMs pour reproduire ce type de processus. A partir de ces études, j'ai contribué à l'amélioration méthodologique des SDMs dans le but de prédire les communautés en incluant les interactions biotiques et également les processus non-déterministes par une approche probabiliste. Cette approche permet de prédire non-seulement la distribution d'espèces individuelles, mais également celle de communautés dans leur entier en empilant les projections (S-SDMs). Finalement, j'ai utilisé cet outil pour prédire la distribution d'espèces et de communautés dans le passé et le futur. En particulier, j'ai modélisé la migration post-glaciaire de Trollius europaeus qui est à l'origine de la structure génétique intra-spécifique chez cette espèce et évalué les risques de perte face au changement climatique. Finalement, j'ai simulé la distribution des communautés de bourdons pour le 21e siècle afin d'évaluer les changements probables dans ce groupe important de pollinisateurs. La diversité fonctionnelle des bourdons va être altérée par la perte d'espèces spécialistes de haute altitude et ceci va influencer la pollinisation des plantes en haute altitude. - Ecosystems provide a multitude of resources and ecological services, which are useful to human. Biodiversity is an essential component of those ecosystems and guarantee many services. To assure the permanence of ecosystem services for future generation, measure should be applied to conserve biodiversity. For this purpose, the acquisition of detailed information on how biodiversity implicated in ecosystem function is distributed in space is essential. Species distribution models (SDMs) are empirical models relating field observations to environmental predictors based on statistically-derived response surfaces that fit the realized niche. These models result in spatial predictions indicating locations of the most suitable environment for the species and may potentially be applied to predict composition of communities and their functional properties. The main objective of this thesis was to provide more accurate projections of species and communities distribution under current and future climate in mountains by considering not solely abiotic but also biotic drivers of species distribution. Mountain areas and alpine ecosystems are considered as particularly sensitive to global changes and are also sources of essential ecosystem services. This thesis had three main goals: (i) a better ecological understanding of biotic interactions and how they shape the distribution of species and communities, (ii) the development of a novel approach to the spatial modeling of biodiversity, that can account for biotic interactions, and (iii) ecologically more realistic projections of future species distributions, of future composition and structure of communities. Focusing on butterfly and bumblebees in interaction with the vegetation, I detected important biotic interactions for species distribution and community composition of both plant and insects along environmental gradients. I identified the signature of environmental filtering processes at high elevation confirming the suitability of SDMs for reproducing patterns of filtering. Using those case-studies, I improved SDMs by incorporating biotic interaction and accounting for non-deterministic processes and uncertainty using a probabilistic based approach. I used improved modeling to forecast the distribution of species through the past and future climate changes. SDMs hindcasting allowed a better understanding of the spatial range dynamic of Trollius europaeus in Europe at the origin of the species intra-specific genetic diversity and identified the risk of loss of this genetic diversity caused by climate change. By simulating the future distribution of all bumblebee species in the western Swiss Alps under nine climate change scenarios for the 21st century, I found that the functional diversity of this pollinator guild will be largely affected by climate change through the loss of high elevation specialists. In turn, this will have important consequences on alpine plant pollination.
Resumo:
1. ABSTRACTS - RÉSUMÉSSCIENTIFIC ABSTRACT - ENGLISH VERSIONGeometry, petrology and growth of a shallow crustal laccolith: the Torres del Paine Mafi c Complex (Patagonia)The Torres del Paine intrusive complex (TPIC) is a composite mafic-granitic intrusion, ~70km2, belonging to a chain of isolated Miocene plutons in southern Patagonia. Their position is intermediate between the Mesozoic-Cenozoic calc-alkaline subduction related Patagonian batholith in the West and the late Cenozoic alkaline basaltic back-arc related plateau lavas in the East. The Torres del Paine complex formed during an important reconfiguration of the Patagonian geodynamic setting, with a migration of magmatism from the arc to the back-arc, possibly related to the Chile ridge subductionThe complex intruded the flysch of the Cretaceous Cerro Toro and Punta Barrosa Formations during the Miocene, creating a well-defined narrow contact aureole of 200-400 m width.In its eastern part, the Torres del Paine intrusive complex is a laccolith, composed of a succession of hornblende-gabbro to diorite sills at its base, with a total thickness of ~250m, showing brittle contacts with the overlying granitic sills, that form spectacular cliffs of more than 1000m. This laccolith is connected, in the western part, to its feeding system, with vertical alternating sheets of layered gabbronorite and Hbl-gabbro, surrounded and percolated by diorites. ID-TIMS U-Pb on zircons on feeder zone (FZ) gab- bros yield 12.593±0.009Ma and 12.587±0.009Ma, which is identifcal within error to the oldest granite dated so far by Michel et al. (2008). In contrast, the laccolith mafic complex is younger than than the youngest granite (12.50±0.02Ma), and has been emplaced from 12.472±0.009Ma to 12.431 ±0.006Ma, by under-accretion beneath the youngest granite at the interface with previously emplaced mafic sills.The gabbronorite crystallization sequence in the feeder zone is dominated by olivine, plagioclase, clinopyroxene and orthopyroxene, while amphibole forms late interstitial crystals. The crystallization sequence is identical in Hornblende-gabbro from the feeder zone, with higher modal hornblende. Gabbronorite and Hornblende-gabbro both display distinct Eu and Sr positive anomalies. In the laccolith, a lower Hornblende-gabbro crystallized in sills and evolved to a high alkali shoshonitic series. The Al203, Ti02, Na20, K20, Ba and Sr composition of these gabbros is highly variable and increases up to ~50wt% Si02. The lower hornblende-gabbro is characterized by kaersutite anhedral cores with inclusions of olivine, clino- and orthopyroxene and rare apatite and An70 plagioclase. Trace element modelling indicates that hornblende and clinopyroxene are in equilibrium with a liquid whose composition is similar to late basaltic trachyandesitic dikes that cut the complex. The matrix in the lower hornblende gabbro is composed of normally zoned oligoclase, Magnesio-hornblende, biotite, ilmenite and rare quartz and potassium feldspar. This assemblage crystallized in-situ from a Ba and Sr-depleted melts. In contrast, the upper Hbl-gabbro is high-K calc-alkaline. Poikilitic pargasite cores have inclusions of euhedral An70 plagioclase inclusions, and contain occasionally clinopyroxene, olivine and orthopyroxene. The matrix composition is identical to the lower hornblende-gabbro and similar to the diorite. Diorite bulk rock compositions show the same mineralogy but different modal proportions relative to hornblende-gabbrosThe Torres del Paine Intrusive Complex isotopic composition is 87Sr/86Sr=0.704, 143Nd/144Nd=0.5127, 206Pb/204Pb=18.70 and 207Pb/204Pb=15.65. Differentiated dioritic and granitic units may be linked to the gabbroic cumulates series, with 20-50% trapped interstitial melt, through fractionation of olivine-bearing gabbronorite or hornblende-gabbro fractionation The relative homogeneity of the isotopic compositions indicate that only small amounts of assimilation occurred. Two-pyroxenes thermometry, clinopyroxene barometry and amphibole-plagioclase thermometry was used to estimate pressure and temperature conditions. The early fractionation of ultramafic cumulates occurs at mid to lower crustal conditions, at temperatures exceeding 900°C. In contrast, the TPIC emplacement conditions have been estimated to ~0.7±0.5kbar and 790±60°C.Based on field and microtextural observations and geochemical modelling, fractionation of basaltic-trachyandesitic liquids at intermediate to lower crustal levels, has led to the formation of the Torres del Paine granites. Repetitive replenishment of basaltic trachy- andesitic liquid in crustal reservoirs led to mixed magmas that will ascend via the feeder zone, and crystallize into a laccolith, in the form of successive dioritic and gabbroic sills. Dynamic fractionation during emplacement concentrated hornblende rich cumulates in the center of individual sills. Variable degrees.of post-emplacement compaction led to the expulsion of felsic liquids that preferentially concentrated at the top of the sills. Incremental sills amalgamation of the entire Torres del Paine Intrusive Complex has lasted for ~160ka.RESUME SCIENTIFIQUE - VERSION FRANÇAISEGéométrie, pétrologie et croissance d'un laccolite peu profond : Le complexe ma- fique du Torres del Paine (Patagonie)Le Complexe Intrusif du Torres del Paine (CITP) est une intrusion bimodale, d'environ 70km2, appartenant à une chaîne de plutons Miocènes isolés, dans le sud de la Patago-nie. Leur position est intermédiaire entre le batholite patagonien calco-alcalin, à l'Ouest, mis en place au Mesozoïque-Cenozoïque dans un contexte de subduction, et les basal-tes andésitiques et trachybasaltes alcalins de plateau, plus jeune, à l'Est, lié à l'ouverture d'un arrière-arc.A son extrémité Est, le CITP est une succession de sills de gabbro à Hbl et de diorite, sur une épaisseur de ~250m, avec des évidences de mélange. Les contacts avec les sills de granite au-dessus, formant des parois de plus de 1000m, sont cassants. Ce laccolite est connecté, dans sa partie Ouest, à une zone d'alimentation, avec des intrusions sub-ver- ticales de gabbronorite litée et de gabbro à Hbl, en alternance. Celles-ci sont traversées et entourées par des diorites. Les zircons des gabbros de la zone d'alimentation, datés par ID-TIMS, ont cristallisés à 12.593±0.009Ma et 12.587±0.009Ma, ce qui correspond au plus vieux granite daté à ce jour par Michel et al. (2008). A l'inverse, les roches manques du laccolite se sont mises en place entre 12.472±0.009Ma et 12.431 ±0.006Ma, par sous-plaquage successifs à l'interface avec le granite le plus jeune daté à ce jour (12.50±0.02Ma).La séquence de cristallisation des gabbronorites est dominée par Ol, Plg, Cpx et Opx, alors que la Hbl est un cristal interstitiel. Elle est identique dans les gabbros à Hbl de la zone d'alimentation, avec ~30%vol de Hbl. Les gabbros de la zone d'alimentation montrent des anomalies positives en Eu et Sr distinctes. Dans le laccolite, le gabbro à Hbl inférieur évolue le long d'une série shoshonitique, riche en éléments incompatibles. Sa concentration en Al203, Ti02, Na20, K20, Ba et Sr est très variable et augmente rapide-ment jusqu'à ~50wt% Si02. Il est caractérisé par la présence de coeurs résorbés de kaer- sutite, entourés de Bt, et contenant des inclusions d'OI, Cpx et Opx, ou alors d'Ap et de rares Plg (An70). Hbl et Cpx ont cristallisés à partir d'un liquide de composition similaire aux dykes trachy-andesite basaltique du CITP. La matrice, cristallisée in-situ à partir d'un liquide pauvre en Ba et Sr, est composée d'oligoclase zoné de façon simple, de Mg-Hbl, Bt, llm ainsi que de rares Qtz et KF. Le gabbro à Hbl supérieur, quant à lui, appartient à une suite chimique calco-alcaline riche en K. Des coeurs poecilitiques de pargasite con-tiennent de nombreuses inclusions de Plg (An70) automorphe, ainsi que des Ol, Cpx et Opx. La composition de la matrice est identique à celle des gabbros à Hbl inférieurs et toutes deux sont similaires à la minéralogie des diorites. Les analyses sur roches totales de diorites montrent la même variabilité que celles de gabbros à Hbl, mais avec une ten-eur en Si02 plus élevée.La composition isotopique des liquides primitifs du CITP a été mesurée à 87Sr/86Sr=0.704, 143Nd/144Nd=0.5127, 206Pb/204Pb=18.70 et 207Pb/204Pb=15.65. Les granites et diorites différenciés peuvent être reliés à des cumulais gabbronoritiques (F=0.74 pour les granites et F=1-0.5 pour les diorites) et gabbroïques à Hbl (fractionnement supplémentaire pour les granites, avec F=0.3). La cristallisation de 20 à 50%vol de liquide interstitiel piégé dans les gabbros du CITP explique leur signature géochimique. Seules de faibles quantités de croûte continentale ont été assimilées. La température et la pression de fractionnement ont été estimées, sur la base des thermobaromètres Opx-Cpx, Hbl-Plg et Cpx, à plus de 900°C et une profondeur correspondant à la croûte inférieure-moyenne. A l'inverse, les conditions de cristallisation de la matrice des gabbros et diorites du laccolite ont été estimées à 790±60°C et ~0.7±0.5kbar.Je propose que les liquides felsiques du CITP se soient formés par cristallisation frac-tionnée en profondeur des assemblages minéralogiques observés dans les gabbros du CITP, à partir d'un liquide trachy-andesite basaltique. La percolation de magma dans les cristaux accumulés permet la remontée du mélange à travers la zone d'alimentation, vers le laccolite, où des sills se mettent en place successivement. L'amalgamation de sills dans le CITP a duré ~160ka.Le CITP s'est formé durant une reconfiguration importante du contexte géodynamique en Patagonie, avec un changement du magmatisme d'arc vers un volcanisme d'arrière- arc. Ce changement est certainement lié à la subduction de la ride du Chili.RESUME GRAND PUBLIC - VERSION FRANÇAISEGéométrie, pétrologie et croissance d'une chambre magmatique peu profonde : Le complexe mafique du Torres del Paine (Patagonie)Le pourtour de l'Océan Pacifique est caractérisé par une zone de convergence de plaques tectoniques, appelée zone de subduction, avec le plongement de croûte océa-nique sous les Andes dans le cas de la Patagonie. De nombreux volcans y sont associés, formant la ceinture de feu. Mais seuls quelques pourcents de tout le magma traversant la croûte terrestre parviennent à la surface et la majeure partie cristallise en profondeur, dans des chambres magmatiques. Quelles est leur forme, croissance, cristallisation et durée de vie ? Le complexe magmatique du Torres del Paine représente l'un des meilleurs endroits au monde pour répondre à ces questions. Il se situe au sud de la Patagonie, formant un massif de 70km2. Des réponses peuvent être trouvées à différentes échelles, variant de la montagne à des minéraux de quelques 1000ème de millimètres.Il est possible de distinguer trois types de roches : des gabbros et des diorites sur une épaisseur de 250m, surmontées par des parois de granite de plus de 1000m. Les contacts entre ces roches sont tous horizontaux. Entre granites et gabbro-diorite, le contact est net, indiquant que le second magma s'est mis en place au contact avec un magma plus ancien, totalement solidifié. Entre gabbros et diorites, les contacts sont diffus, souvent non-linéaires, indiquant à l'inverse la mise en contact de magmas encore partiellement liquides. Dans la partie Ouest de cette chambre magmatique, les contacts entre roches sont verticaux. Il s'agit certainement du lieu de remplissage de la chambre magmatique.Lors du refroidissement d'un magma, différents cristaux vont se former. Leur stabilité et leur composition varient en fonction de la pression, de la température ou de la chimie du magma. La séquence de cristallisation peut être définie sur la base d'observations microscopiques et de la composition chimique des minéraux. Différents gabbros sont ainsi distingués : le gabbro à la base est riche en hornblende, d'une taille de ~5mm, sans inclusion de plagioclase mais avec des cristaux d'olivine, clinopyroxene et orthopyroxene inclus ; le gabbro supérieur est lui-aussi riche en hornblende (~5mm), avec les mêmes inclusions additionnées de plagioclase. Ces cristaux se sont formés à une température supérieure à 900°C et une profondeur correspondant à la croûte moyenne ou inférieure. Les minéraux plus fin, se trouvant hors des cristaux de hornblende des deux gabbros, sont similaires à ceux des diorites : plagioclase, biotite, hornblende, apatite, quartz et feldspath alcalin. Ces minéraux sont caractéristiques des granites. Ils ont cristallisé à ~790°C et ~2km de profondeur.La cristallisation des minéraux et leur extraction du magma par gravité provoque un changement progressif de la composition de ce dernier. Ainsi, après extraction d'olivine et d'orthopyroxene riches en Mg, de clinopyroxene riche en Ca, de plagioclase riche en Ca et Al et d'hornblende riche en Ca, Al et Mg, le liquide final sera appauvri en ces élé-ments. Un lien peut ainsi être proposé entre les diorites dont la composition est proche du liquide de départ, les granites dont la composition est similaire au liquide final, et les gabbros dont la minéralogie correspond aux minéraux extraits.L'utilisation de zircons, un minéral riche en U dont les atomes se transforment en Pb par décomposition radioactive au cours de millions d'années, permet de dater le refroidissement des roches qui les contiennent. Ainsi, il a été observé que les roches de la zone d'alimentation, à l'Ouest du complexe magmatique, ont cristallisés il y a 12.59±0.01 Ma, en même temps que les granites les plus vieux, se trouvant au sommet de la chambre magmatique, datés par Michel et al. (2008). Les deux roches pourraient donc avoir la même origine. A l'inverse, les gabbros et diorites de la chambre magmatique ont cristallisé entre 12.47±0.01Ma et 12.43±0.01Ma, les roches les plus vieilles étant à la base.En comparant la composition des roches du Torres del Paine avec celles d'autres en-tités géologiques de Patagonie, les causes du magmatisme peuvent être recherchées. A l'Ouest, on trouve en effet des intrusions granitiques, plus anciennes, caractéristiques de zones de convergence de plaque tectonique, alors qu'à l'Est, des laves basaltiques plus jeunes sont caractéristiques d'une dynamique d'extension. Sur la base des compositions chimiques des roches de ces différentes entités, l'évolution progressive de l'une à l'autre a pu être démontrée. Elle est certainement due à l'arrivée d'une dorsale océanique (zone d'extension crustale et de création de croûte océanique par la remontée de magma) dans la zone de subduction, le long des Andes.Je propose que, dans un premier temps, des magmas granitiques sont remontés dans la chambre magmatique, laissant d'importants volumes de cristaux dans la croûte pro-fonde. Dans un second épisode, les cristaux formés en profondeur ont été transportés à travers la croûte continentale, suite au mélange avec un nouveau magma injecté. Ces magmas chargés de cristaux ont traversé la zone d'alimentation avant de s'injecter dans la chambre magmatique. Différents puises ont été distingués, injectés dans la chambre magmatique du sommet à la base concernant les granites, puis à la base du granite le plus jeune pour les gabbros et diorites. Le complexe magmatique du Torres del Paine s'est construit sur une période totale de 160'000±20'000 ans.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.
Resumo:
This paper develops a model of money demand where the opportunity cost of holding money is subject to regime changes. The regimes are fully characterized by the mean and variance of inflation and are assumed to be the result of alternative government policies. Agents are unable to directly observe whether government actions are indeed consistent with the inflation rate targeted as part of a stabilization program but can construct probability inferences on the basis of available observations of inflation and money growth. Government announcements are assumed to provide agents with additional, possibly truthful information regarding the regime. This specification is estimated and tested using data from the Israeli and Argentine high inflation periods. Results indicate the successful stabilization program implemented in Israel in July 1985 was more credible than either the earlier Israeli attempt in November 1984 or the Argentine programs. Government’s signaling might substantially simplify the inference problem and increase the speed of learning on the part of the agents. However, under certain conditions, it might increase the volatility of inflation. After the introduction of an inflation stabilization plan, the welfare gains from a temporary increase in real balances might be high enough to induce agents to raise their real balances in the short-term, even if they are uncertain about the nature of government policy and the eventual outcome of the stabilization attempt. Statistically, the model restrictions cannot be rejected at the 1% significance level.
Resumo:
We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.