997 resultados para Emigració i immigració -- Models matemàtics
Resumo:
Several methods and approaches for measuring parameters to determine fecal sources of pollution in water have been developed in recent years. No single microbial or chemical parameter has proved sufficient to determine the source of fecal pollution. Combinations of parameters involving at least one discriminating indicator and one universal fecal indicator offer the most promising solutions for qualitative and quantitative analyses. The universal (nondiscriminating) fecal indicator provides quantitative information regarding the fecal load. The discriminating indicator contributes to the identification of a specific source. The relative values of the parameters derived from both kinds of indicators could provide information regarding the contribution to the total fecal load from each origin. It is also essential that both parameters characteristically persist in the environment for similar periods. Numerical analysis, such as inductive learning methods, could be used to select the most suitable and the lowest number of parameters to develop predictive models. These combinations of parameters provide information on factors affecting the models, such as dilution, specific types of animal source, persistence of microbial tracers, and complex mixtures from different sources. The combined use of the enumeration of somatic coliphages and the enumeration of Bacteroides-phages using different host specific strains (one from humans and another from pigs), both selected using the suggested approach, provides a feasible model for quantitative and qualitative analyses of fecal source identification.
Resumo:
[cat] El propòsit d'aquest article és introduir una mercat de treball no competitiu i atur en el model de creixement amb taxes d'estalvi exògenes que es pot trobar en els llibres de text de creixement (Sala‐i‐Martín, 2000; Barro and Sala‐i‐Martín, 2003; Romer, 2006). Primer, derivem un marc general amb una funció de producció neoclàssica per analitzar la relació entre creixement i ocupació. Utilitzem aquest marc per estudiar les dinàmiques conjuntes del creixement i l'ocupació sota diferents regles de fixació salarial.
Resumo:
[cat] El propòsit d'aquest article és introduir una mercat de treball no competitiu i atur en el model de creixement amb taxes d'estalvi exògenes que es pot trobar en els llibres de text de creixement (Sala‐i‐Martín, 2000; Barro and Sala‐i‐Martín, 2003; Romer, 2006). Primer, derivem un marc general amb una funció de producció neoclàssica per analitzar la relació entre creixement i ocupació. Utilitzem aquest marc per estudiar les dinàmiques conjuntes del creixement i l'ocupació sota diferents regles de fixació salarial.
Resumo:
Maximum entropy modeling (Maxent) is a widely used algorithm for predicting species distributions across space and time. Properly assessing the uncertainty in such predictions is non-trivial and requires validation with independent datasets. Notably, model complexity (number of model parameters) remains a major concern in relation to overfitting and, hence, transferability of Maxent models. An emerging approach is to validate the cross-temporal transferability of model predictions using paleoecological data. In this study, we assess the effect of model complexity on the performance of Maxent projections across time using two European plant species (Alnus giutinosa (L.) Gaertn. and Corylus avellana L) with an extensive late Quaternary fossil record in Spain as a study case. We fit 110 models with different levels of complexity under present time and tested model performance using AUC (area under the receiver operating characteristic curve) and AlCc (corrected Akaike Information Criterion) through the standard procedure of randomly partitioning current occurrence data. We then compared these results to an independent validation by projecting the models to mid-Holocene (6000 years before present) climatic conditions in Spain to assess their ability to predict fossil pollen presence-absence and abundance. We find that calibrating Maxent models with default settings result in the generation of overly complex models. While model performance increased with model complexity when predicting current distributions, it was higher with intermediate complexity when predicting mid-Holocene distributions. Hence, models of intermediate complexity resulted in the best trade-off to predict species distributions across time. Reliable temporal model transferability is especially relevant for forecasting species distributions under future climate change. Consequently, species-specific model tuning should be used to find the best modeling settings to control for complexity, notably with paleoecological data to independently validate model projections. For cross-temporal projections of species distributions for which paleoecological data is not available, models of intermediate complexity should be selected.
Resumo:
El projecte se centra en l"expansió colonial atlàntica espanyola, especialment durant el segle XVI, estudiada a partir del coneixement arqueològic i arqueomètric de la ceràmica de pisa o majòlica, de les ceràmiques vidrades i dels contenidors de transport, però també de les ceràmiques indígenes d"estil europeu. Amb això, l"objectiu bàsic del projecte és aprofundir en els aspectes d"aculturació o de transculturació, de relacions i d"influències que es generen en un procés colonitzador, entre els colonitzadors i els grups humans colonitzats, però també l"aparició de noves identitats que sorgeixen en els espais colonitzats, amb grups humans generalment mixtos i complexos. Aquest objectiu general es concreta en quatre objectius concrets: la caracterització arqueològica i arqueomètrica dels centres productors i de difusió de Barcelona, Sevilla i el País Basc; la caracterització d"aquests materials, i dels materials indígenes d"influència europea, dels centres receptors de Gran Canària, Perú, Colombia i Canadà; la interpretació d"aquests materials ceràmics tant en termes de comerç, intercanvi i difusió, com des de la perspectiva del seu consum, com a artefactes que marquen o confereixen identitat social o estatus, i la seva participació en aspectes com les tradicions culturals, l"etnicitat o la creació de noves identitats; i la derivació de models teòrics aplicables a contextos colonials, basats en els estudis arqueològics i arqueomètrics de les ceràmiques implicades.
Resumo:
Objectius: Analitzar l'existència i el contingut de documents de polítiques de col·lecció i criteris de selecció de les col·leccions digitals patrimonials espanyoles. Examinar si la descripció de les col·leccions incloses en els portals respectius comunica adequadament als usuaris la història i els objectius de la col·lecció, els destinataris, l'abast temàtic o geogràfic, cronològic i lingüístic, els tipus de documents digitalitzats, la relació amb la col·lecció analògica, els usos permesos i altres qüestions de tipus organitzatiu i tècnic. Metodologia: Per al primer objectiu, s'ha fet l'anàlisi del contingut dels portals de les col·leccions objecte d'estudi i s'ha enviat un qüestionari a les entitats responsables. Per al segon objectiu, s'ha desenvolupat una llista dels elements descriptius que s'haurien d'incloure en la descripció de les col·leccions basada en directrius internacionals i s'han avaluat les col·leccions amb relació a aquesta llista. S'han seleccionat per a l'estudi les col·leccions digitals exclusivament patrimonials que aporten metadades en el recol·lector Hispana del Ministerio de Cultura. Resultats: Destaca l'absència de documents formals de polítiques de col·lecció, però els criteris de selecció que en la majoria dels casos no són públics són clars i estan ben formulats. Pel que fa a la descripció de les col·leccions, hi ha diferències molt marcades entre els fons analitzats i s'hi observen alguns models de bones pràctiques. Tanmateix, en general, la informació és molt minsa: no acostumen a haver-hi dades sobre el mateix projecte, els destinataris queden molt difusos, les qüestions organitzatives hi són del tot absents, i les tipologies documentals incloses o les llengües i els períodes coberts sovint s'han de deduir de la interfície de cerca o de les estadístiques de les plataformes corresponents. En els apartats d'objectius de la col·lecció i de l'abast temàtic o geogràfic, la informació sol ser més completa.
Resumo:
Glutaric aciduria type-I (GA-I) and methylmalonic aciduria (MMA-uria) are two neurometabolic diseases manifesting in neonatal period and early childhood. They belong to the group of organic acidurias and are caused by defects in the catabolism of amino acids, leading to massive accumulation of toxic metabolites in the body and severe brain injury. Therapeutic strategies are mainly based on reversing catabolic state during metabolic crisis and dietary protein restriction that both aim to prevent extra production of toxic metabolites. Specific and neuroprotective treatments are missing because the mechanisms of brain damage in these diseases are only poorly understood. The principal objective of my work was to develop in vitro models for both diseases aiming at elucidation of toxic effects of the main metabolites accumulating in GA-I (glutaric acid (GA) and 3-hydroxy glutaric acid (3-OHGA)) and MMA-uria (methylmalonic acid (MMA), propionic acid (PA) and 2-methylcitric acid (2-MCA)) on developing brain cells, and to study the cellular pathways targeted by these deleterious effects in order to find new therapeutic potentials. We used re-aggregated embryonic rat brain cells in organotypic 3D cultures, which were exposed to toxic metabolites at different developing stages of the cultures. In parallel, we studied the cellular localization of the defected enzyme in GA-I, glutaryl-CoA dehydrogenase (GCDH), in the brain and peripheral tissues of rats in adulthood and during embryonic development. GCDH expression: GCDH showed a strong neuronal expression in embryonic central and peripheral nervous system. In the adult brain, GCDH expression was exclusively neuronal with the strongest signal in cerebral cortex and Purkinje cells. GCDH expression was homogenous in embryonic peripheral organs with high levels in intestinal mucosa at late stages. Strong GCDH expression was also observed in liver and intestinal mucosa and with lower intensity in muscles, convoluted renal tubules and renal collecting tubes in adult peripheral organs. GA-I and MMA-uria in vitro models: 3-OHGA (for GA-I) and 2-MCA (for MMA-uria) showed the most deleterious effects at early stages of the cultures with morphological and biochemical alterations and induction of cell death. 3-OHGA and 2-MCA caused astrocytic cell suffering reflected by astrocytic fiber loss and swelling and retardation in oligodendrocytic maturation and/or differentiation. High ammonium increase concomitant with glutamine decrease was observed in these cultures. Neurons were not substantially affected. Our studies revealed that brain-cell generated ammonia may play a role in the neuropathogenesis of these diseases. Thus, developing neuroprotective strategies that target ammonium toxicity in the brain of GA-I and MMA-uria patients might be important according to our findings. -- L'acidurie glutarique de type I (GA-I) et l'acidurie méthylmalonique (MMA-urie) sont deux maladies neurométaboliques se manifestant durant la période néonatale ou la petite enfance, et qui appartiennent aux aciduries organiques. Elles sont causées par des défauts dans le catabolisme des acides aminés, conduisant à une accumulation des métabolites toxiques dans le corps et aussi des lésions cérébrales sévères. Le traitement est limité à une prise en charge d'urgence pendant la crise métabolique et à une diète restreinte en protéines naturelles. Des traitements spécifiques, neuroprotecteurs manquent principalement parce que les mécanismes conduisant aux lésions cérébrales dans ces maladies sont peu connus. L'objectif principal de mon travail était d'élucider les effets toxiques des métabolites accumulés dans GA-I (l'acide glutarique (GA) et l'acide 3-hydroxyglutarique (3-OHGA)) et MMA-uria (l'acide méthylmalonique (MMA), l'acide propionique (PA) et l'acide 2-méthylcitrique(2-MCA) sur les cellules du cerveau ainsi que les voies cellulaires impliquées, dans le but de trouver de potentielles nouvelles stratégies thérapeutiques. Nous avons utilisé un modèle in vitro de cultures 3D de cellules de cerveau d'embryons de rat (en développement) en les exposant aux métabolites toxiques à différents stades de développement des cultures. En parallèle, nous avons étudié la localisation cellulaire de l'enzyme déficiente dans GA-I, la CoA-glutarly déshydrogénase (GCDH), dans le cerveau et les organes périphériques des rats adultes et pendant le développement embryonnaire. L'expression de GCDH: GCDH a montré une expression neuronale forte dans le système nerveux chez l'embryon et le cerveau adulte. L'expression était homogène dans les organes périphériques avec une forte expression dans l'intestin. Les modèles in vitro de GA-I et MMA-uria : 3-OHGA en modèle GA-I et 2-MCA en modèle MMA-uria ont montré les effets délétères les plus importants avec des altérations morphologiques des cellules et biochimiques dans le milieu de culture et l'induction de mort cellulaire non-apoptotique (3-OHGA) ou apoptotique (2-MCA). 3-OHGA et 2-MCA ont provoqué une souffrance astrocytaire avec perte des fibres et gonflement et un retard de maturation et/ou de différentiation des oligodendrocytes. Une augmentation importante d'ammonium avec une diminution concomitante de glutamine a été observée dans les cultures. Les neurones n'étaient pas vraiment affectés. Nos études ont révélé que l'ammonium généré par les cellules cérébrales pourrait jouer un rôle dans la neuropathogenèse de ces deux maladies. Par conséquent, développer des stratégies neuroprotectrices ciblant la toxicité de l'ammonium dans le cerveau des patients atteints de GA-I ou MMA-urie pourrait être très important selon nos résultats.
Resumo:
Alpine tree-line ecotones are characterized by marked changes at small spatial scales that may result in a variety of physiognomies. A set of alternative individual-based models was tested with data from four contrasting Pinus uncinata ecotones in the central Spanish Pyrenees to reveal the minimal subset of processes required for tree-line formation. A Bayesian approach combined with Markov chain Monte Carlo methods was employed to obtain the posterior distribution of model parameters, allowing the use of model selection procedures. The main features of real tree lines emerged only in models considering nonlinear responses in individual rates of growth or mortality with respect to the altitudinal gradient. Variation in tree-line physiognomy reflected mainly changes in the relative importance of these nonlinear responses, while other processes, such as dispersal limitation and facilitation, played a secondary role. Different nonlinear responses also determined the presence or absence of krummholz, in agreement with recent findings highlighting a different response of diffuse and abrupt or krummholz tree lines to climate change. The method presented here can be widely applied in individual-based simulation models and will turn model selection and evaluation in this type of models into a more transparent, effective, and efficient exercise.
Resumo:
Tutkielman tavoitteena oli tarkastella innovaatioiden leviämismallien ennustetarkkuuteen vaikuttavia tekijöitä. Tutkielmassa ennustettiin logistisella mallilla matkapuhelinliittymien leviämistä kolmessa Euroopan maassa: Suomessa, Ranskassa ja Kreikassa. Teoriaosa keskittyi innovaatioiden leviämisen ennustamiseen leviämismallien avulla. Erityisesti painotettiin mallien ennustuskykyä ja niiden käytettävyyttä eri tilanteissa. Empiirisessä osassa keskityttiin ennustamiseen logistisella leviämismallilla, joka kalibroitiin eri tavoin koostetuilla aikasarjoilla. Näin tehtyjä ennusteita tarkasteltiin tiedon kokoamistasojen vaikutusten selvittämiseksi. Tutkimusasetelma oli empiirinen, mikä sisälsi logistisen leviämismallin ennustetarkkuuden tutkimista otosdatan kokoamistasoa muunnellen. Leviämismalliin syötettävä data voidaan kerätä kuukausittain ja operaattorikohtaisesti vaikuttamatta ennustetarkkuuteen. Dataan on sisällytettävä leviämiskäyrän käännöskohta, eli pitkän aikavälin huippukysyntäpiste.
Resumo:
La literatura gallega dels darrers anys s"ha vist profundament transformada per la irrupció de les escriptores i una «gramàtica violeta», una literatura concebuda en femení, que ha afectat també l"escriptura d"autoria masculina. Les seves propostes no se situen, doncs, en el marge del camp literari, malgrat que numèricament són menys. A la narrativa han engegat ambiciosos projectes de subversió de gènere amb una bona recepció. A la poesia s"han convertit en models literaris per la seva capacitat d"experimentació i renovació integral de l"escriptura, fent quallar una gramàtica violeta. I l"espai virtual, convertit en laboratori públic del llenguatge, s"experimenta amb l"escriptura i la identitat múltiple.
Resumo:
La literatura gallega dels darrers anys s"ha vist profundament transformada per la irrupció de les escriptores i una «gramàtica violeta», una literatura concebuda en femení, que ha afectat també l"escriptura d"autoria masculina. Les seves propostes no se situen, doncs, en el marge del camp literari, malgrat que numèricament són menys. A la narrativa han engegat ambiciosos projectes de subversió de gènere amb una bona recepció. A la poesia s"han convertit en models literaris per la seva capacitat d"experimentació i renovació integral de l"escriptura, fent quallar una gramàtica violeta. I l"espai virtual, convertit en laboratori públic del llenguatge, s"experimenta amb l"escriptura i la identitat múltiple.
Resumo:
This symposium presents research from different contexts to improve our collective understanding of a variety of aspects of mixed forms of service delivery, be they mixed contracting at the level of the market (which is more common in the U.S.), or mixed management and ownership at the level of the firm (which is more common in Europe). The articles included in this special symposium examine the factors that give rise to mixed forms of service delivery (e.g., economic and fiscal stress, regulatory flexibility, geography, management) and how these factors impact their design and operation. Articles also explore the performance of mixed forms of service delivery relative to more conventional arrangements like contracted or direct service delivery. The articles contribute to a better theoretical and conceptual understanding of mixed/hybrid forms of services delivery.
Resumo:
[cat] Aquest article se centra en la significació i transcendència de l"assignatura d"Anatomia artística a l"Escola de Belles Arts de Barcelona durant la segona meitat del segle XIX i principis de segle XX. S"empren, com a fil conductor, les figures de Jeroni Faraudo i Condeminas (1823-1886) i de Tiberio Ávila Rodríguez (1843-1932), els dos primers professors que impartiren la matèria i que romanen, en l"actualitat, pràcticament inèdits. El coneixement de l"ideari de Faraudo i d"Ávila permet completar el panorama de l"evolució de les idees estètiques a la Catalunya del moment i, alhora, contribueix a la comprensió de l"erosió de la primacia de l"antic en l"aprenentatge oficial de les arts a Catalunya. [spa] Este artículo se centra en la significación y transcendencia de la asignatura de Anatomía artística en la Escuela de Bellas Artes de Barcelona durante la segunda mitad del siglo XIX y principios de siglo XX. Se emplean, como hilo conductor, las figuras de Gerónimo Faraudo Condeminas (1823-1886) y de Tiberio Ávila Rodríguez (1843-1932), los dos primeros profesores que impartieron la materia y que permanecen, en la actualidad, prácticamente inéditos. El conocimiento del ideario de Faraudo y de Ávila permite completar el panorama de la evolución de las ideas estéticas en la Cataluña del momento y, al mismo tiempo, contribuye a la comprensión de la erosión de la primacía del antiguo en el aprendizaje oficial de las artes en Cataluña. [eng]This article focuses on the subject of Artistic Anatomy at the Barcelona School of Fine Arts during the second half of the 19th and early 20th centuries, discussing its signification. The connecting thread of this article are Jeroni Faraudo i Condeminas (1823-1886) and Tiberio Ávila Rodríguez (1843-1932), its first two teachers, who remain nowadays practically unknown. The knowledge of their ideas completes the history of contemporary Catalan aesthetics and also contributes to the comprehension of the erosion in the primacy of the use of ancient models in the official artistic teaching in Catalonia.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Context. The understanding of Galaxy evolution can be facilitated by the use of population synthesis models, which allow to test hypotheses on the star formation history, star evolution, as well as chemical and dynamical evolution of the Galaxy. Aims. The new version of the Besanc¸on Galaxy Model (hereafter BGM) aims to provide a more flexible and powerful tool to investigate the Initial Mass Function (IMF) and Star Formation Rate (SFR) of the Galactic disc. Methods. We present a new strategy for the generation of thin disc stars which assumes the IMF, SFR and evolutionary tracks as free parameters. We have updated most of the ingredients for the star count production and, for the first time, binary stars are generated in a consistent way. We keep in this new scheme the local dynamical self-consistency as in Bienayme et al (1987). We then compare simulations from the new model with Tycho-2 data and the local luminosity function, as a first test to verify and constrain the new ingredients. The effects of changing thirteen different ingredients of the model are systematically studied. Results. For the first time, a full sky comparison is performed between BGM and data. This strategy allows to constrain the IMF slope at high masses which is found to be close to 3.0, excluding a shallower slope such as Salpeter"s one. The SFR is found decreasing whatever IMF is assumed. The model is compatible with a local dark matter density of 0.011 M pc−3 implying that there is no compelling evidence for significant amount of dark matter in the disc. While the model is fitted to Tycho2 data, a magnitude limited sample with V<11, we check that it is still consistent with fainter stars. Conclusions. The new model constitutes a new basis for further comparisons with large scale surveys and is being prepared to become a powerful tool for the analysis of the Gaia mission data.