994 resultados para Modèles de plaques minces
Resumo:
Cooperation is ubiquitous in nature: genes cooperate in genomes, cells in muti- cellular organims, and individuals in societies. In humans, division of labor and trade are key elements of most known societies, where social life is regulated by- moral systems specifying rights and duties often enforced by third party punish¬ment. Over the last decades, several primary mechanisms, such as kin selection, direct and indirect reciprocity, have been advanced to explain the evolution of cooperation from a naturalistic approach. In this thesis, I focus on the study of three secondary mechanisms which, although insufficient to allow for the evo¬lution of cooperation, have been hypothesized to further promote it when they are linked to proper primary mechanisms: conformity (the tendency to imitate common behaviors), upstream reciprocity (the tendency to help somebody once help has been received from somebody else) and social diversity (heterogeneous social contexts). I make use of mathematical and computational models in the formal framework of evolutionary game theory in order to investigate the theoret¬ical conditions under which conformity, upstream reciprocity and social diversity are able to raise the levels of cooperation attained in evolving populations. - La coopération est ubiquitaire dans la nature: les gènes coopèrent dans les génomes, les cellules dans les organismes muticellulaires, et les organismes dans les sociétés. Chez les humains, la division du travail et le commerce sont des éléments centraux de la plupart des sociétés connues, où la vie sociale est régie par des systèmes moraux établissant des droits et des devoirs, souvent renforcés par la punition. Au cours des dernières décennies, plusieurs mécanismes pri¬maires, tels que la sélection de parentèle et les réciprocités directe et indirecte, ont été avancés pour expliquer l'évolution de la coopération d'un point de vue nat¬uraliste. Dans cette thèse, nous nous concentrons sur l'étude de trois mécanismes secondaires qui, bien qu'insuffisants pour permettre l'évolution de la coopération, sont capables de la promouvoir davantage s'ils sont liés aux mécanismes primaires appropriés: la conformité (tendance à imiter des comportements en commun), la 'réciprocité en amont' (tendance à aider quelqu'un après avoir reçu l'aide de quelqu'un d'autre) et la diversité sociale (contextes sociaux hétérogènes). Nous faisons usage de modèles mathématiques et informatiques dans le cadre formel de la théorie des jeux évolutionnaires afin d'examiner les conditions théoriques dans lesquelles la conformité, la 'réciprocité en amont' et la diversité sociale sont capables d'élever le niveau de coopération des populations en évolution.
Resumo:
Résumé Le débat sur la migration des professionnels de santé issus des pays pauvres, et particulièrement des pays africains, date principalement des années 90. La mise sur agenda international du problème est liée d'une part aux inquiétudes vis-à-vis de la détérioration globale des conditions de santé en Afrique et à la péjoration du ratio personnel qualifié/population et d'autre part aux effets des politiques volontaristes d'appel aux spécialistes des pays en développement de la part de plusieurs pays du nord. Les experts soulignent le contraste entre le recrutement croissant de personnels de santé qualifiés (infirmières, médecins) par les pays riches et le déficit de personnels de santé dans les pays du sud et principalement en Afrique subsaharienne. Le discours dominant s'écrit sous le mode de la dramatisation. L'ampleur de l'exode du personnel de santé et ses conséquences pour l'Afrique suscitent un nouvel intérêt pour la recherche sur le « brain drain » dans le secteur de la santé. Un grand nombre d'analyse cherche à mieux comprendre les rapports entre le « push » (les motifs qui poussent les professionnels de santé à vouloir partir) et le « pull » (la demande des pays développés). Notre travail de recherche, suscité par les interrogations internationales vise également à mesurer et à comprendre les facteurs de la migration des médecins africains. Toutefois, il se distingue de la littérature dominante en accordant une place particulière aux arrangements institutionnels des pays d'accueil et à la manière dont ils régulent l'accueil des médecins africains. Après avoir analysé d'un point de vue statistique les flux migratoires des médecins et avoir approfondi par des entretiens les raisons qui poussent au départ, notre thèse vise à mettre en évidence l'importance considérable de l'héritage et des arrangements institutionnels dans la place accordée aux médecins africains dans la profession médicale des pays d'accueil. Pour approfondir le second aspect, notre thèse a opté pour la comparaison de trois cas de figures nationaux offrant des contrastes importants: le Royaume-Uni, la France et la Suisse. Les trois pays diffèrent de manière flagrante par la place qu'occupent les médecins étrangers dans le secteur de la santé et plus spécifiquement des médecins d'origine africaine. L'analyse des conditions de recrutement et de la place qui est accordé aux médecins africains dans les pays européens révèle que les migrations des professionnels de santé et l'insertion professionnelle des médecins africains sont avant tout déterminées par les arrangements institutionnels instaurés par les différents pays au cours de leur histoire. Chacun des trois pays a construit de manière spécifique sa relation avec les médecins formés à l'étranger et avec les médecins africains. Les trois pays choisis illustrent trois modèles d'emploi des médecins africains : un modèle libéral de recrutement (UK), un modèle corporatiste (France) et un modèle « conservateur » (Suisse). L'européanisation exerce des effets différents dans les trois systèmes. Le recrutement européen devient la règle privilégiée du recrutement qui renforce les tendances à l' « exclusion » en France et en Suisse et conforte un retournement de politiques publiques amorcé depuis plusieurs années au Royaume-Uni. L'analyse des trajectoires globales et des spécificités nationales d'emploi révèle également le caractère fortement réducteur du discours global sur les migrations internationales des médecins et les possibles contradictions entre une éthique dite du développement (« hostile aux migrations des médecins en provenance des pays pauvres ») et une éthique du droit de la personne (« le droit universel de migrer »).
Resumo:
Mast cells are well known for their role in hypersensitivity reactions. However, there is increasing evidence that they might also participate in both developing and weakening atherosclerotic plaques, potentially causing plaque instability. Some clinical studies have therefore postulated the existence of relationships between blood β-tryptase levels and acute coronary syndromes. In this study, we investigated postmortem serum β-tryptase levels in a series of 90 autopsy cases with various degrees of coronary atherosclerosis that had undergone medico-legal investigations. β-tryptase concentrations in these cases were compared to levels observed in 6 fatal anaphylaxis cases following contrast material administration. Postmortem serum β-tryptase concentrations in the anaphylactic deaths ranged from 146 to 979 ng/ml. In 9 out of 90 cases of cardiac deaths, β-tryptase levels were higher than clinical reference values of 11.4 ng/ml and ranged from 21 to 65 ng/ml. These results indicate that increased postmortem serum β-tryptase levels can be observed, though not systematically, in cardiac deaths with varying degrees of coronary atherosclerosis disease, thereby suggesting that mast cell activation in this disease cannot be ascertained by postmortem serum β-tryptase measurements.
Resumo:
Visual areas 17 and 18 were studied with morphometric methods for numbers of neurons, glia, senile plaques (SP), and neurofibrillary tangles (NFT) in 13 cases of Alzheimer's disease (AD) as compared to 11 controls. In AD cases, the mean neuronal density was significantly decreased by about 30% in both areas 17 and 18, while the glial density was increased significantly only in area 17. The volume of area 17 was unchanged in AD cases but its total number of neurons was decreased by 33% and its total number of glia increased by 45% compared to controls. In AD the number of SP was similar in areas 17 and 18, while that of NFT was significantly higher in area 18. The number of neurons with NFT was only 2% in area 17 and about 10% in area 18. The discrepancy between the loss of neurons and the amount of NFT suggests that neuronal loss can occur without passing through NFT degeneration. The deposition of SP was correlated with glial proliferation, but not with neuronal loss or neurofibrillary degeneration.
Resumo:
Les crues et les risques de débordement des barrages, notamment des digues en terre, en cas de fortes précipitations, préoccupent depuis longtemps les autorités et la population. Les études réalisées dans les dernières années ont montré que le réchauffement global du climat s'est accompagné d'une augmentation de la fréquence des fortes précipitations et des crues en Suisse et dans de nombreuses régions du globe durant le 20ème siècle. Les modèles climatiques globaux et régionaux prévoient que la fréquence des fortes précipitations devrait continuer à croître durant le 21éme siècle en Suisse et dans le monde. Cela rend les recherches actuelles sur la modélisation des pluies et des crues à une échelle fine encore plus importantes. En Suisse, pour assurer une bonne protection sur le plan humain et économique, des cartes de précipitations maximales probables (PMP) ont été réalisées. Les PMP ont été confrontées avec les précipitations extrêmes mesurées dans les différentes régions du pays. Ces PMP sont ensuite utilisées par les modèles hydrologiques pour calculer des crues maximales probables (PMF). Cette la méthode PMP-PMF nécessite toutefois un certain nombre de précautions. Si elle est appliquée d'une manière incorrecte ou sur la base de données insuffisantes, elle peut entraîner une surestimation des débits de crue, notamment pour les grands bassins et pour les régions montagneuses entraînant des surcoûts importants. Ces problèmes résultent notamment du fait que la plupart des modèles hydrologiques répartissent les précipitations extrêmes (PMP) de manière uniforme dans le temps sur l'ensemble du bassin versant. Pour remédier ce problème, cette thèse a comme objectif principal de développer un modèle hydrologique distribué appelé MPF (Modeling Precipitation Flood) capable d'estimer la PMF de manière réaliste à partir de la PMP distribuée de manière spatio-temporelle à l'aide des nuages. Le modèle développé MPF comprend trois parties importantes. Dans la première partie, les précipitations extrêmes calculées par un modèle météorologique à une méso-échelle avec une résolution horizontale de 2 km, sont réparties à une échelle locale (25 ou 50 m) de manière non-uniforme dans l'espace et dans le temps. La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et en subsurface en incluant l'infiltration et l'exfiltration. Et la troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Le modèle MPF a été calibré sur des bassins versants alpins où les données de précipitations et du débit sont disponibles pour une période considérablement longue, qui inclut plusieurs épisodes de fortes pluies avec des débits élevés. À partir de ces épisodes, les paramètres d'entrée du modèle tel que la rugosité du sol et la largeur moyenne des cours d'eau dans le cas d'écoulement de surface ont pu être estimés. Suivant la même procédure, les paramètres utilisés dans la simulation des écoulements en subsurface sont également estimés indirectement, puisque des mesures directes de l'écoulement en subsurface et de l'exfiltration sont difficiles à obtenir. Le modèle de distribution spatio-temporelle de la pluie a aussi été validé en utilisant les images radar avec la structure de la pluie provoquée par un nuage supercellulaire. Les hyétogrammes obtenus sur plusieurs points du terrain sont très proches de ceux enregistrées avec les images radar. Les résultats de la validation du modèle sur les épisodes de fortes crues présentent une bonne synchronisation entre le débit simulé et le débit observé. Cette corrélation a été mesurée avec trois critères d'efficacité, qui ont tous donné des valeurs satisfaisantes. Cela montre que le modèle développé est valide et il peut être utilisé pour des épisodes extrêmes tels que la PMP. Des simulations ont été faites sur plusieurs bassins ayant comme données d'entrée la pluie de type PMP. Des conditions variées ont été utilisées, comme la situation du sol saturé, ou non-saturé, ou la présence d'une couche de neige sur le terrain au moment de la PMP, ce qui conduit à une estimation de PMF pour des scénarios catastrophiques. Enfin, les résultats obtenus montrent comment mieux estimer la valeur de la crue de sécurité des barrages, à partir d'une pluie extrême dix-millennale avec une période de retour de 10'000 ans.
Resumo:
La hipertensión arterial (HTA) constituye uno de los problemas de salud pública más importantes por su elevada prevalencia, sus complicaciones, alta mortalidad y morbilidad y el coste que determina su control y tratamiento. Es un factor de riesgo importante para la enfermedad cardiovascular y cerebro vascular, ya que favorece la formación de placas ateroscleróticas. La HTA está presente en ambos sexos y a cualquier edad provocando una disminución en la expectativa de vida. El hábito tabáquico, la hipertensión arterial, los niveles de colesterol, la obesidad y la inactividad física, el estrés, alcohol y consumo de sal, son considerados factores de riesgo modificables. El control de la hipertensión arterial, junto con los demás factores de riesgo que provocan alteraciones cardiovasculares, es probablemente uno de los mayores problemas de salud pública en el mundo. El objetivo de este trabajo es concienciar a los pacientes hipertensos que acuden al centro de salud de Fraga sobre la importancia de adoptar hábitos de vida saludable y de evitar factores de riesgo que empeoran su enfermedad, a través de la creación de un programa de educación sanitaria.
Resumo:
Summary Due to their conic shape and the reduction of area with increasing elevation, mountain ecosystems were early identified as potentially very sensitive to global warming. Moreover, mountain systems may experience unprecedented rates of warming during the next century, two or three times higher than that records of the 20th century. In this context, species distribution models (SDM) have become important tools for rapid assessment of the impact of accelerated land use and climate change on the distribution plant species. In my study, I developed and tested new predictor variables for species distribution models (SDM), specific to current and future geographic projections of plant species in a mountain system, using the Western Swiss Alps as model region. Since meso- and micro-topography are relevant to explain geographic patterns of plant species in mountain environments, I assessed the effect of scale on predictor variables and geographic projections of SDM. I also developed a methodological framework of space-for-time evaluation to test the robustness of SDM when projected in a future changing climate. Finally, I used a cellular automaton to run dynamic simulations of plant migration under climate change in a mountain landscape, including realistic distance of seed dispersal. Results of future projections for the 21st century were also discussed in perspective of vegetation changes monitored during the 20th century. Overall, I showed in this study that, based on the most severe A1 climate change scenario and realistic dispersal simulations of plant dispersal, species extinctions in the Western Swiss Alps could affect nearly one third (28.5%) of the 284 species modeled by 2100. With the less severe 61 scenario, only 4.6% of species are predicted to become extinct. However, even with B1, 54% (153 species) may still loose more than 80% of their initial surface. Results of monitoring of past vegetation changes suggested that plant species can react quickly to the warmer conditions as far as competition is low However, in subalpine grasslands, competition of already present species is probably important and limit establishment of newly arrived species. Results from future simulations also showed that heavy extinctions of alpine plants may start already in 2040, but the latest in 2080. My study also highlighted the importance of fine scale and regional. assessments of climate change impact on mountain vegetation, using more direct predictor variables. Indeed, predictions at the continental scale may fail to predict local refugees or local extinctions, as well as loss of connectivity between local populations. On the other hand, migrations of low-elevation species to higher altitude may be difficult to predict at the local scale. Résumé La forme conique des montagnes ainsi que la diminution de surface dans les hautes altitudes sont reconnues pour exposer plus sensiblement les écosystèmes de montagne au réchauffement global. En outre, les systèmes de montagne seront sans doute soumis durant le 21ème siècle à un réchauffement deux à trois fois plus rapide que celui mesuré durant le 20ème siècle. Dans ce contexte, les modèles prédictifs de distribution géographique de la végétation se sont imposés comme des outils puissants pour de rapides évaluations de l'impact des changements climatiques et de la transformation du paysage par l'homme sur la végétation. Dans mon étude, j'ai développé de nouvelles variables prédictives pour les modèles de distribution, spécifiques à la projection géographique présente et future des plantes dans un système de montagne, en utilisant les Préalpes vaudoises comme zone d'échantillonnage. La méso- et la microtopographie étant particulièrement adaptées pour expliquer les patrons de distribution géographique des plantes dans un environnement montagneux, j'ai testé les effets d'échelle sur les variables prédictives et sur les projections des modèles de distribution. J'ai aussi développé un cadre méthodologique pour tester la robustesse potentielle des modèles lors de projections pour le futur. Finalement, j'ai utilisé un automate cellulaire pour simuler de manière dynamique la migration future des plantes dans le paysage et dans quatre scénarios de changement climatique pour le 21ème siècle. J'ai intégré dans ces simulations des mécanismes et des distances plus réalistes de dispersion de graines. J'ai pu montrer, avec les simulations les plus réalistes, que près du tiers des 284 espèces considérées (28.5%) pourraient être menacées d'extinction en 2100 dans le cas du plus sévère scénario de changement climatique A1. Pour le moins sévère des scénarios B1, seulement 4.6% des espèces sont menacées d'extinctions, mais 54% (153 espèces) risquent de perdre plus 80% de leur habitat initial. Les résultats de monitoring des changements de végétation dans le passé montrent que les plantes peuvent réagir rapidement au réchauffement climatique si la compétition est faible. Dans les prairies subalpines, les espèces déjà présentes limitent certainement l'arrivée de nouvelles espèces par effet de compétition. Les résultats de simulation pour le futur prédisent le début d'extinctions massives dans les Préalpes à partir de 2040, au plus tard en 2080. Mon travail démontre aussi l'importance d'études régionales à échelle fine pour évaluer l'impact des changements climatiques sur la végétation, en intégrant des variables plus directes. En effet, les études à échelle continentale ne tiennent pas compte des micro-refuges, des extinctions locales ni des pertes de connectivité entre populations locales. Malgré cela, la migration des plantes de basses altitudes reste difficile à prédire à l'échelle locale sans modélisation plus globale.
Resumo:
En 1981, le gouvernement de l'Alberta a amélioré la surveillance de la pointe sud « South Peak » de la montagne Turtle, sur la frontière sud du glissement Frank de 1903. Le programme de surveillance vise à comprendre les taux de déformation des fissures larges et profondes sur « South Peak », et à prédire une seconde avalanche rocheuse sur la montagne. Le programme de surveillance consiste à installer un complément de points statiques et de stations suivies à distance, qui sont mesurés périodiquement. Des données climatiques, microsismiques et de déformation sont recueillies automatiquement à intervalles journaliers, et sont archivées. À la fin des années 1980, le financement pour le développement du programme de surveillance a cessé et quelques installations se sont détériorées. Entre mai 2004 et septembre 2006, des lectures sur les points de surveillance encore fonctionnels ont été compilées et interprétées. De plus, les lectures prélevées auparavant ont été réinterprétées à partir des connaissances récentes sur les modèles de mouvement à court terme et les influences climatiques. Ces observations ont été comparées à des récentes observations aériennes d'un modèle digital d'élévation, provenant de « light detection and ranging (LiDAR) », et des photos de terrain, afin d'estimer plus précisément les taux, l'étendue et la distribution des mouvements pour les derniers 25 ans.
Resumo:
Objectives: The purpose of this study was to analyze the debris captured in the distal protection filters used during carotid artery stenting (CAS). Background: CAS is an option available to high-risk patients requiring revascularization. Filters are suggested for optimal stroke prevention during CAS. Methods: From May 2005 to June 2007, filters from 59 asymptomatic patients who underwent CAS were collected and sent to a specialized laboratory for light-microscope and histological analysis. Peri- and postprocedural outcomes were assessed during 1-year follow-up. Results: On the basis of biomedical imaging of the filter debris, the captured material could not be identified as embolized particles from the carotid plaque. On histological analysis the debris consisted mainly of red blood cell aggregates and/ or platelets, occasionally accompanied by granulocytes. We found no consistent histological evidence of embolized particles originating from atherosclerotic plaques. Post-procedure, three neurological events were reported: two (3.4%) transient ischemic attacks (TIA) and one (1.7%) ipsilateral minor stroke. Conclusion: The filters used during CAS in asymptomatic patients planned for cardiac surgery often remained empty. These findings may be explained by assuming that asymptomatic patients feature a different atherosclerotic plaque composition or stabilization through antiplatelet medication. Larger, randomized trials are clearly warranted, especially in the asymptomatic population. © 2012 Wiley Periodicals, Inc.
Resumo:
Les problèmes d'écoulements multiphasiques en média poreux sont d'un grand intérêt pour de nombreuses applications scientifiques et techniques ; comme la séquestration de C02, l'extraction de pétrole et la dépollution des aquifères. La complexité intrinsèque des systèmes multiphasiques et l'hétérogénéité des formations géologiques sur des échelles multiples représentent un challenge majeur pour comprendre et modéliser les déplacements immiscibles dans les milieux poreux. Les descriptions à l'échelle supérieure basées sur la généralisation de l'équation de Darcy sont largement utilisées, mais ces méthodes sont sujettes à limitations pour les écoulements présentant de l'hystérèse. Les avancées récentes en terme de performances computationnelles et le développement de méthodes précises pour caractériser l'espace interstitiel ainsi que la distribution des phases ont favorisé l'utilisation de modèles qui permettent une résolution fine à l'échelle du pore. Ces modèles offrent un aperçu des caractéristiques de l'écoulement qui ne peuvent pas être facilement observées en laboratoire et peuvent être utilisé pour expliquer la différence entre les processus physiques et les modèles à l'échelle macroscopique existants. L'objet premier de la thèse se porte sur la simulation numérique directe : les équations de Navier-Stokes sont résolues dans l'espace interstitiel et la méthode du volume de fluide (VOF) est employée pour suivre l'évolution de l'interface. Dans VOF, la distribution des phases est décrite par une fonction fluide pour l'ensemble du domaine et des conditions aux bords particulières permettent la prise en compte des propriétés de mouillage du milieu poreux. Dans la première partie de la thèse, nous simulons le drainage dans une cellule Hele-Shaw 2D avec des obstacles cylindriques. Nous montrons que l'approche proposée est applicable même pour des ratios de densité et de viscosité très importants et permet de modéliser la transition entre déplacement stable et digitation visqueuse. Nous intéressons ensuite à l'interprétation de la pression capillaire à l'échelle macroscopique. Nous montrons que les techniques basées sur la moyenne spatiale de la pression présentent plusieurs limitations et sont imprécises en présence d'effets visqueux et de piégeage. Au contraire, une définition basée sur l'énergie permet de séparer les contributions capillaires des effets visqueux. La seconde partie de la thèse est consacrée à l'investigation des effets d'inertie associés aux reconfigurations irréversibles du ménisque causé par l'interface des instabilités. Comme prototype pour ces phénomènes, nous étudions d'abord la dynamique d'un ménisque dans un pore angulaire. Nous montrons que, dans un réseau de pores cubiques, les sauts et reconfigurations sont si fréquents que les effets d'inertie mènent à différentes configurations des fluides. A cause de la non-linéarité du problème, la distribution des fluides influence le travail des forces de pression, qui, à son tour, provoque une chute de pression dans la loi de Darcy. Cela suggère que ces phénomènes devraient être pris en compte lorsque que l'on décrit l'écoulement multiphasique en média poreux à l'échelle macroscopique. La dernière partie de la thèse s'attache à démontrer la validité de notre approche par une comparaison avec des expériences en laboratoire : un drainage instable dans un milieu poreux quasi 2D (une cellule Hele-Shaw avec des obstacles cylindriques). Plusieurs simulations sont tournées sous différentes conditions aux bords et en utilisant différents modèles (modèle intégré 2D et modèle 3D) afin de comparer certaines quantités macroscopiques avec les observations au laboratoire correspondantes. Malgré le challenge de modéliser des déplacements instables, où, par définition, de petites perturbations peuvent grandir sans fin, notre approche numérique apporte de résultats satisfaisants pour tous les cas étudiés. - Problems involving multiphase flow in porous media are of great interest in many scientific and engineering applications including Carbon Capture and Storage, oil recovery and groundwater remediation. The intrinsic complexity of multiphase systems and the multi scale heterogeneity of geological formations represent the major challenges to understand and model immiscible displacement in porous media. Upscaled descriptions based on generalization of Darcy's law are widely used, but they are subject to several limitations for flow that exhibit hysteric and history- dependent behaviors. Recent advances in high performance computing and the development of accurate methods to characterize pore space and phase distribution have fostered the use of models that allow sub-pore resolution. These models provide an insight on flow characteristics that cannot be easily achieved by laboratory experiments and can be used to explain the gap between physical processes and existing macro-scale models. We focus on direct numerical simulations: we solve the Navier-Stokes equations for mass and momentum conservation in the pore space and employ the Volume Of Fluid (VOF) method to track the evolution of the interface. In the VOF the distribution of the phases is described by a fluid function (whole-domain formulation) and special boundary conditions account for the wetting properties of the porous medium. In the first part of this thesis we simulate drainage in a 2-D Hele-Shaw cell filled with cylindrical obstacles. We show that the proposed approach can handle very large density and viscosity ratios and it is able to model the transition from stable displacement to viscous fingering. We then focus on the interpretation of the macroscopic capillary pressure showing that pressure average techniques are subject to several limitations and they are not accurate in presence of viscous effects and trapping. On the contrary an energy-based definition allows separating viscous and capillary contributions. In the second part of the thesis we investigate inertia effects associated with abrupt and irreversible reconfigurations of the menisci caused by interface instabilities. As a prototype of these phenomena we first consider the dynamics of a meniscus in an angular pore. We show that in a network of cubic pores, jumps and reconfigurations are so frequent that inertia effects lead to different fluid configurations. Due to the non-linearity of the problem, the distribution of the fluids influences the work done by pressure forces, which is in turn related to the pressure drop in Darcy's law. This suggests that these phenomena should be taken into account when upscaling multiphase flow in porous media. The last part of the thesis is devoted to proving the accuracy of the numerical approach by validation with experiments of unstable primary drainage in a quasi-2D porous medium (i.e., Hele-Shaw cell filled with cylindrical obstacles). We perform simulations under different boundary conditions and using different models (2-D integrated and full 3-D) and we compare several macroscopic quantities with the corresponding experiment. Despite the intrinsic challenges of modeling unstable displacement, where by definition small perturbations can grow without bounds, the numerical method gives satisfactory results for all the cases studied.
Resumo:
Baudelaire a consacré un seul essai à la musique, dans les dernières années de sa vie. Cet essai porte sur un unique compositeur, Richard Wagner, à une époque où l'esthétique du regard du poète est déjà formée depuis longtemps. De plus, Baudelaire « ne sait pas la musique », comme il l'écrit lui-même au musicien dans une longue lettre. Et pourtant, l'essai sur Wagner s'inscrit parfaitement dans les textes critiques de Baudelaire consacrés à l'art : l'image et l'imagination tiennent lieu, ici aussi, de modèles épistémologiques. La méconnaissance du langage musical est ainsi rachetée par la connaissance de l'image - mais la connaissance de l'image, de sa dimension scripturale, demeure quant à elle impensée. Ce point aveugle caractérise ce que l'on peut appeler l'esthétique de la Modernité.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
RESUMELes modèles classiques sur l'évolution des chromosomes sexuels supposent que des gènes sexe- antagonistes s'accumulent sur les chromosomes sexuels, entraînant ainsi l'apparition d'une région non- recombinante, qui se répand progressivement en favorisant l'accumulation de mutations délétères. En accord avec cette théorie, les chromosomes sexuels que l'on observe aujourd'hui chez les mammifères et les oiseaux sont considérablement différenciés. En revanche, chez la plupart des vertébrés ectothermes, les chromosomes sexuels sont indifférenciés et il existe une impressionnante diversité de mécanismes de détermination du sexe. Au cours de cette thèse, j'ai étudié l'évolution des chromosomes sexuels chez les vertébrés ectothermes, en outre pour mieux comprendre ce contraste avec les vertébrés endothermes. L'hypothèse « high-turnover » postule que les chromosomes sexuels sont remplacés régulièrement à partir d'autosomes afin d'éviter leur dégénérescence. L'hypothèse « fountain-of-youth » propose que la recombinaison entre le chromosome X et le chromosome Y au sein de femelles XY empêche la dégénérescence. Les résultats de ma thèse, basés sur des études théoriques et empiriques, suggèrent que les deux processus peuvent être entraînés par l'environnement et ainsi jouent un rôle important dans l'évolution des chromosomes sexuels chez les vertébrés ectothermes.SUMMARYClassical models of sex-chromosome evolution assume that sexually antagonistic genes accumulate on sex chromosomes leading to a non-recombining region, which progressively expands and favors the accumulation of deleterious mutations. Concordant with this theory, sex chromosomes in extant mammals and birds are considerably differentiated. In most ectothermic vertebrates, such as frogs, however, sex chromosomes are undifferentiated and a striking diversity of sex determination systems is observed. This thesis was aimed to investigate this apparent contrast of sex chromosome evolution between endothermic and ectothermic vertebrates. The "high-turnover" hypothesis holds that sex chromosomes arose regularly from autosomes preventing decay. The "fountain-of-youth" hypothesis posits that sex chromosomes undergo episodic X-Y recombination in sex-reversed XY females, thereby purging ("rejuvenating") the Y chromosome. We suggest that both processes likely played an important role in sex chromosome evolution of ectothermic vertebrates. The literature largely views sex determination as a dichotomous process: individual sex is assumed to be determined either by genetic (genotypic sex determination, GSD) or by environmental factors (environmental sex determination, ESD), most often temperature (temperature sex determination, TSD). We endorsed an alternative view, which sees GSD and TSD as the ends of a continuum. The conservatism of molecular processes among different systems of sex determination strongly supports the continuum view. We proposed to define sex as a threshold trait underlain by a liability factor, and reaction norms allowing modeling interactions between genotypic and temperature effects. We showed that temperature changes (due to e.g., climatic changes or range expansions) are expected to provoke turnovers in sex-determination mechanisms maintaining homomorphic sex chromosomes. The balanced lethal system of crested newts might be the result of such a sex determination turnover, originating from two variants of ancient Y-chromosomes. Observations from a group of tree frogs, on the other hand, supported the 'fountain of youth' hypothesis. We then showed that low rates of sex- reversals in species with GSD might actually be adaptive considering joint effects of deleterious mutation purging and sexually antagonistic selection. Ongoing climatic changes are expected to threaten species with TSD by biasing population sex ratios. In contrast, species with GSD are implicitly assumed immune against such changes, because genetic systems are thought to necessarily produce even sex ratios. We showed that this assumption may be wrong and that sex-ratio biases by climatic changes may represent a previously unrecognized extinction threat for some GSD species.
Resumo:
Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.