352 resultados para Macroéconomie--Modèles mathématiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due to the existence of free software and pedagogical guides, the use of data envelopment analysis (DEA) has been further democratized in recent years. Nowadays, it is quite usual for practitioners and decision makers with no or little knowledge in operational research to run themselves their own efficiency analysis. Within DEA, several alternative models allow for an environment adjustment. Five alternative models, each of them easily accessible to and achievable by practitioners and decision makers, are performed using the empirical case of the 90 primary schools of the State of Geneva, Switzerland. As the State of Geneva practices an upstream positive discrimination policy towards schools, this empirical case is particularly appropriate for an environment adjustment. The alternative of the majority of DEA models deliver divergent results. It is a matter of concern for applied researchers and a matter of confusion for practitioners and decision makers. From a political standpoint, these diverging results could lead to potentially opposite decisions. Grâce à l'existence de logiciels en libre accès et de guides pédagogiques, la méthode data envelopment analysis (DEA) s'est démocratisée ces dernières années. Aujourd'hui, il n'est pas rare que les décideurs avec peu ou pas de connaissances en recherche opérationnelle réalisent eux-mêmes leur propre analyse d'efficience. A l'intérieur de la méthode DEA, plusieurs modèles permettent de tenir compte des conditions plus ou moins favorables de l'environnement. Cinq de ces modèles, facilement accessibles et applicables par les décideurs, sont utilisés pour mesurer l'efficience des 90 écoles primaires du canton de Genève, Suisse. Le canton de Genève pratiquant une politique de discrimination positive envers les écoles défavorisées, ce cas pratique est particulièrement adapté pour un ajustement à l'environnement. La majorité des modèles DEA génèrent des résultats divergents. Ce constat est préoccupant pour les chercheurs appliqués et perturbant pour les décideurs. D'un point de vue politique, ces résultats divergents conduisent à des prises de décision différentes selon le modèle sur lequel elles sont fondées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : La prévalence des maladies stéatosiques non alcooliques du foie augmente de manière exponentielle dans les pays industrialisés. Le développement de ces maladies se traduit par une stéatose hépatique fréquemment associée à une résistance à l'insuline. Cette résistance a pu être expliquée par l'accumulation intra-hépatocytaire de lipides intermédiaires tels que Céramides et Diacylglycérols. Cependant, notre modèle animal de stéatose hépatique, les souris invalidées pour la protéine hépatique « Microsomal Triglyceride Transfert Protein » (Mttp Δ / Δ), ne développent pas de résistance à l'insuline, malgré une augmentation de ces lipides intermédiaires. Ceci suggère la présence d'un autre mécanisme induisant la résistance à l'insuline. Matériels et méthodes : L'analyse Microarray du foie des souris Mttp Δ / Δ a montré une forte up-régulation des gènes « Cell-death Inducing DFFA-like Effector C (cidec) », « Lipid Storage Droplet Protein 5 (lsdp5) » et « Bernardinelli-Seip Congenital Lipodystrophy 2 Homolog (seipin) » dans le foie des souris Mttp Δ / Δ. Ces gènes ont été récemment identifiés comme codant pour des protéines structurelles des gouttelettes lipidiques. Nous avons testé si ces gènes jouaient un rôle important dans le développement de la stéatose hépatique, ainsi que de la résistance à l'insuline. Résultats : Nous avons démontré que ces gènes sont fortement augmentés dans d'autres modèles de souris stéatosées tels que ceux présentant une sur-expression de ChREBP. Dans les hépatocytes murins (AML12 :Alfa Mouse Liver 12), l'invalidation de cidec et/ou seipin semble diminuer la phosphorylation d'AKT après stimulation à l'insuline, suggérant une résistance à l'insuline. Chez l'homme, l'expression de ces gènes est augmentée dans le foie de patients obèses avec stéatose hépatique. De manière intéressante, cette augmentation est atténuée chez les patients avec résistance à l'insuline. Conclusion : Ces données suggèrent que ces protéines des gouttelettes lipidiques augmentent au cours du développement de la stéatose hépatique et que cette augmentation protège contre la résistance à l'insuline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME DE LA THESE Le but de cette thèse est d'analyser la réforme générale de l'Etat au Cameroun et au Gabon par les institutions de Bretton Woods sur une période de vingt ans (1987-2007). Pour ce faire, mon travail consiste à étudier le rôle majeur joué par les différentes mesures économiques impulsées dans les pays par le Fonds Monétaire International (FMI) et la Banque Mondiale. Il s'agit de voir si les différentes réformes d'ajustement que ces institutions ont imposé au Cameroun et au Gabon ont produit des effets positifs en vue de solution la crise économique qui s'y installait durablement et remettre ces Etats sur le sentier de la croissance et du développement. L'avènement de la crise économique qui sévissait dans les pays au milieu des années 1980 montrait que le modèle développementaliste expérimenté par ces Etats n'avait expérimenté contribué qu'à provoquer la paralysie de l'appareil de production. Les causes profondes résidaient dans l'omniprésence de l'Etat qui privilégiait une logique administrative au dépend de celle de production au point de nuire gravement aux politiques interventionnistes étatiques. A cela, s'ajoutaient d'autres facteurs endogènes et exogènes aux Etats comme la mauvaise gestion couplée à la forte corruption et au clientélisme politique, la contrebande et le dumping, l'effritement du secteur agricole dû au vieillissement des plantations et à la sous-mécanisation, l'explosion démographique, la détérioration des termes de l'échange, le chômage endémique et galopant, etc. En ayant recours aux réformes d'ajustement structurel du FMI et de la Banque Mondiale, les gouvernements camerounais et gabonais entendaient lutter contre les rigidités institutionnelles et les distorsions structurelles qui empêchaient leurs économies de répondre aux signaux du marché et d'accroître l'offre d'une part. Et, d'autre part, les réformes d'ajustement devaient permettre de renforcer la concurrence des produits sur les marchés, accroître les capacités d'adaptation des marchés de facteurs et améliorer l'efficacité et l'efficience du secteur public. Mais avant d'analyser les réformes d'ajustement dans les pays j'ai d'abord présenté dans une première partie, l'évolution sociopolitique et économique des deux pays. Cette partie donne à l'analyse une profondeur historique indispensable et rend compte de l'évolution des politiques sectorielles des Etats marquée par une phase de croissance (1960-1984), puis par une phase de décroissance ou de crise qui commence à partir de 1985. La seconde partie met en évidence les politiques d'ajustement structurelle principalement axées sur la régulation monétaire, financière et budgétaire, la réforme de la fonction publique, la réforme agricole, le désengagement de l'Etat du secteur productif national et les privatisations. Je termine cette seconde partie par un bilan contrasté que je dresse de l'impact de ces réformes dans les économies camerounaises et gabonaises. La troisième partie met en évidence les nouvelles orientations stratégiques des institutions de Bretton Woods en partant de l'agenda politique des réformes au Cameroun et au Gabon. Elle fait intervenir une batterie de réformes portant sur l'initiative Pays Pauvres Très Endettés (PPTE), les Documents de Stratégie pour la Réduction de la Pauvreté (DSRP), l'Evaluation Politique et Institutionnelle du Pays (EPIP) et la «Bonne Gouvernance». Cette thèse s'achève par une conclusion exhaustive mettant en évidence les insuffisances des modèles théoriques et conceptuels fondant l'ajustement structurel et la remise en cause des nouvelles stratégies de lutte contre la pauvreté impulsées par le FMI et la Banque Mondiale dans les pays d'une part. D'autre part, j'observe une faiblesse institutionnelle de l'Etat dans ces pays qui se résume à la mauvaise gouvernance ; à l'absence d'un cadre et des outils appropriés pour la gestion économique et stratégique du développement à long terme ; à l'impunité généralisée et à l'inefficacité des mesures de lutte contre la pauvreté ; à l'absence d'un Etat de droit et à l'autoritarisme des régimes en place.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est maintenant accepté par une large part de la communauté scientifique que le climat est en train de changer sous l'influence des gaz à effet de serre émis par les activités humaines. Pour la Suisse, cela correspond à une augmentation des températures et à une diminution probable des précipitations estivales.Etant donné le manque de recul et de données historiques précises, l'influence des changements climatiques sur la biodiversité n'est encore connue que d'études ponctuelles limitées à certaines espèces. Celles-ci nous livrent néanmoins des signaux clairs de changement dans la distribution et la phénologie des espèces, généralement cohérents avec les résultats des modèles prédictifs pour le futur.Globalement, les espèces montrent une tendance à migrer vers les altitudes supérieures. Celles qui occupent aujourd'hui les altitudes les plus élevées vont probablement voir leur domaine se rétrécir. De grands risques d'extinction planent donc sur les espèces alpines, pour lesquelles la Suisse a une responsabilité toute particulière. Parallèlement, la diminution des précipitations estivales va augmenter les problèmes de sécheresses, ce qui pourrait conduire, par exemple, à une réduction des forêts en Valais central et à un assèchement prématuré des lieux de ponte des amphibiens. Inversement, certaines espèces thermophiles de basses altitudes pourraient profiter des nouvelles conditions en accroissant leur domaine de répartition, comme déjà observé chez certains insectes.En plus des changements climatiques, d'autres facteurs menacent indirectement les espèces. La forte fragmentation du territoire limitera la capacité des espèces à coloniser de nouveaux territoires par manque de connexions entre les milieux favorables. Un climat plus chaud permettra une intensification de l'agriculture en montagne, accompagnée des effets néfastes déjà bien connus en plaine, ou pourrait favoriser certaines maladies. De plus, les printemps plus précoces décaleront le développement de certaines espèces, ce qui pourrait fortement modifier les interactions entre espèces et les chaînes trophiques.Les conséquences des changements climatiques sur la biodiversité dépendront aussi des décisions prises au niveau national et international et des mesures prises pour la protection du climat. Afin de limiter les pertes, il est important de mettre en place des corridors favorisant la colonisation de nouvelles aires par les espèces et d'utiliser les synergies possibles entre protection de la biodiversité et lutte contre les changements climatiques. De plus, le monitoring des espèces les plus sensibles aidera à développer, avant qu'il ne soit trop tard, les mesures complémentaires nécessaires à leur conservation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diarrhée congénitale de sodium est une maladie génétique très rare. Les enfants touchés par cette maladie présentent une diarrhée aqueuse sévère accompagnée d'une perte fécale de sodium et bicarbonates causant une déshydratation hyponatrémique et une acidose métabolique. Des analyses génétiques ont identifié des mutations du gène Spint2 comme cause de cette maladie. Le gène Spint2 code pour un inhibiteur de sérine protéase transmembranaire exprimé dans divers épithéliums tels que ceux du tube digestif ou des tubules rénaux. Le rôle physiologique de Spint2 n'est pas connu. De plus, aucun partenaire physiologique de Spint2 n'a été identifié et le mécanisme d'inhibition par Spint2 nous est peu connu. Le but de ce projet est donc d'obtenir de plus amples informations concernant la fonction et le rôle de Spint2 dans le contexte de la diarrhée congénitale de sodium, cela afin de mieux comprendre la physiopathologie des diarrhées et peut-être d'identifier de nouvelles cibles thérapeutiques. Un test fonctionnel dans les ovocytes de Xenopus a identifié les sérine protéases transmembranaires CAPI et Tmprssl3 comme potentielles cibles de Spint2 dans la mesure où ces deux protéases n'étaient plus bloquées par le mutant de Spint2 Y163C qui est associé avec la diarrhée congénitale de sodium. Des expériences fonctionnelles et biochimiques plus poussées suggèrent que l'inhibition de Tmprssl3 par Spint2 est le résultat d'une interaction complexe entre ces deux protéines. Les effets des sérine protéases transmembranaires sur l'échangeur Na+-H+ NHE3, qui pourrait être impliqué dans la pathogenèse de la diarrhée congénitale de sodium ont aussi été testés. Un clivage spécifique de NHE3 par la sérine protéase transmembranaire Tmprss3 a été observé lors d'expériences biochimiques. Malheureusement, la pertinence physiologique de ces résultats n'a pas pu être évaluée in vivo, étant donné que le modèle de souris knockout conditionnel de Spint2 que nous avons créé ne montrait une réduction de l'expression de Spint2 que de 50% et aucun phénotype. En résumé, ce travail met en évidence deux nouveaux partenaires possibles de Spint2, ainsi qu'une potentielle régulation de NHE3 par des sérine protéases transmembranaires. Des expériences supplémentaires faites dans des modèles animaux et lignées cellulaires sont requises pour évaluer la pertinence physiologique de ces données et pour obtenir de plus amples informations au sujet de Spint2 et de la diarrhée congénitale de sodium. - The congenital sodium diarrhea is a very rare genetic disease. Children affected by this condition suffer from a severe diarrhea characterized by watery stools with a high fecal loss of sodium and bicarbonates, resulting in hyponatremic dehydration and metabolic acidosis. Genetic analyses have identified mutations in the Spint2 gene as a cause of this disease. The spint2 gene encodes a transmembrane serine protease inhibitor expressed in various epithelial tissues including the gastro-intestinal tract and renal tubules. The physiological role of Spint2 is completely unknown. In addition, physiological partners of Spint2 are still to be identified and the mechanism of inhibition by Spint2 remains elusive. Therefore, the aim of this project was to get insights about the function and the role of Spint2 in the context of the congenital sodium diarrhea in order to better understand the pathophysiology of diarrheas and maybe identify new therapeutic targets. A functional assay in Xenopus oocytes identified the membrane-bound serine proteases CAPI and Tmprssl3 as potential targets of Spint2 because both proteases were no longer inhibited by the mutant Spint2 Y163C that has been associated with the congenital diarrhea. Further functional and biochemical experiments suggested that the inhibition of Tmprssl3 by Spint2 occurs though a complex interaction between both proteins. The effects of membrane-bound serine proteases on the Na+-H+ exchanger NHE3, which has been proposed to be involved in the pathogenesis of the congenital sodium diarrhea, were also tested. A specific cleavage of NHE3 by the membrane-bound serine protease Tmprss3 was observed in biochemical experiments. Unfortunately, the physiological relevance of these results could not be assessed in vivo since the conditional Spint2 knockout mouse model that we generated showed a reduction in Spint2 expression of only 50% and displayed no phenotype. Briefly, this work provides two new potential partners of Spint2 and emphasizes a putative regulation of NHE3 by membrane-bound serine proteases. Further work done in animal models and cell lines is required to assess the physiological relevance of these results and to obtain additional data about Spint2 and the congenital diarrhea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Magmas of the arc-tholeiitic and calc-alkaline differentiation suites contribute substantially to the formation of continental crust in subduction zones. Different geochemical-petrological models have been put forward to achieve evolved magmas forming large volumes of tonalitic to granitic plutons, building an important part of the continental crust. Primary magmas produced in the mantle wedge overlying the subducted slab migrate through the mantle and the crust. During the transfer, magma can accumulate in intermediate reservoirs at different levels where crystallization leads to differentiation and the heat transfer from the magma, together with gained heat from solidification, lead to partial melting of the crust. Partial melts can be assimilated and mix with more primitive magma. Moreover, already formed crystal cumulates or crystal mushes can be recycled and reactivated to transfer to higher crustal levels. Magma transport in the crust involves fow through fractures within a brittle elastic rock. The solidified magma filled crack, a dyke, can crosscut previously formed geological structures and thus serves as a relative or absolute time marker. The study area is situated in the Adamello massif. The Adamello massif is a composite of plutons that were emplaced between 42 and 29 million years. A later dyke swarm intruded into the southern part of the Adamello Batholith. A fractionation model covering dyke compositions from picrobasalts to dacites results in the cummulative crystallization of 17% olivine, 2% Cr-rich spinel, 18% clinopyroxene, 41% amphibole, 4% plagioclase and 0.1% magnetite to achieve an andesitic composition out of a hydrous primitive picrobasalt. These rocks show a similar geochemical evolution as experimental data simulating fractional crystallization and associated magma differentiation at lower crustal depth (7-10 kbar). The peraluminous, corundum normative composition is one characteristic of more evolved dacitic magmas, which has been explained in a long lasting debate with two di_erent models. Melting of mafic crust or politic material provides one model, whereas an alternative is fractionation from primary mantle derived melts. Amphibole occurring in basaltic-andesitic and andesitic dyke rocks as fractionating cumulate phase extracted from lower crustal depth (6-7.5 kbar) is driving the magmas to peraluminous, corundum normative compositions, which are represented by tonalites forming most of the Adamello Batholith. Most primitive picrobasaltic dykes have a slightly steepened chondrite normalized rare earth elements (REE) pattern and the increased enrichment of light-REE (LREE) for andesites and dacites can be explained by the fractional crystallization model originating from a picrobasalt, taking the changing fractionating phase assemblage and temperature into account. The injection of hot basaltic magma (~1050°C) in a closely spaced dyke swarm increases the surface of the contact to the mainly tonalitic wallrock. Such a setting induces partial melting of the wall rock and selective assimilation. Partial melting of the tonalite host is further expressed through intrusion breccias from basaltic dykes. Heat conduction models with instantaneous magma injection for such a dyke swarm geometry can explain features of partial melting observed in the field. Geochemical data of minerals and bulk rock further underline the selective or bulk assimilation of the tonalite host rock at upper crustal levels (~2-3 kbar), in particular with regard to light ion lithophile elements (LILE) such as Sr, Ba and Rb. Primitive picrobasalts carry an immiscible felsic assimilant as enclaves that bring along refractory rutile and zircon with textures typically found in oceanic plagiogranites or high pressure/low-temperature metamorphic rocks in general. U-Pb data implies a lower Cretaceous age for zircon not yet described as assimilant in Eocene to Oligocene magmatic rocks of the Central Southern Alps. The distribution of post-plutonic dykes in large batholiths such as the Adamello is one of the key features for understanding the regional stress field during the post-batholith emplacement cooling history. The emplacement of the regional dyke swarm covering the southern part of the Adamello massif was associated with consistent left lateral strike-slip movement along magma dilatation planes, leading to en echelon segmentation of dykes. Through the dilation by magma of pre-existing weaknesses and cracks in an otherwise uniform host rock, the dyke propagation and according orientation in the horizontal plane adjusted continuously perpendicular to least compressive remote stress σ3, resulting in an inferred rotation of the remote principal stress field. Les magmas issus des zones de subduction contribuent substantiellement à la formation de la croûte continentale. Les plutons tonalitiques et granitiques représentent, en effet, une partie importante de la croûte continentale. Des magmas primaires produits dans le 'mantle wedge ', partie du manteau se trouvant au-dessus de la plaque plongeante dans des zones de subduction, migrent à travers le manteau puis la croûte. Pendant ce transfert, le magma peut s'accumuler dans des réservoirs intermédiaires à différentes profondeurs. Le stockage de magma dans ces réservoirs engendre, d'une part, la différentiation des magmas par cristallisation fractionnée et, d'autre part, une fusion partielle la croûte continentale préexistante associée au transfert de la chaleur des magmas vers l'encaissant. Ces liquides magmatiques issus de la croûte peuvent, ensuite, se mélanger avec des magmas primaires. Le transport du magma dans la croûte implique notamment un flux de magma à travers différentes fractures recoupant les roches encaissantes élastiques. Au cours de ce processus de migration, des cumulats de cristaux ou des agrégats de cristaux encore non-solidifiés, peuvent être recyclés et réactivés pour être transportés à des niveaux supérieures de la croûte. Le terrain d'étude est situé dans le massif d'Adamello. Celui-ci est composé de plusieurs plutons mis en place entre 42 et 29 millions d'années. Dans une phase tardive de l'activité magmatique liée à ce batholite, une série de filons de composition variable allant de picrobasalte à des compositions dacitiques s'est mise en place la partie sud du massif. Deux modèles sont proposés dans la littérature, pour expliquer la formation des magmas dacitiques caractérisés par des compositions peralumineux (i.e. à corindon normatif). Le premier modèle propose que ces magmas soient issus de la fusion de matériel mafique et pélitique présent dans la partie inférieur de la croûte, alors que le deuxième modèle suggère une évolution par cristallisation fractionnée à partir de liquides primaires issus du manteau. Un modèle de cristallisation fractionnée a pu être développé pour expliquer l'évolution des filons de l'Adamello. Ce modèle explique la formation des filons dacitiques par la cristallisation fractionnée de 17% olivine, 2% spinelle riche en Cr, 18% clinopyroxène, 41% amphibole, 4% plagioclase et 0.1% magnetite à partir de liquide de compositions picrobasaltiques. Ce modèle prend en considération les contraintes pétrologiques déduites de l'observation des différents filons ainsi que du champ de stabilité des différentes phases en fonction de la température. Ces roches montrent une évolution géochimique similaire aux données expérimentales simulant la cristallisation fractionnée de magmas évoluant à des niveaux inférieurs de la croûte (7-10 kbar). Le modèle montre, en particulier, le rôle prépondérant de l'amphibole, une phase qui contrôle en particulier le caractère peralumineux des magmas différentiés ainsi que leurs compositions en éléments en traces. Des phénomènes de fusion partielle de l'encaissant tonalitique lors de la mise en place de _lons mafiques sont observée sur le terrain. L'injection du magma basaltique chaud (~1050°C) sous forme de filons rapprochés augmente la surface du contact avec l'encaissante tonalitique. Une telle situation produit la fusion partielle des roches encaissantes nécessaire à l'incorporation d'enclaves mafiques observés au sein des tonalites. Pour comprendre les conditions nécessaires pour la fusion partielle des roches encaissantes, des modèles de conduction thermique pour une injection simultanée d'une série de filons ont été développées. Des données géochimiques sur les minéraux et sur les roches totales soulignent qu'au niveau supérieur de la croûte, l'assimilation sélective ou totale de l'encaissante tonalitique modifie la composition du liquide primaire pour les éléments lithophiles tel que le Sr, Ba et Rb. Un autre aspect important concernant la pétrologie des filons de l'Adamello est la présence d'enclaves felsiques dans les filons les plus primitifs. Ces enclaves montrent, en particulier, des textures proches de celles rencontrées dans des plagiogranites océaniques ou dans des roches métamorphiques de haute pression/basse température. Ces enclaves contiennent du zircon et du rutile. La datations de ces zircons à l'aide du géochronomètre U-Pb indique un âge Crétacé inférieur. Cet âge est important, car aucune roche de cet âge n'a été considérée comme un assimilant potentiel pour des roches magmatiques d'âge Eocène à Oligocène dans les Alpes Sud Centrales. La réparation spatiale des filons post-plutoniques dans des grands batholites tel que l'Adamello, est une caractéristique clé pour la compréhension des champs de contraintes lors du refroidissement du batholite. L'orientation des filons va, en particulier, indiqué la contrainte minimal au sein des roches encaissante. La mise en place de la série de filon recoupant la partie Sud du massif de l'Adamello est associée à un décrochement senestre, un décrochement que l'on peut lié aux contraintes tectoniques régionales auxquelles s'ajoutent l'effet de la dilatation produite par la mise en place du batholite lui-même. Ce décrochement senestre produit une segmentation en échelon des filons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME DESTINE AUX NON SCIENTIFIQUESLe diabète est une maladie associée à un excès de glucose (sucre) dans le sang. Le taux de glucose sanguin augmente lorsque l'action d'une hormone, l'insuline, responsable du transport du glucose du sang vers les tissus de l'organisme diminue, ou lorsque les quantités d'insuline à disposition sont inadéquates.L'une des causes communes entre les deux grands types de diabète connus, le type 1 et le type 2, est la disparition des cellules beta du pancréas, spécialisées dans la sécrétion d'insuline, par mort cellulaire programmée aussi appelée apoptose. Alors que dans le diabète de type 1, la destruction des cellules beta est causée par notre propre système immunitaire, dans le diabète de type 2, la mort de ces cellules, est principalement causée par des concentrations élevées de graisses saturés ou de molécules impliquées dans l'inflammation que l'on rencontre en quantités augmentées chez les personnes obèses. Etant donné l'augmentation épidémique du nombre de personnes obèses de par le monde, on estime que le nombre de personnes diabétiques (dont une majorité sont des diabétiques de type 2), va passer de 171 million en l'an 2000, à 366 million en l'an 2030, expliquant la nécessité absolue de mettre au point de nouvelles stratégies thérapeutique pour combattre cette maladie.L'apoptose est un processus complexe dont la dérégulation induit de nombreuses affections allant du cancer jusqu'au diabète. L'activation de caspase 3, une protéine clé contrôlant la mort cellulaire, était connue pour systématiquement mener à la mort cellulaire programmée. Ces dernières années, notre laboratoire a décrit des mécanismes de survie qui sont activés par caspase 3 et qui expliquent sans doute pourquoi son activation ne mène pas systématiquement à la mort cellulaire. Lorsqu'elle est faiblement activée, caspase 3 clive une autre protéine appelée RasGAP en deux protéines plus courtes dont l'une, appelée le fragment Ν a la particularité de protéger les cellules contre l'apoptose.Durant ma thèse, j'ai été impliqué dans divers projets destinés à mieux comprendre comment le fragment Ν protégeait les cellules contre l'apoptose et à savoir s'il pouvait être utilisé comme outil thérapeutique dans les conditions de survenue d'un diabète expérimental. C'est dans ce but que nous avons créé une souris transgénique, appelée RIP-N, exprimant le fragment Ν spécifiquement dans les cellules beta. Comme attendu, les cellules beta de ces souris étaient plus résistantes à la mort induite par des composés connus pour induire le diabète, comme certaines molécules induisant l'inflammation ou les graisses saturées. Nous avons ensuite pu montrer que les souris RIP-N étaient plus résistantes à la survenue d'un diabète expérimental que ce soit par l'injection d'une drogue induisant l'apoptose des cellules beta, que ce soit dans un fond génétique caractérisé par une attaque spontanée des cellules beta par le système immunitaire ou dans le contexte d'un diabète de type 2 induit par l'obésité. Dans plusieurs des modèles animaux étudiés, nous avons pu montrer que le fragment Ν protégeait les cellules en activant une voie protectrice bien connue impliquant successivement les protéines Ras, PI3K et Akt ainsi qu'en bloquant la capacité d'Akt d'activer le facteur NFKB, connu pour être délétère pour la survie de la cellule beta. La capacité qu'a le fragment Ν d'activer Akt tout en prévenant l'activation de NFKB par Akt est par conséquent particulièrement intéressante dans l'intégration des signaux régulant la mort cellulaire dans le contexte de la survenue d'un diabète.La perspective d'utiliser le fragment Ν comme outil thérapeutique dépendra de notre capacité à activer les signaux protecteurs induits par le fragment Ν depuis l'extérieur de la cellule ou de dériver des peptides perméables aux cellules possédant les propriétés du fragment N.2 SUMMARYDiabetes mellitus is an illness associated with excess blood glucose. Blood glucose levels raise when the action of insulin decreases or when insulin is provided in inappropriate amounts. In type 1 diabetes (T1D) as well as in type 2 diabetes (T2D), the insulin secreting beta cells in the pancreas undergo controlled cell death also called apoptosis. Whereas in T1D, beta cells are killed by the immune system, in T2D, they are killed by several factors, among which are increased blood glucose levels, increased levels of harmful lipids or pro-inflammatory cytokines that are released by the dysfunctional fat tissue of obese people. Given the epidemic increase in the number of obese people throughout the world, the number of diabetic people (a majority of which are type 2 diabetes) is estimated to rise from 171 million affected people in the year 2000 to 366 million in 2030 explaining the absolute requirement for new therapies to fight the disease.Apoptosis is a very complex process whose deregulation leads to a wide range of diseases going from cancer to diabetes. Caspase 3 although known as a key molecule controlling apoptosis, has been shown to have various other functions. In the past few years, our laboratory has described a survival mechanism, that takes place at low caspase activity and that might explain how cells that activate their caspases for reasons other than apoptosis survive. In such conditions, caspase 3 cleaves another protein called RasGAP into two shorter proteins, one of which, called fragment N, protects cells from apoptosis.We decided to check whether fragment Ν could be used as a therapeutical tool in the context of diabetes inducing conditions. We thus derived a transgenic mouse line, called RIP-N, in which the expression of fragment Ν is restricted to beta cells. As expected, the beta cells of these mice were more resistant ex-vivo to cell death induced by diabetes inducing factors. We then showed that the RIP-N transgenic mice were resistant to streptozotocin induced diabetes, a mouse model mimicking type 1 diabetes, which correlated to fewer number of apoptotic beta cells in the pancreas of the transgenic mice compared to their controls. The RIP-N transgene also delayed overt diabetes development in the NOD background, a mouse model of autoimmune type 1 diabetes, and delayed the occurrence of obesity induced hyperglycemia in a mouse model of type 2-like diabetes. Interestingly, fragment Ν was mediating its protection by activating the protective Akt kinase, and by blocking the detrimental NFKB factor. Our future ability to activate the protective signals elicited by fragment Ν from the outside of cells or to derive cell permeable peptides bearing the protective properties of fragment Ν might condition our ability to use this protein as a therapeutic tool.3 RESUMELe diabète est une maladie associée à un excès de glucose plasmatique. La glycémie augmente lorsque l'action de l'insuline diminue ou lorsque les quantités d'insuline à disposition sont inadéquates. Dans le diabète de type 1 (D1) comme dans le diabète de type 2 (D2), les cellules beta du pancréas subissent la mort cellulaire programmée aussi appelée apoptose. Alors que dans le D1 les cellules beta sont tuées par le système immunitaire, dans le D2 elles sont tuées par divers facteurs parmi lesquels on trouve des concentrations élevées de glucose, d'acides gras saturés ou de cytokines pro-inflammatoires qui sont sécrétées en concentrations augmentées par le tissu adipeux dysfonctionnel des personnes obèses. Etant donné l'augmentation épidémique du nombre de personnes obèses de par le monde, on estime que le nombre de personnes diabétiques (dont une majorité sont des diabétiques de type 2), va passer de 171 million en l'an 2000, à 366 million en l'an 2030, justifiant la nécessité absolue de mettre au point de nouvelles stratégies thérapeutique pour combattre cette maladie.L'apoptose est un processus complexe dont la dérégulation induit de nombreuses affections allant du cancer jusqu'au diabète. Caspase 3, bien que connue comme étant une protéine clé contrôlant l'apoptose a bien d'autres fonctions démontrées. Ces dernières années, notre laboratoire a décrit un mécanisme de survie qui est activé lorsque caspase 3 est faiblement activée et qui explique probablement comment des cellules qui ont activé leurs caspases pour une autre raison que l'apoptose peuvent survivre. Dans ces conditions, caspase 3 clive une autre protéine appelée RasGAP en deux protéines plus courtes dont l'une, appelée le fragment Ν a la particularité de protéger les cellules contre l'apoptose.Nous avons donc décidé de vérifier si le fragment Ν pouvait être utilisé comme outil thérapeutique dans les conditions de survenue d'un diabète expérimental. Pour se faire, nous avons créé une souris transgénique, appelée RIP-N, exprimant le fragment Ν spécifiquement dans les cellules beta. Comme attendu, les cellules beta de ces souris étaient plus résistantes ex-vivo à la mort induite par des facteurs pro-diabétogènes. Nous avons ensuite pu montrer que les souris RIP-N étaient plus résistantes à la survenue d'un diabète induit par la streptozotocine, un drogue mimant la survenue d'un D1 et que ceci était corrélée à une diminution du nombre de cellules en apoptose dans le pancréas des souris transgéniques comparé à leurs contrôles. L'expression du transgène a aussi eu pour effet de retarder la survenue d'un diabète franc dans le fond génétique NOD, un modèle génétique de diabète de type 1 auto-immun, ainsi que de retarder la survenue d'une hyperglycémie dans un modèle murin de diabète de type 2 induit par l'obésité. Dans plusieurs des modèles animaux étudiés, nous avons pu montrer que le fragment Ν protégeait les cellules en activant la kinase protectrice Akt ainsi qu'en bloquant le facteur délétère NFKB. La perspective d'utiliser le fragment Ν comme outil thérapeutique dépendra de notre capacité à activer les signaux protecteurs induits par le fragment Ν depuis l'extérieur de la cellule ou de dériver des peptides perméables aux cellules possédant les propriétés du fragment

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Le glioblastome (GBM, WHO grade IV) est la tumeur cérébrale primaire la plus fréquente et la plus maligne, son pronostic reste très réservé et sa réponse aux différents traitements limitée. Récemment, une étude clinique randomisée (EORTC 26981/NCIC CE.3) a démontré que le traitement combiné de temozolomide et radiothérapie (RT/TMZ) est le meilleur dans les cas de GBM nouvellement diagnostiqués [1]. Cependant, seul un sous-groupe de patients bénéficie du traitement RT/TMZ et même parmi eux, leur survie reste très limitée. Pour tenter de mieux comprendre les réponses au traitement RT/TMZ, la biologie du GBM, identifier d'autres facteurs de résistance et découvrir de nouvelles cibles aux traitements, nous avons conduit une analyse moléculaire étendue à 73 patients inclus dans cette étude clinique. Nous avons complété les résultats moléculaires déjà obtenus par un profil génomique du nombre de copies par Array Comparative Genomic Hybridization. Afin d'atteindre nos objectifs, nous avons analysé en parallèle les données cliniques des patients et leurs profils moléculaires. Nos résultats confirment des analyses connues dans le domaine des aberrations du nombre de copies (CNA) et de profils du glioblastome. Nous avons observé une bonne corrélation entre le CNA génomique et l'expression de l'ARN messager dans le glioblastome et identifié un nouveau modèle de CNA du chromosome 7 pouvant présenter un intérêt clinique. Nous avons aussi observé par l'analyse du CNA que moins de 10% des glioblastomes conservent leurs mécanismes de suppression de tumeurs p53 et Rb1. Nous avons aussi observé que l'amplification du CDK4 peut constituer un facteur supplémentaire de résistance au traitement RT/TMZ, cette observation nécessite confirmation sur un plus grand nombre d'analyses. Nous avons montré que dans notre analyse des profils moléculaires et cliniques, il n'est pas possible de différencier le GBM à composante oligodendrogliale (GBM-O) du glioblastome. En superposant les profils moléculaires et les modèles expérimentaux in vitro, nous avons identifié WIF-1 comme un gène suppresseur de tumeur probable et une activation du signal WNT dans la pathologie du glioblastome. Ces observations pourraient servir à une meilleure compréhension de cette maladie dans le futur. Abstract : Glioblastoma, (GBM, WHO grade IV) is the most malignant and most frequent primary brain tumor with a very poor prognosis and response to therapy. A recent randomized clinical trial (EORTC26981/NCIC CE.3) established RT/TMZ as the 1St effective chemo-radiation therapy in newly diagnosed GBM [1]. However only a genetic subgroup of patients benefit from RT/TMZ and even in this subgroup overall survival remains very dismal. To explain the observed response to RT/TMZ, have a better understanding of GBM biology, identify other resistance factors and discover new drugable targets a comprehensive molecular analysis was performed in 73 of these GBM trial cohort. We complemented the available molecular data with a genomic copy number profiling by Array Comparative Genomic Hybridization. We proceeded to align the molecular profiles and the Clinical data, to meet our project objectives. Our data confirm known GBM Copy Number Aberrations and profiles. We observed a good correlation of genomic CN and mRNA expression in GBM, and identified new interesting CNA pattern for chromosome 7 with a potential clinical value. We also observed that by copy number aberration data alone, less than 10% of GBM have an intact p53 and Rb1 tumor .suppressor pathways. We equally observed that CDK4 amplification might constitute an additional RT/TMZ resistant factor, an observation that will need confirmation in a larger data set. We show that the molecular and clinical profiles in our data set, does not support the identification of GBM-O as a new entity in GBM. By combining the molecular profiles and in vitro model experiments we identify WIF1 as a potential GBM TSG and an activated WNT signaling as a pathologic event in GBM worth incorporation in attempts to better understand and impact outcome in this disease.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le rythmes circadiens influencent différents paramètres de la physiologie et de la physiopathologie cardiovasculaire. Récemment, une relation entre la taille d'un infarctus et l'heure du jour à laquelle il se produit a été suggérée dans des modèles expérimentaux d'infarctus du myocarde. Le but de cette étude a été de déterminer si les rythmes circadiens pouvaient influencer la gravité d'un infarctus en terme de taille et de mortalité chez les patients hospitalisés pour un infarctus du myocarde avec sus-décalage du segment ST (STEMI) ayant bénéficié d'une intervention coronarienne percutanée primaire (ICPP). Méthode Chez 353 patients consécutifs admis avec un STEMI et traités par ICPP, l'heure à la survenue des symptômes, le pic de créatine kinase (reflet de la taille d'un infarctus) et le suivi à 30 jours ont été collectés. Les patients ont été répartis en 4 groupes en fonction de l'heure de survenue de leurs symptômes (00 :00 - 05h59, 06:00 - 11 59 12 00-17h59 et 18h00-23h59). Résultats Aucune différence statistiquement significative n'a été retrouvée entre les différents groupes en ce qui concerne les caractéristiques des patients ou de leur prise en charge. Après analyse multivariée, nous avons mis en évidence une différence statistiquement significative entre les pics de créatine kinase chez les patients avec survenue des symptômes entre 00 :00 et 05:59, qui étaient plus élevés que les pics de créatine kinase chez les patients avec survenue des symptômes à tout autre moment de la journée (augmentation moyenne de 38,4%, ρ <0.05). A 30 jours, la mortalité des patients avec survenue des symptômes entre 00 :00 et 05:59 était également significativement plus élevé que celle des patients avec survenue à tout autre moment de la journée (p <0.05). Conclusion Notre étude démontre une corrélation indépendante entre la taille d'un infarctus STEMI traité par ICPP et le moment de la journée où les symptômes apparaissent. Ces résultats suggèrent que ce moment devrait être un paramètre important à prendre en compte pour évaluer le pronostic des patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméLa H+-ATPase vacuolaire (V-ATPase) est un complexe enzymatique composé de deux secteurs multimériques (VQ et Vi) dont l'association dans la cellule est réversible. Le secteur intramembranaire de la V-ATPase (V0) interagit physiquement avec des protéines SNARE et stimule la fusion homotypique des vacuoles de la levure (lysosomes), la sécrétion de neurotransmetteurs et d'insuline, la fusion entre phagosome et lysosome ainsi que la sécrétion des corps multivésiculaires par un mécanisme inconnu. Dans cette étude j'ai identifié des résidues d'acides amines situés dans des sous-unités de V0 impliqués dans le mécanisme de fusion des vacuoles mais non essentiels pour l'acidification vacuolaire par la V-ATPase. j'ai utilisé un protocole de mutagenèse aléatoire pour produire des libraries de mutants des sous unités de V0. Ces libraries ont été analysées in vivo afin d'identifier des alleles qui permettent la translocation des protons mais produisent une vacuole fragmentée, phénotype indiquant un défaut dans la fusion membranaire. Les vacuoles des mutants ont été isolées et caractéisées en utilisant une grande variété d'outils biochimiques pour déterminer précisément l'impact des différentes mutations sur l'accomplissement d'événements clés du processus de fusion.J'ai identifié des mutations associées à des défauts spécifiques de la fusion dans plusieurs sous-unités de V0. Dans les protéolipides c, c' et c" ces mutations se concentrent dans la partie cytosolique des domaines transmembranaires. Elles renforcent les associations entre les secteurs de la V-ATPase et entre V0 et les SNAREs. Dans la fusion vacuolaire ces mutations permettent la formation de complexes SNAREs en trans mais inhibent l'induction de la fusion. Par contre, la deletion de la sous- unité d influence les étapes de la fusion qui précèdent la formation des complexes trans-SNAREs. Mes résultats démontrent que V0 joue des rôles différents dans plusieurs étapes de la fusion et que ces fonctions sont liées au système des SNAREs. Ils différencient génétiquement les activités de V0 dans la translocation des protons et dans la fusion et identifient de nombreux résidus importants pour la fusion vacuolaire. De plus, compte tenu de la grande conservation de sequence des protéolipides chez les eukaryotes les mutations identifiées dans cette l'étude apportent de nouvelles informations pour analyser la fonction de V0 dans des organismes multicellulaires pour lesquels la function catalytique de la V-ATPase est essentielle à la survie.Résumé pour le large publicLe transport de protéines et de membranes est important pour maintenir la fonction des organelles dans la cellule. Il s'excerce au niveau des vesicules. La fusion membranaire est un processus élémentaire de ce transport. Pour fusionner deux membranes, il faut la coordination de deux activités: le rapprochement et la déstabiiization des deux membranes. La collaboration d'un ensemble de proteins conservés chez les eukaryotes, est nécessaire pour catalyser ces activités. Les proteins SNAREs sont les protagonistes principaux dans la fusion membranaire. Néanmoins, d'autres protéines, comme des Rab-GTPases et des chaperonnes, sont nécessaires pour permettre ce phénomène de fusion. Toutes ces protéines sont temporairement associées avec les SNAREs et leur fonction dans la fusion membranaire est souvent directement liée à leur activité dans cette association. Le secteur transmembranaire V0 de la V-ATPase rnteragit avec des SNAREs et est essentiel pour la fusion dans une variété de systèmes modèles comme la mouche, la souris et la levure. Le secteur V0 est composé de six protéines différentes. Avec te secteur Va, qui réside dans le cytosol, il forme la V-ATPase dont la fonction principale est l'acidification des organelles par translocation des protons à travers la membrane par un mécanisme ressemblant à celui d'une pompe. V0joue un role dans la fusion membranaire, indépendamment de son activité catalytique liée au pompage des protons, et ce rôle est encore largement méconnu à ce jour. Le but de ma thèse était de mieux comprendre l'implication de V0 dans ce contexte.Pour étudier des activités liées à la V-ATPase, la levure est un excellent modèle d'étude car elle survie à une inactivation de l'enzyme alors que le meme traitement serait léthal pour des organismes multicellulaires. Dans ma thèse j'ai utilisé la fusion homotypique de la vacuole de levure comme système modèle pour étudier le rôle de V0 dans la fusion. J'ai muté des gènes qui encodent des sous- unités de V0 et les ai introduit dans des souches privées des gènes respectifs. Dans les librairies de souches portant différentes versions de ces gènes j'ai cherché des clones exprimant une V-ATPase intacte et fonctionnelle mais qui possèdent une vacuole fragmentée. Le plus souvent, une vacuole fragmentée indique un défaut dans la fusion vacuolaire. Dans les trois types de protéolipides qui composent un cylindre dans le secteur V0, j'ai trouvé des clones avec une vacuole fragmentée. Après avoir isolé les mutations responsable de ce type de morphologie vacuolaire, j'ai isolé les vacuoles de ces clones pour étudier leur activités dans différentes étapes de la fusion vacuolaire. Les résultats de ces analyses mettent en évidence une implication de V0 dans plusieurs étapes de la fusion vacuolaire. Certaines mutations sélectionnées dans mon étude inhibent une étape précoce de la fusion qui inclue la dissociation des complexes SNARE, tandis que d'autres mutations inhibent une étape tardive du processus de fusion qui inclue la transmission d'une force disruptive dans la membrane.AbstractThe membrane-integral V0 sector of the vacuolar H+-ATPase (V-ATPase) interacts with SNARE proteins. V0 stimulates fusion between yeast vacuoles (lysosomes) (Peters et al., 2001b), secretion of neurotransmitters and insulin (Hiesinger et al., 2005a, Sun-Wada et al., 2006a), phagosome-lysosome fusion (Peri and Nusslein-Volhard, 2008) and secretion of multivesicular bodies (Liegeois et al., 2006b) by a yet unknown mechanism. In my thesis, I identified sites in V0 subunits that are involved in yeast vacuole fusion but dispensable for the proton pumping by the V-ATPase. I randomly mutagenized V0 subunits and screened in vivo for mutant alleles that support proton pumping but cause fragmented vacuoles, a phenotype indicative of a fusion defect. Mutant vacuoles were isolated and analyzed in a cell-free system, allowing assay of key events in fusion, such as trans-SNARE pairing, lipid transition and fusion pore opening (Reese et al., 2005b).Mutants with selective fusion defects were found in several V0 subunits. In the proteolipids c, c' and c", critical mutations are concentated in the cytosolic half of the transmembrane domains. These mutations rendered the V-ATPase holoenzyme more stable and modulated V0-SNARE associations. In vacuole fusion critical proteolipid mutations permitted trans-SNARE pairing but impeded the induction of lipid flow between the membranes. Deletion of subunit d, by contrast, influenced early stages of fusion that precede trans-SNARE pairing. My results show that V0 acts in several steps of the fusion process and that its function is intimately connected to the SNARE system. They genetically separate the proton pump and fusion activities of V0 and identify numerous critical residues. Given the high sequence conservation of proteolipids in eukaryotic life, the identified mutations may be helpful in analyzing the fusion function of V0 also in mammalian cells, where V- ATPase pump function is essential for survival.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Detection, analysis and monitoring of slope movements by high-resolution digital elevation modelsSlope movements, such as rockfalls, rockslides, shallow landslides or debris flows, are frequent in many mountainous areas. These natural hazards endanger the inhabitants and infrastructures making it necessary to assess the hazard and risk caused by these phenomena. This PhD thesis explores various approaches using digital elevation models (DEMs) - and particularly high-resolution DEMs created by aerial or terrestrial laser scanning (TLS) - that contribute to the assessment of slope movement hazard at regional and local scales.The regional detection of areas prone to rockfalls and large rockslides uses different morphologic criteria or geometric instability factors derived from DEMs, i.e. the steepness of the slope, the presence of discontinuities, which enable a sliding mechanism, and the denudation potential. The combination of these factors leads to a map of susceptibility to rockfall initiation that is in good agreement with field studies as shown with the example of the Little Mill Campground area (Utah, USA). Another case study in the Illgraben catchment in the Swiss Alps highlighted the link between areas with a high denudation potential and actual rockfall areas.Techniques for a detailed analysis and characterization of slope movements based on high-resolution DEMs have been developed for specific, localized sites, i.e. ancient slide scars, present active instabilities or potential slope instabilities. The analysis of the site's characteristics mainly focuses on rock slopes and includes structural analyses (orientation of discontinuities); estimation of spacing, persistence and roughness of discontinuities; failure mechanisms based on the structural setting; and volume calculations. For the volume estimation a new 3D approach was tested to reconstruct the topography before a landslide or to construct the basal failure surface of an active or potential instability. The rockslides at Åknes, Tafjord and Rundefjellet in western Norway were principally used as study sites to develop and test the different techniques.The monitoring of slope instabilities investigated in this PhD thesis is essentially based on multitemporal (or sequential) high-resolution DEMs, in particular sequential point clouds acquired by TLS. The changes in the topography due to slope movements can be detected and quantified by sequential TLS datasets, notably by shortest distance comparisons revealing the 3D slope movements over the entire region of interest. A detailed analysis of rock slope movements is based on the affine transformation between an initial and a final state of the rock mass and its decomposition into translational and rotational movements. Monitoring using TLS was very successful on the fast-moving Eiger rockslide in the Swiss Alps, but also on the active rockslides of Åknes and Nordnesfjellet (northern Norway). One of the main achievements on the Eiger and Aknes rockslides is to combine the site's morphology and structural setting with the measured slope movements to produce coherent instability models. Both case studies also highlighted a strong control of the structures in the rock mass on the sliding directions. TLS was also used to monitor slope movements in soils, such as landslides in sensitive clays in Québec (Canada), shallow landslides on river banks (Sorge River, Switzerland) and a debris flow channel (Illgraben).The PhD thesis underlines the broad uses of high-resolution DEMs and especially of TLS in the detection, analysis and monitoring of slope movements. Future studies should explore in more depth the different techniques and approaches developed and used in this PhD, improve them and better integrate the findings in current hazard assessment practices and in slope stability models.Résumé Détection, analyse et surveillance de mouvements de versant à l'aide de modèles numériques de terrain de haute résolutionDes mouvements de versant, tels que des chutes de blocs, glissements de terrain ou laves torrentielles, sont fréquents dans des régions montagneuses et mettent en danger les habitants et les infrastructures ce qui rend nécessaire d'évaluer le danger et le risque causé par ces phénomènes naturels. Ce travail de thèse explore diverses approches qui utilisent des modèles numériques de terrain (MNT) et surtout des MNT de haute résolution créés par scanner laser terrestre (SLT) ou aérien - et qui contribuent à l'évaluation du danger de mouvements de versant à l'échelle régionale et locale.La détection régionale de zones propices aux chutes de blocs ou aux éboulements utilise plusieurs critères morphologiques dérivés d'un MNT, tels que la pente, la présence de discontinuités qui permettent un mécanisme de glissement ou le potentiel de dénudation. La combinaison de ces facteurs d'instabilité mène vers une carte de susceptibilité aux chutes de blocs qui est en accord avec des travaux de terrain comme démontré avec l'exemple du Little Mill Campground (Utah, États-Unis). Un autre cas d'étude - l'Illgraben dans les Alpes valaisannes - a mis en évidence le lien entre les zones à fort potentiel de dénudation et les sources effectives de chutes de blocs et d'éboulements.Des techniques pour l'analyse et la caractérisation détaillée de mouvements de versant basées sur des MNT de haute résolution ont été développées pour des sites spécifiques et localisés, comme par exemple des cicatrices d'anciens éboulements et des instabilités actives ou potentielles. Cette analyse se focalise principalement sur des pentes rocheuses et comprend l'analyse structurale (orientation des discontinuités); l'estimation de l'espacement, la persistance et la rugosité des discontinuités; l'établissement des mécanismes de rupture; et le calcul de volumes. Pour cela une nouvelle approche a été testée en rétablissant la topographie antérieure au glissement ou en construisant la surface de rupture d'instabilités actuelles ou potentielles. Les glissements rocheux d'Åknes, Tafjord et Rundefjellet en Norvège ont été surtout utilisés comme cas d'étude pour développer et tester les diverses approches. La surveillance d'instabilités de versant effectuée dans cette thèse de doctorat est essentiellement basée sur des MNT de haute résolution multi-temporels (ou séquentiels), en particulier des nuages de points séquentiels acquis par SLT. Les changements topographiques dus aux mouvements de versant peuvent être détectés et quantifiés sur l'ensemble d'un glissement, notamment par comparaisons des distances les plus courtes entre deux nuages de points. L'analyse détaillée des mouvements est basée sur la transformation affine entre la position initiale et finale d'un bloc et sa décomposition en mouvements translationnels et rotationnels. La surveillance par SLT a démontré son potentiel avec l'effondrement d'un pan de l'Eiger dans les Alpes suisses, mais aussi aux glissements rocheux d'Aknes et Nordnesfjellet en Norvège. Une des principales avancées à l'Eiger et à Aknes est la création de modèles d'instabilité cohérents en combinant la morphologie et l'agencement structural des sites avec les mesures de déplacements. Ces deux cas d'étude ont aussi démontré le fort contrôle des structures existantes dans le massif rocheux sur les directions de glissement. Le SLT a également été utilisé pour surveiller des glissements dans des terrains meubles comme dans les argiles sensibles au Québec (Canada), sur les berges de la rivière Sorge en Suisse et dans le chenal à laves torrentielles de l'Illgraben.Cette thèse de doctorat souligne le vaste champ d'applications des MNT de haute résolution et particulièrement du SLT dans la détection, l'analyse et la surveillance des mouvements de versant. Des études futures devraient explorer plus en profondeur les différentes techniques et approches développées, les améliorer et mieux les intégrer dans des pratiques actuelles d'analyse de danger et surtout dans la modélisation de stabilité des versants.