1000 resultados para Méthode des symétries conditionnelles
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Rapport de synthèse : Introduction : Les premières applications cliniques de la thérapie photodynamique (PDT) remontent à plus d'une vingtaine d'années. Basée sur l'activation d'un médicament photosensibilisateur par une source lumineuse à une longueur d'onde spécifique, la PDT permet la destruction sélective de tissus contenant le produit actif. Ce procédé a été expérimenté dans le traitement de cancers en raison de la propriété du médicament à se concentrer dans les tumeurs tout en épargnant les structures normales contigües. Cependant, les photosensibilisateurs utilisés jusqu'à ce jour n'ont pas démontré une accumulation exclusive dans les tissus néoplasiques mais également dans les structures saines avoisinantes induisant une destruction tissulaire non sélective. Notamment, d'importantes complications ont été rapportées suite à l'utilisation de la PDT dans la cavité thoracique après la résection de mésothéliomes pleuraux, et ce malgré l'arrivée de photosensibilisateurs de secondes générations. De ce fait, plusieurs études expérimentales ont été menées afin d'améliorer la sélectivité tumorale du médicament en modulant différentes conditions de traitement et en modifiant la structure du photosensibilisateur par pégylation. Le but de cette étude expérimentale est de corréler l'activité photodynamique, la phototoxicité et la distribution du m-tetrahydroxyphenylchlorin (mTHPC) et de sa forme pégylée, le PEG-mTHPC. De ce fait, un modèle de souris nues porteur de xenogreffes de mésothéliome humain a été utilisé pour étudier les deux photosensibilisateurs. De récents travaux avec ce modèle ont montré que la mesure de la concentration tissulaire du mTHPC et de sa forme pégylée par HPLC restait limitée afin de prédire l'activité photodynamique. De ce fait, nous pensons que les mesures de fluorescence peuvent être plus appropriée. Le signalement fluorescent est mesuré dans le tissu tumoral et dans une région contrôle de la peau afin d'étudier la distribution et l'intensité des deux sensibilisateurs. Méthode : Des souris nues (cd1nu/nu mice) de 8 semaines ont été transplantées avec des fragments de mésothéliome malin humain (H-meso-1). Ces derniers ont été obtenus à partir d'une suspension cellulaire. Au moins trois passages ont été faits dans les animaux, avant que le traitement soit initié. Deux groupes de 6 souris chacun ont été utilisés pour l'injection intraveineuse par la queue du mTHPC à 0.15 mg/kg et du PEG-mTHPC à dose équimolaire. Après trois jour, la tumeur ainsi qu'une région contrôle de la cuisse ont été illuminées sur une surface d'un diamètre de 1.2 cm et pendant 133 secondes avec un laser à une longueur d'onde à 652 nm (fluence 20 J/cm2, fluence rate 150 mW/cm2). Les animaux ont été ensuite sacrifiés 72 heures après l'illumination. L'étendue de la nécrose tumorale et de la région contrôle ont été déterminées en aveugle par histomorphometrie par un pathologue (HJA). La fluorescence microscopique a été évaluée dans 12 souris à une concentration de 0.15 et 0.5 mg/kg pour le mTHPC, et à doses équimolaires pour le PEG-mTHPC. Trois animaux ont été injectés avec le mTHPC à 0.15 mg/kg, 3 autres à dose équimolaire avec la forme pégylée et 6 souris avec le mTHPC à 0.5 mg/kg et à dose équimolaire. Les animaux ont été sacrifiés 72 heures après injection. L'intensité fluorescente des sensibilisateurs a été mesurée dans la tumeur et la région contrôle. Suite à cela, les coupes ont été fixées par H&E et superposées aux images fluorescentes, afin de localiser la distribution des deux photosensibilisateurs dans les différents compartiments tissulaires. Six souris transplantées n'ayant ni été injectées avec les sensibilisateurs ou illuminées ont servi de groupe contrôle. Résultats : Trois jours après l'illumination, la PDT provoque une nécrose tumorale de 10 ±5.4 mm2 pour le mTHPC à 0.15mg/kg et 5.2 ± 4.6 mm2 pour sa forme pégylée à dose équimolaire. Cependant, la nécrose tumorale induite par les deux formulations du sensibilisateur est significativement plus élevée que dans le groupe contrôle (0.33 ± 0.58 mm2) (P=0.02). Toutefois, le mTHPC pégylé provoque une photosensibilité cutanée moins importante que la forme non-pegylée. Dans les deux groupes, aucune nécrose n'a été observée dans la cuisse des animaux. Trois jours après l'injection du mTHPC et de la forme pégylée à 0.15 mg/kg, aucune activité fluorescente n'a été détectée. Cependant, à 0.5 mg/kg, la fluorescence microscopique révèle une distribution hétérogène des deux photo-sensibilisateurs dans le tissu tumoral avec une accumulation prédominante dans les régions peri-vasculaires. Les deux médicaments montrent une distribution intracellulaire homogène dans le cytoplasme et une absence de signalement dans le nucleus. La mesure de l'intensité fluorescente du mTHPC à 0.5mg/kg ne montre pas de différence significative entre le tissu tumoral et la région contrôle. Par contre, le PEG-mTHPC montre une intensité fluorescente supérieure dans le tissu tumoral que dans la peau (ratio tumeur- peau 0.94 pour le mTHPC et 1.73 pour le PEG-mTHPC). Conclusion : L'utilisation du mTHPC à 0.15mg/kg induit une nécrose tumorale similaire à celle du PEG-mTHPC à dose équimolaire. Cependant, ce dernier démontre une photo-toxicité plus atténuée de la peau. La fluorescence microscopique permet de localiser les deux sensibilisateurs dans les différents compartiments tissulaires à partir d'une dose de 0.5 mg/kg. Le PEG-mTHPC induit un signalement fluorescent supérieur dans le tissu tumoral par rapport à la peau. La mesure du signalement fluorescent a le potentiel de prédire l'activité photodynamique du mTHPC et de sa forme pégylée dans les xénogreffes de mésothéliome humain dans un modèle de souris nue.
Resumo:
Highly diverse radiolarian faunas of latest Maastrichtian to early Eocene age have been recovered from the low latitude realm in order to contribute to the clarification of radiolarian taxonomy, construct a zonation based on a discrete sequence of co-existence intervals of species ranging from the late Paleocene to early Eocene and to describe a rich low latitude latest Cretaceous to late Paleocene fauna. 225 samples of late Paleocene to early Eocene age have been collected from ODP Leg 171 B-Hole 1051 A (Blake Nose), DSDP Leg 43-Site 384 (Northwest Atlantic) and DSDP Leg 10-Sites 86, 94, 95, 96. Sequences consist of mainly pelagic oozes and chalks, with some clay and ash layers. A new imaging technique is devised to perform (in particular on topotypic material) both transmitted light microscopy and SEM imaging on individual radiolarian specimens. SEM precedes transmitted light imaging. Radiolarians are adhered to a cover slip (using nail varnish) which is secured to a stub using conductive levers. Specimens are then photographed in low vacuum (40-50Pa; 0.5mbar), which enables charge neutralization by ionized molecules of the chamber atmosphere. Thus gold coating is avoided and subsequently this allows transmitted light imaging to follow. The conductive levers are unscrewed and the cover slip is simply overturned and mounted with Canada balsam. In an attempt towards a post-Haeckelian classification, the initial spicule (Entactinaria), micro- or macrosphere (Spumellaria) and initial spicule and cephalis (Nassellaria) have been studied by slicing Entactinaria and Spumellaria, and by tilting Nassellaria in the SEM chamber. A new genus of the family Coccodiscidae is erected and Spongatractus HAECKEL is re-located to the subfamily Axopruinae. The biochronology has been carried out using the Unitary Association Method (Guex 1977, 1991). A database recording the occurrences of 112 species has been used to establish a succession of 22 Unitary Associations. Each association is correlated to chronostratigraphy via calcareous microfossils that were previously studied by other authors. The 22 UAs have been united into seven Unitary Associations Zones (UAZones) (JP10- JE4). The established zones permit to distinguish supplementary subdivisions within the existing zonation. The low-latitude Paleocene radiolarian zonation established by Sanfilippo and Nigrini (1998a) is incomplete due to the lack of radiolarian-bearing early Paleocene sediments. In order to contribute to the study of sparsely known low latitude early Paleocene faunas, 80 samples were taken from the highly siliceous Guayaquil Formation (Ecuador). The sequence consists of black cherts, shales, siliceous limestones and volcanic ash layers. The carbonate content increases up section. Age control is supplied by sporadic occurrences of silicified planktonic foraminifera casts. One Cretaceous zone and seven Paleocene zones have been identified. The existing zonation for the South Pacific can be applied to the early-early late Paleocene sequence, although certain marker species have significantly shorter ranges (notably Buryella foremanae and B. granulata). Despite missing marker species in the late Paleocene, faunal distribution correlates reasonably to the Low-Latitude zonation. An assemblage highly abundant in Lithomelissa, Lophophaena and Cycladophora in the upper RP6 zone (correlated by the presence of Pterocodon poculum, Circodiscus circularis, Pterocodon? sp. aff. P. tenellus and Stylotrochus nitidus) shows a close affinity to contemporaneous faunas reported from Site 1121, Campbell Plateau. Coupled with a high diatom abundance (notably Aulacodiscus spp. and Arachnoidiscus spp.), these faunas are interpreted as reflecting a period of enhanced biosiliceous productivity during the late Paleocene. The youngest sample is void of radiolarians, diatoms and sponge spicules yet contains many pyritized infaunal benthic foraminifera which are akin to the midway-type fauna. The presence of this fauna suggests deposition in a neritic environment. This is in contrast to the inferred bathyal slope depositional environment of the older Paleocene sediments and suggests a shoaling of the depositional environment which may be related to a coeval major accretionary event. RESUME DE LA THESE Des faunes de radiolaires de basses latitudes très diversifiées d'âge Maastrichtien terminal à Eocène inférieur, ont été étudiées afin de contribuer à la clarification de leur taxonomie, de construire une biozonation basée sur une séquence discrète d'intervalles de coexistence des espèces d'age Paléocène supérieur à Eocène inférieur et de décrire une riche faune de basse latitude allant du Crétacé terminal au Paléocène supérieur. L'étude de cette faune contribue particulièrement à la connaissance des insaisissables radiolaires de basses latitudes du Paléocène inférieur. 225 échantillons d'âge Paléocène supérieur à Eocène inférieur provenant des ODP Leg 171B-Site 1051A (Blake Nose), Leg DSDP 43-Site 384 (Atlantique Nord -Ouest) et des DSDP Leg 10 -Sites 86, 94, 95, 96, ont été étudiés. Ces séquences sont constituées principalement de « ooze » et de « chalks »pélagiques ainsi que de quelques niveaux de cendres et d'argiles. Une nouvelle technique d'imagerie a été conçue afin de pouvoir prendre conjointement des images en lumière transmise et au Microscope Electronique à Balayage (MEB) de spécimens individuels. Ceci à été particulièrement appliqué à l'étude des topotypes. L'imagerie MEB précède l'imagerie en lumière transmise. Les radiolaires sont collés sur une lame pour micropaléontologie (au moyen de vernis à ongles) qui est ensuite fixée à un porte-objet à l'aide de bras métalliques conducteurs. Les spécimens sont ensuite photographiés en vide partiel (40-50Pa; 0.5mbar), ce qui permet la neutralisation des charges électrostatiques dues à la présence de molécules ionisées dans l'atmosphère de la chambre d'observation. Ainsi la métallisation de l'échantillon avec de l'or n'est plus nécessaire et ceci permet l'observation ultérieure en lumière transmise. Les bras conducteurs sont ensuite dévissés et la lame est simplement retournée et immergée dans du baume du Canada. Dans une approche de classification post Haeckelienne, le spicule initial (Entactinaires), la micro- ou macro -sphère (Spumellaires) et le spicule initial et cephalis (Nassellaires) ont été étudiés. Ceci a nécessité le sectionnement d'Entactinaires et de Spumellaires, et de pivoter les Nassellaires dans la chambre d'observation du MEB. Un nouveau genre de la Famille des Coccodiscidae a été érigé et Spongatractus HAECKEL à été réassigné à la sous-famille des Axopruninae. L'analyse biostratigraphique à été effectuée à l'aide de la méthode des Associations Unitaires {Guex 1977, 1991). Une base de données enregistrant les présences de 112 espèces à été utilisée poux établir une succession de 22 Associations Unitaires. Chaque association est corrélée à la chronostratigraphie au moyen de microfossiles calcaires précédemment étudiés par d'autres auteurs. Les 22 UAs ont été combinées en sept Zones d'Associations Unitaires (UAZones) (JP10- JE4). Ces Zones permettent d'insérer des subdivisions supplémentaires dans la zonation actuelle. La zonation de basses latitudes du Paléocène établie par Sanfilippo et Nigrini (1998a) est incomplète due au manque de sédiments du Paléocène inférieur contenant des radiolaires. Afin de contribuer à l'étude des faunes peu connues des basses latitudes du Paléocène inférieur, 80 échantillons ont été prélevés d'une section siliceuse de la Formation de Guayaquil (Equateur). La séquence est composée de cherts noirs, de shales, de calcaires siliceux et de couches de cendres volcaniques. La fraction carbonatée augmente vers le haut de la section. Des contraintes chronologiques sont fournies par la présence sporadique de moules de foraminifères planctoniques. Une zone d'intervalles du Crétacé et sept du Paléocène ont été mises en évidence. Bien que certaines espèces marqueur ont des distributions remarquablement plus courtes (notamment Buryella foremanae et B. granulata), la zonation existante pour le Pacifique Sud est applicable à la séquence d'age Paléocène inférieure à Paléocène supérieur basal étudiée. Malgré l'absence d'espèces marqueur du Paléocène supérieur, la succession faunistique se corrèle raisonnablement avec la zonation pour les basses latitudes. Un assemblage contenant d'abondants représentant du genre Lithomelissa, Lophophaena et Cycladophora dans la zone RP6 (correlée par la présence de Pterocodon poculum, Circodiscus circularis, Pterocodon? sp. aff. P. tenellus et Stylotrochus nitidus) montre une grande similitude avec certaines faunes issues des hauts latitudes et d'age semblable décrites par Hollis (2002, Site 1121, Campbell Plateau). Ceci, en plus d'une abondance importante en diatomés (notamment Aulacodiscus spp. et Arachnoidiscus spp.) nous mènent à interpréter cette faune comme témoin d'un épisode de productivité biosiliceuse accrue dans le Paléocène supérieur. L'échantillon le plus jeune, dépourvu de radiolaires, de diatomés et de spicules d'éponge contient de nombreux foraminifères benthiques infaunaux pyritisés. Les espèces identifiées sont caractéristiques d'une faune de type midway. La présence de ces foraminifères suggère un environnement de type néritique. Ceci est en contraste avec l'environnement de pente bathyale caractérisent les sédiments sous-jacent. Cette séquence de diminution de la tranche d'eau peut être associée à un événement d'accrétion majeure. RESUME DE LA THESE (POUR LE GRAND PUBLIC) Les radiolaires constituent le groupe de plancton marin le plus divers et le plus largement répandu de l'enregistrement fossile. Un taux d'évolution rapide et une variation géographique considérable des populations font des radiolaires un outil de recherche sans égal pour la biostratigraphie et la paléocéanographie. Néanmoins, avant de pouvoir les utiliser comme outils de travail, il est essentiel d'établir une solide base taxonomique. L'étude des Radiolaires peut impliquer plusieurs techniques d'extraction, d'observation et d'imagerie qui sont dépendantes du degré d'altération diagénétique des spécimens. Le squelette initial, qu'il s'agisse d'un spicule initial (Entactinaria), d'une micro- ou macro -sphère (Spumellaria) ou d'un spicule initial et d'un cephalis (Nassellaria), est l'élément le plus constant au cours de l'évolution et devrait représenter le fondement de la systématique. Des échantillons provenant de carottes de basses latitudes du Deep Sea Drilling Project et de l' Ocean Drilling ont été étudiés. De nouvelles techniques d'imagerie et de sectionnement ont été développées sur des topotypes de radiolaires préservés en opale, dans le but d'étudier les caractéristiques de leur squelette initial qui n'étaient pas visibles dans leur illustration originale. Ceci aide entre autre à comparer des spécimens recristallisés en quartz, provenant de terrains accrétés, avec les holotypes en opale de la littérature. La distribution des espèces étudiés a fourni des données biostratigraphiques qui ont été compilées à l'aide de la méthode des Associations Unitaires (Guez 1977, 1991). Il s'agit d'un modèle mathématique déterministe conçu pour exploiter la totalité de l'assemblage plutôt que de se confiner à l'utilisation de taxons marqueurs individuels. Une séquence de 22 Associations Unitaires a été établie pour la période allant du Paléocène supérieur à l'Éocène inférieur. Chaque Association Unitaire a été corrélée à l'échelle de temps absolue à l'aide de microfossiles calcaires. Les 22 UAs ont été combinées en sept Zones d'Associations Unitaires (JP10- JE4). Ces Zones permettent d'insérer des subdivisions supplémentaires dans la zonation actuelle. Les radiolaires du Paléocène inférieur à moyen des basses latitudes sont rares. Les meilleures sections connues se trouvent dans les hautes latitudes (Nouvelle Zélande). Quelques assemblages épars ont été mentionnés par le passé en Californie, en Équateur et en Russie. Une séquence siliceuse de 190 mètres dans la Formation de Guayaquil (Équateur), s'étendant du Maastrichtien supérieur au Paléocène supérieur, a fourni des faunes relativement bien préservées. L'étude de ces faunes a permis de mettre en évidence la première séquence complète de radiolaires de basses latitudes dans le Paléocène inférieure. Huit zones allant du Crétacé terminal au Paléocène supérieur ont pu être appliqués et la présence de foraminifères planctoniques a fournie plusieurs points d'attache chronologiques. Dans le Paléocène supérieur, un riche assemblage contenant d'abondants diatomés et radiolaires ayant des similitudes faunistiques marquantes avec des assemblages de hautes latitudes de Nouvelle Zélande, témoigne d'un épisode de productivité biosiliceuse accrue pendant cette période. Étant donné que la pointe du continent sud-américain et l'Antarctique étaient plus proches au cours du Paléocène, ce phénomène peut être expliqué par le transport, le long de la côte ouest de l'Amérique du Sud, d'eaux riches en nutriments en provenance de l'Océan Antarctique. Suite à cet épisode, l'enregistrement en radiolaires est interrompu. Ceci peut être associé à des événements tectoniques régionaux qui ont eu pour effet de diminuer la tranche d'eau relative, rendant l'environnement plus favorable aux foraminifères benthiques qui sont abondamment présents dans l'échantillon le plus jeune de la séquence.
Resumo:
Enjeux et contexte La recherche de cette dernière décennie sur les acides gras n-3 PUFA contenus dans l'huile de poisson a montré que ceux-ci, et particulièrement l'ΕΡΑ et le DHA, avaient des propriétés anti¬inflammatoires et anti arythmiques puissantes, potentiellement utiles chez les septiques et « cardiaques ». Les mécanismes sous-jacents sont nombreux, incluant l'incorporation des acides gras dans les membranes de phopholipides, la réduction de la production de médiateurs pro-inflammatoires (prostaglandines, leukotrienes, thromboxane), l'augmentation de la production de résolvines et protectines dérivées du DHA, et la régulation de voies de signalisation cellulaire. Cependant, les doses de n-3 PUFA utilisées dans les études cliniques et chez le sujet sain avant le travail de Yann-Karim Pittet étaient nettement supérieures aux doses nutritionnelles de l'ordre de 5-8 g/j par voie orale ou 1 g/kg par voie intraveineuse. De plus, la voie entérale avait la réputation de nécessiter plusieurs jours à semaines de traitement avant d'aboutir à une incorporation d'acides gras membranaire suffisante pour avoir un impact clinique; quant au temps minimal requis pour obtenir cet effet par voie IV, il était inconnu. Depuis, le développement d'émulsions lipidiques intraveineuses destinées à la nutrition parentérale a permis d'imaginer l'administration de prétraitements IV rapides. Pour les étudier, notre laboratoire a développé un modèle d'endotoxine (LPS d'E.Coli) qui mime les réponses physiologique, endocrinienne et biologique du sepsis chez le sujet sain, utilisant des doses de 2 ng/kg IV. Les réponses sont totalement réversibles en 8 heures. Dans le but de réduire à la fois la dose de lipides et le temps de perfusion, ce travail a étudié l'influence de 3 doses dégressives de n-3 PUFA sur les réponses à l'endotoxine, et sur l'incorporation membranaire de ces acides gras. Méthodes Etude prospective chez 3 groupes consécutifs de sujets sains soumis à un challenge d'endotoxine. Intervention : perfusions d'huile de poisson (0.5 et 0.2 g/kg de n-3 PUFA, Omegaven® 10%) ou placebo, administrées en 3 heures ou en 1 heure, soit le jour avant ou le jour-même du test d'endotoxine. Mesures : variables physiologiques (T°, fc, tension artérielle, calorimétrie indirecte) Laboratoire - prises de sang à T0, 60, 120 et 360 min après l'injection de LPS: TNF-α, hs-CRP, hormones de stress, composition en acides gras des membranes plaquettaires. Statistiques Les résultats ont été rapportés en moyennes et écarts types. Des aires sous la courbe (AUC) ont été calculées avec la méthode des parallélépipèdes pour toutes les variables déterminées de manière répétée. L'effet du temps a été exploré par des two-way ANOVA pour mesures répétées. Les comparaisons post-hoc ont été réalisées avec des tests de Dunnett's ou de Scheffe. Les modifications de composition membranaires ainsi que les AUC ont été analysées par des tests non-paramétriques (Kruskal-Wallis). Résultats Après LPS, la température, les concentrations d'ACTH et TNF-α ont augmenté dans les 3 groupes. Ces réponse ont été significativement atténuées (p<0.0001) par l'huile de poisson comparé à ce que nous avions observé dans le groupe contrôle de Pluess et al (ICM 2007). Les concentrations les plus faibles d'ACTH, de TNF-α, et les AUC les plus basses des températures, ont été observées après une dose unique de 0.2 g/kg de n-3 PUFA administrée 1 heure avant le LPS. Par contre, l'incorporation membranaire d'EPA est dose-dépendante. Conclusions Sachant que la réponse à l'endotoxine est reproductible, cette étude montre que 3 doses différentes d'huile de poisson atténuent de manière différente cette réponse. La perfusion de 0.2 g/kg administrée juste avant l'endotoxine s'est avérée la plus efficace à atténuer la réponse fébrile, les cytokines et les hormones de stress, suggérant une capture de l'endotoxine par l'émulsion lipidique qui se surajoute aux effets systémiques et membranaires.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
RESUME Les nombreuses mines de plomb et d'argent du Valais témoignent d'une activité minière importante par le passé, sans toutefois dévoiler ni l'importance des minéralisations, ni l'ancienneté de l'exploitation. La présente recherche a pour but de comprendre pourquoi les grandes mines sont concentrées dans une région, et de déterminer la chronologie de leur exploitation. L'originalité de ce travail réside dans son interdisciplinarité, plus précisément dans l'application des méthodes minéralogiques pour résoudre une problématique historique. Afin d'évaluer les ressources minières en plomb et en argent du Valais, 57 mines et indices ont été repérés et échantillonnés. Les signatures isotopiques du Pb (74 analyses) et les compositions chimiques élémentaires (45 analyses) ont été déterminées. Les plus grandes exploitations se situent dans la nappe de Siviez-Mischabel, au Sud d'une ligne Vallée du Rhône / Val de Bagnes ainsi que dans le Lötschental. Elles sont liées, d'après leur signature isotopique de plomb, à des minéralisations d'âge calédonien (408 à 387 Ma) ou tardi-hercynien (333 à 286 Ma). À ces périodes, l'ancien continent est très lourd et subit une subsidence thermique. Des premières fractures d'extrême importance se forment. Comme il s'agit d'accidents tectoniques majeurs, des gisements de grande extension peuvent se former dans ce contexte. D'autres minéralisations se situent dans les domaines helvétiques (Massif des Aiguilles Rouges, Massif du Mont Blanc et couverture sédimentaire), couvrant une région au Nord de la Vallée du Rhône et du Val d'Entremont. D'âge post-hercynien à tardi-alpin (notons qu'il n'y a pas de minéralisations d'âge tertiaire), elles sont pour la plupart liées à des intrusions granitiques, sources de plomb juvénile. Les mines situées dans ces unités tectoniques sont nettement moins étendues que celles de la nappe de Siviez-Mischabel, ce qui permet de penser que les minéralisations correspondantes le sont également. Les périodes d'exploitation des mines peuvent être déterminées par quatre approches différentes l'archéologie minière, la lecture des textes historiques, l'étude des déchets métallurgiques et la comparaison de la signature isotopique du plomb, que l'on mesure dans un objet archéologique bien daté (monnaie, bijoux etc.), avec celles des minerais. Cette dernière méthode a été appliquée et développée dans le cadre de la présente recherche. Pour ce faire, 221 échantillons d'objet en plomb ou en argent datés entre l'Âge du Fer et le Moyen Age ont été analysés par la méthode des isotopes de plomb et comparés à environ 1800 signatures isotopiques de minerais des gisements les plus importants en Suisse et en Europe. Avant l'époque romaine et jusqu'au 1 er siècle de cette époque, le plomb provient principalement des mines de la péninsule ibérique alors en pleine activité. Un apport des mines d'Europe tempérée, notamment des Vosges, reste à confirmer. A partir du 1" siècle de notre ère, le plomb a principalement été importé en Suisse occidentale de grands centres de productions situées en Allemagne du Nord (région d'Eifel). Les mines de plomb valaisannes, notamment celles de Siviez, débutent leur exploitation en même temps, principalement pour couvrir les besoins locaux, mais également pour l'exportation jusque dans l'arc lémanique et, dans une moindre importance, au-delà. À partir du 4ème siècle, le besoin en plomb a été couvert par un apport des mines locales et par la refonte d'objets anciens. Ce changement d'approvisionnement est probablement lié aux tensions créées par les invasions germaniques durant la seconde moitié du 3' siècle ; le marché suisse n'est dès lors plus approvisionné par le nord, c'est-à-dire par la vallée du Rhin. Quant à l'argent, l'exploitation de ce métal est attestée à partir de la fin du La Tène, peu après l'apparition de ce métal dans la région valaisanne. L'échantillonnage ne couvrant pas l'époque romaine, rien n'est connu pour cette période. A partir du 5" siècle, une exploitation d'argent est de nouveau attestée. Cependant, l'exploitation d'argent des mines locales ne gagne en importance qu'à partir du Moyen Âge avec les frappes monétaires, notamment les frappes carolingiennes et épiscopales valaisannes. Les sources d'argent sont différentes selon leur utilisation : à part quelques exceptions notamment vers la fin du La Tène et au tardo-antique, les bijoux et objets de cultes ont été souvent créés à partir d'argent refondu, contrairement aux monnaies pour lesquelles l'argent provient des mines locales. On note un approvisionnement différent de ce métal pour les objets, notamment les monnaies, selon leur lieu de fabrication : on peut clairement distinguer les objets valaisans de ceux du Plateau Suisse. SUMMARY The many lead and silver mines of the Valais testify of an important mining activity in the past, without however revealing neither the importance of the mineralizations, nor the era of the exploitation. The purpose of this research is to understand why the large mines are concentrated in one region, and to determine the history of their exploitation. The uniqueness of this work lies in its interdisciplinarity, more precisely in the application of mineralogical methods to solve historical problems. In order to evaluate the lead and silver mining resources of the Valais region, 57 mines and ore deposits were located and sampled. The isotope signatures of Pb (74 analyses) and the compositions of the chemical elements (45 analyses) were determined. The largest activities are in the Siviez-Mischabel area, located in the South of the boundary formed by the Rhone, Bagnes and Lotschental valleys. According to their lead isotope signatures, they are linked to mineralizations of the Caledonian (408 to 387 my) or tardi-Hercynian (333 to 286 my) orogenies. In those times, the old continent was very heavy and underwent a thermal subsidence. First fractures of great significance were formed. Through these major tectonic events, large extended ore deposits can be formed. Other mineralizations are found in the helvetic regions situated north of the Rhone and the Entremont valley (the Aiguilles Rouges basement, Mount Blanc basement and the covering sediment). Because they are from post-hercynien to tardi-alpine age (there are no mineralizations of tertiary age), they are mainly linked to granite intrusions, the sources of juvenile lead. The mines found in these tectonic units are significantly less extensive than those of the Siviez-Mischabel area, leading to the assumption that the respective mineralizations extend accordingly. The history of exploitation of the mines can be determined by four different sources: mining archaeology, historical texts, metallurgical waste, and the comparison of the isotope signature of the lead from accurately dated archaeological objects (currency, jewels etc), with those of the ores. This last approach was applied and developed within the framework of this research. The lead isotope signatures of 221 lead or silver objects from the Iron Age to the Middle Age were compared with approximately 1800 samples of ore of the most important ore deposits in Switzerland and Europe. Before the Roman time up to the 1st century, lead comes mainly from the mines of the Iberian Peninsula then in full activity. A contribution of the mines of Central Europe, in particular of the Vosges, remains to be confirmed. From the 1st century on, lead was mainly imported into Western Switzerland from Northern Germany (Eiffel region). The lead mines in the Valais region, in particular those of Siviez, begin their exploitation at the same time, mainly to meet the local needs, but also for export to the lemanic basin and of lesser importance, beyond. As from the 4th century, the need of lead was met by the production from local mines and the recycling of old objects. This change of supply is probably related to the tensions created by the Germanic invasions during second half of the 3rd century; as a consequence, the Swiss market is not supplied any more by the north, i.e. the Rhine valley. Silver production is confirmed starting from the end of La Tene, shortly after the appearance of this metal in the Valais region. Since no objects of Roman origin were analyzed, nothing is known for this period. From the 5th century on, silver production is again confirmed. However, significant silver production from local mines starts only in the Middle Age with the coinage, in particular Carolingian and Episcopal minting from the Valais region. The sources of silver differ according to their use: besides some exceptions in particular towards the end of La Tene and the tardi-Roman, the jewels and objects of worships were often created from recycled silver, contrary to the coins the silver for which comes from the local mines. A different source of silver is observed according to the location of coin manufacture: Objects originating from the Valais region are clearly distinguished from those from the Plateau Suisse. ZUSAMMENFASSUNG Die grosse Zahl von Blei- und Silberminen im Wallis ist Zeugnis einer bedeutenden Bergbautätigkeit, es fehlen aber Hinweise über ihren Umfang und den Zeitraum ihrer Ausbeutung. Die vorliegende Arbeit sucht zu ergründen, warum grosse Minen sich in einer eng begrenzten Region häufen und in welchem Zeitraum sie genutzt wurden. Die Besonderheit der Studie liegt in ihrer Interdisziplinarität, genauer in der Anwendung von mineralogischen Methoden zur Beantwortung historischer Fragestellungen. Zur Beurteilung der Lagerstätten wurden von 57 Minen und Aufschlüssen Proben entnommen oder Nachweise erbracht und mittels 74 Isotopen-Analysen von Blei und 45 chemischen Gesamtanalysen ausgewertet. Die wichtigsten Vorkommen liegen in der Siviez- Mischabel- Decke südlich der Linie Rhonetal- Val de Bagnes, sowie im Lötschental. Die Bleiisotopen- Alter weisen ihre Entstehung der kaledonischen (408 - 387 Mio. J.) oder der spät- herzynischen (333 - 286 Mio. J.) Gebirgsbildungsphase zu. In dieser Periode ist die kompakte Landmasse sehr schwer und erfairt eine thermische Absenkung. Es bilden sich tektonische Brüche von kontinentaler Ausdehnung. Die grossen tektonischen Bewegungen ermöglichen die Bildung von ausgedehnten Lagerstätten. Andere Vorkommen finden sich im Bereich der Helvetischen Alpen (Aiguilles Rouges Massiv, Mont-Blanc-Massiv und Sediment-Decken) im Gebiet nördlich des Rhonetales bis zum Val d'Entremont. Altersmässig sind sie der nach-hercynischen bis zur spät-alpidischen Orogenese zuzuweisen (auffällig ist das Fehlen von Vorkommen im Tertiär) und haben sich meist in der Folge von Granit- Intrusion, dem Ursprung von primärem Blei ausgebildet. Die Bergwerke in diesem Bereich sind deutlich weniger ausgedehnt als jene in der Siviez-Mischabel-Decke und entsprechen wahrscheinlich dem geringen Umfang der zugehörigen Vorkommen. Die Nutzungsperioden der Minen können mit vier verschiedenen Methoden bestimmt werden: Minenarchäologie, Historische Quellen, Auswertung von metallischen Abfällen (Schlacken) und Vergleich der Bleiisotopen-Zusammensetzung von Erzen mit jener von zeitlich gut datierbaren archäologischen Gegenständen (Münzen, Schmuckstücke). Die letztere Methode wurde im Rahmen der vorliegenden Forschungsarbeit entwickelt und angewendet. Zu diesem Zweck wurden an 221 Proben von Blei- oder Silberobjekten, die in die Periode zwischen Eisenzeit und Mittelalter eingestuft werden können, Bleiisotopen- Analysen durchgeführt und mit ca. 1800 Proben aus den wichtigsten Lagerstätten der Schweiz und Europas verglichen. Vor der Römerzeit und bis ins 1. Jahrh. stammt das Blei vornehmlich aus den in jener Zeit in voller Ausbeutung begriffenen Minen der Iberischen Halbinsel. Der Beitrag von Mitteleuropa, besonders der Vogesen, muss noch bestätigt werden. Ab dem 1. Jahrh. nach Chr. wurde die Westschweiz hauptschlich mit Blei aus den grossen Produktionszentren Norddeutschlands, vorwiegend der Eifel, versorgt. In dieser Periode setzt die Ausbeutung der Bleiminen des Wallis, besonders von Siviez, ein. Sie dienen der Deckung des örtlichen Bedarfs aber auch der Ausfuhr in das Gebiet des Genfersees und in einem bescheidenen Rahmen sogar darüber hinaus. Ab dem 4. Jahrhundert wurden vermehrt alte Objekte eingeschmolzen. Dieser Wechsel der Versorgungsquellen war vermutlich eine Folge der Wölkerwanderung in der zweiten Hälfte des 3. Jahrhunderts. Ab diesem Zeitpunkt war Helvetien der Zugang zu den Versorgungsquellen des Nordens, besonders des Rheinlandes, verwehrt. Der Abbau von Silber ist ab dem Ende des La Tène nachgewiesen, nur wenig nach dem Auftreten dieses Metalls im Wallis. Über die Römerzeit können wegen dem Fehlen entsprechender Proben keine Aussagen gemacht werden. Eine erneute Abbauperiode ist ab dem 5. Jahrhundert nachgewiesen. Die Produktion der örtlichen Minen erreicht aber erst im Mittelalter eine gewisse Bedeutung mit der Prägung von Mnzen durch die Karolinger und die Walliser Bischöfe. Die Herkunft des Silbers ist abhängig von dessen Verwendung. Mit wenigen Ausnahmen in der Zeit des La Tène und der späteren Römerzeit wurde für Kunst- und Kult- Gegenstände rezykliertes Silber verwendet, für Münzprägungen neues Silber aus den örtlichen Minen. Von Einfluss auf die Herkunft war auch der Produktionsstandort: Die Objekte aus dem Wallis unterscheiden sich deutlich von jenen des Mittellandes.
Resumo:
Résumé : Cette thèse de doctorat est le fruit d'un projet de recherche européen financé par le quatrième programme cadre de la Commission Européenne (DG XII, Standards, Measurement and Testing). Ce projet, dénommé SMT-CT98-2277, a été financé pour la partie suisse par l'Office Fédéral de l'Education et de la Science (OFES, Berne, Suisse). Le but de ce projet était de développer une méthode harmonisée et collaborativement testée pour le profilage des impuretés de l'amphétamine illicite par chromatographie capillaire en phase gazeuse. Le travail a été divisé en sept phases majeures qui concernaient la synthèse de l'amphétamine, l'identification d'impuretés, l'optimisation de la préparation de l'échantillon et du système chromatographique, la variabilité des résultats, l'investigation de méthodes mathématiques pour la classification et la comparaison de profils et finalement l'application de la méthode à des réels échantillons illicites. La méthode résultant de ce travail n'a pas seulement montré que les données étaient interchangeables entre laboratoires mais aussi qu'elle était supérieure en de nombreux points aux méthodes préalablement publiées dans la littérature scientifique. Abstract : This Ph.D. thesis was carried out in parallel to an European project funded by the fourth framework program of the European Commission (DG XII, Standards, Measurement and Testing). This project, named SMT-CT98-2277 was funded, for the Swiss part, by the Federal Office of Education and Science (OFES, Bern, Switzerland). The aim of the project was to develop a harmonised, collaboratively tested method for the impurity profiling of illicit amphetamine by capillary gas chromatography. The work was divided into seven main tasks which deal with the synthesis of amphetamine, identification of impurities, optimization of sample preparation and of the chromatographic system, variability of the results, investigation of numerical methods for the classification and comparison of profiles and finally application of the methodology to real illicit samples. The resulting method has not only shown to produce interchangeable data between different laboratories but was also found to be superior in many aspects to previously published methods.
Resumo:
Many three-dimensional (3-D) structures in rock, which formed during the deformation of the Earth's crust and lithosphere, are controlled by a difference in mechanical strength between rock units and are often the result of a geometrical instability. Such structures are, for example, folds, pinch-and-swell structures (due to necking) or cuspate-lobate structures (mullions). These struc-tures occur from the centimeter to the kilometer scale and the related deformation processes con-trol the formation of, for example, fold-and-thrust belts and extensional sedimentary basins or the deformation of the basement-cover interface. The 2-D deformation processes causing these structures are relatively well studied, however, several processes during large-strain 3-D defor-mation are still incompletely understood. One of these 3-D processes is the lateral propagation of these structures, such as fold and cusp propagation in a direction orthogonal to the shortening direction or neck propagation in direction orthogonal to the extension direction. Especially, we are interested in fold nappes which are recumbent folds with amplitudes usually exceeding 10 km and they have been presumably formed by ductile shearing. They often exhibit a constant sense of shearing and a non-linear increase of shear strain towards their overturned limb. The fold axes of the Morcles fold nappe in western Switzerland plunges to the ENE whereas the fold axes in the more eastern Doldenhorn nappe plunges to the WSW. These opposite plunge direc-tions characterize the Rawil depression (Wildstrubel depression). The Morcles nappe is mainly the result of layer parallel contraction and shearing. During the compression the massive lime-stones were more competent than the surrounding marls and shales, which led to the buckling characteristics of the Morcles nappe, especially in the north-dipping normal limb. The Dolden-horn nappe exhibits only a minor overturned fold limb. There are still no 3-D numerical studies which investigate the fundamental dynamics of the formation of the large-scale 3-D structure including the Morcles and Doldenhorn nappes and the related Rawil depression. We study the 3-D evolution of geometrical instabilities and fold nappe formation with numerical simulations based on the finite element method (FEM). Simulating geometrical instabilities caused by sharp variations of mechanical strength between rock units requires a numerical algorithm that can accurately resolve material interfaces for large differences in material properties (e.g. between limestone and shale) and for large deformations. Therefore, our FE algorithm combines a nu-merical contour-line technique and a deformable Lagrangian mesh with re-meshing. With this combined method it is possible to accurately follow the initial material contours with the FE mesh and to accurately resolve the geometrical instabilities. The algorithm can simulate 3-D de-formation for a visco-elastic rheology. The viscous rheology is described by a power-law flow law. The code is used to study the 3-D fold nappe formation, the lateral propagation of folding and also the lateral propagation of cusps due to initial half graben geometry. Thereby, the small initial geometrical perturbations for folding and necking are exactly followed by the FE mesh, whereas the initial large perturbation describing a half graben is defined by a contour line inter-secting the finite elements. Further, the 3-D algorithm is applied to 3-D viscous nacking during slab detachment. The results from various simulations are compared with 2-D resulats and a 1-D analytical solution. -- On retrouve beaucoup de structures en 3 dimensions (3-D) dans les roches qui ont pour origines une déformation de la lithosphère terrestre. Ces structures sont par exemple des plis, des boudins (pinch-and-swell) ou des mullions (cuspate-lobate) et sont présentés de l'échelle centimétrique à kilométrique. Mécaniquement, ces structures peuvent être expliquées par une différence de résistance entre les différentes unités de roches et sont généralement le fruit d'une instabilité géométrique. Ces différences mécaniques entre les unités contrôlent non seulement les types de structures rencontrées, mais également le type de déformation (thick skin, thin skin) et le style tectonique (bassin d'avant pays, chaîne d'avant pays). Les processus de la déformation en deux dimensions (2-D) formant ces structures sont relativement bien compris. Cependant, lorsque l'on ajoute la troisiéme dimension, plusieurs processus ne sont pas complètement compris lors de la déformation à large échelle. L'un de ces processus est la propagation latérale des structures, par exemple la propagation de plis ou de mullions dans la direction perpendiculaire à l'axe de com-pression, ou la propagation des zones d'amincissement des boudins perpendiculairement à la direction d'extension. Nous sommes particulièrement intéressés les nappes de plis qui sont des nappes de charriage en forme de plis couché d'une amplitude plurikilométrique et étant formées par cisaillement ductile. La plupart du temps, elles exposent un sens de cisaillement constant et une augmentation non linéaire de la déformation vers la base du flanc inverse. Un exemple connu de nappes de plis est le domaine Helvétique dans les Alpes de l'ouest. Une de ces nap-pes est la Nappe de Morcles dont l'axe de pli plonge E-NE tandis que de l'autre côté de la dépression du Rawil (ou dépression du Wildstrubel), la nappe du Doldenhorn (équivalent de la nappe de Morcles) possède un axe de pli plongeant O-SO. La forme particulière de ces nappes est due à l'alternance de couches calcaires mécaniquement résistantes et de couches mécanique-ment faibles constituées de schistes et de marnes. Ces différences mécaniques dans les couches permettent d'expliquer les plissements internes à la nappe, particulièrement dans le flanc inver-se de la nappe de Morcles. Il faut également noter que le développement du flanc inverse des nappes n'est pas le même des deux côtés de la dépression de Rawil. Ainsi la nappe de Morcles possède un important flanc inverse alors que la nappe du Doldenhorn en est presque dépour-vue. A l'heure actuelle, aucune étude numérique en 3-D n'a été menée afin de comprendre la dynamique fondamentale de la formation des nappes de Morcles et du Doldenhorn ainsi que la formation de la dépression de Rawil. Ce travail propose la première analyse de l'évolution 3-D des instabilités géométriques et de la formation des nappes de plis en utilisant des simulations numériques. Notre modèle est basé sur la méthode des éléments finis (FEM) qui permet de ré-soudre avec précision les interfaces entre deux matériaux ayant des propriétés mécaniques très différentes (par exemple entre les couches calcaires et les couches marneuses). De plus nous utilisons un maillage lagrangien déformable avec une fonction de re-meshing (production d'un nouveau maillage). Grâce à cette méthode combinée il nous est possible de suivre avec précisi-on les interfaces matérielles et de résoudre avec précision les instabilités géométriques lors de la déformation de matériaux visco-élastiques décrit par une rhéologie non linéaire (n>1). Nous uti-lisons cet algorithme afin de comprendre la formation des nappes de plis, la propagation latérale du plissement ainsi que la propagation latérale des structures de type mullions causé par une va-riation latérale de la géométrie (p.ex graben). De plus l'algorithme est utilisé pour comprendre la dynamique 3-D de l'amincissement visqueux et de la rupture de la plaque descendante en zone de subduction. Les résultats obtenus sont comparés à des modèles 2-D et à la solution analytique 1-D. -- Viele drei dimensionale (3-D) Strukturen, die in Gesteinen vorkommen und durch die Verfor-mung der Erdkruste und Litosphäre entstanden sind werden von den unterschiedlichen mechani-schen Eigenschaften der Gesteinseinheiten kontrolliert und sind häufig das Resulat von geome-trischen Istabilitäten. Zu diesen strukturen zählen zum Beispiel Falten, Pich-and-swell Struktu-ren oder sogenannte Cusbate-Lobate Strukturen (auch Mullions). Diese Strukturen kommen in verschiedenen Grössenordungen vor und können Masse von einigen Zentimeter bis zu einigen Kilometer aufweisen. Die mit der Entstehung dieser Strukturen verbundenen Prozesse kontrol-lieren die Entstehung von Gerbirgen und Sediment-Becken sowie die Verformung des Kontaktes zwischen Grundgebirge und Stedimenten. Die zwei dimensionalen (2-D) Verformungs-Prozesse die zu den genannten Strukturen führen sind bereits sehr gut untersucht. Einige Prozesse wäh-rend starker 3-D Verformung sind hingegen noch unvollständig verstanden. Einer dieser 3-D Prozesse ist die seitliche Fortpflanzung der beschriebenen Strukturen, so wie die seitliche Fort-pflanzung von Falten und Cusbate-Lobate Strukturen senkrecht zur Verkürzungsrichtung und die seitliche Fortpflanzung von Pinch-and-Swell Strukturen othogonal zur Streckungsrichtung. Insbesondere interessieren wir uns für Faltendecken, liegende Falten mit Amplituden von mehr als 10 km. Faltendecken entstehen vermutlich durch duktile Verscherung. Sie zeigen oft einen konstanten Scherungssinn und eine nicht-lineare zunahme der Scherverformung am überkipp-ten Schenkel. Die Faltenachsen der Morcles Decke in der Westschweiz fallen Richtung ONO während die Faltenachsen der östicher gelegenen Doldenhorn Decke gegen WSW einfallen. Diese entgegengesetzten Einfallrichtungen charakterisieren die Rawil Depression (Wildstrubel Depression). Die Morcles Decke ist überwiegend das Resultat von Verkürzung und Scherung parallel zu den Sedimentlagen. Während der Verkürzung verhielt sich der massive Kalkstein kompetenter als der Umliegende Mergel und Schiefer, was zur Verfaltetung Morcles Decke führ-te, vorallem in gegen Norden eifallenden überkippten Schenkel. Die Doldenhorn Decke weist dagegen einen viel kleineren überkippten Schenkel und eine stärkere Lokalisierung der Verfor-mung auf. Bis heute gibt es keine 3-D numerischen Studien, die die fundamentale Dynamik der Entstehung von grossen stark verformten 3-D Strukturen wie den Morcles und Doldenhorn Decken sowie der damit verbudenen Rawil Depression untersuchen. Wir betrachten die 3-D Ent-wicklung von geometrischen Instabilitäten sowie die Entstehung fon Faltendecken mit Hilfe von numerischen Simulationen basiert auf der Finite Elemente Methode (FEM). Die Simulation von geometrischen Instabilitäten, die aufgrund von Änderungen der Materialeigenschaften zwischen verschiedenen Gesteinseinheiten entstehen, erfortert einen numerischen Algorithmus, der in der Lage ist die Materialgrenzen mit starkem Kontrast der Materialeigenschaften (zum Beispiel zwi-schen Kalksteineinheiten und Mergel) für starke Verfomung genau aufzulösen. Um dem gerecht zu werden kombiniert unser FE Algorithmus eine numerische Contour-Linien-Technik und ein deformierbares Lagranges Netz mit Re-meshing. Mit dieser kombinierten Methode ist es mög-lich den anfänglichen Materialgrenzen mit dem FE Netz genau zu folgen und die geometrischen Instabilitäten genügend aufzulösen. Der Algorithmus ist in der Lage visko-elastische 3-D Ver-formung zu rechnen, wobei die viskose Rheologie mit Hilfe eines power-law Fliessgesetzes beschrieben wird. Mit dem numerischen Algorithmus untersuchen wir die Entstehung von 3-D Faltendecken, die seitliche Fortpflanzung der Faltung sowie der Cusbate-Lobate Strukturen die sich durch die Verkürzung eines mit Sediment gefüllten Halbgraben bilden. Dabei werden die anfänglichen geometrischen Instabilitäten der Faltung exakt mit dem FE Netz aufgelöst wäh-rend die Materialgranzen des Halbgrabens die Finiten Elemente durchschneidet. Desweiteren wird der 3-D Algorithmus auf die Einschnürung während der 3-D viskosen Plattenablösung und Subduktion angewandt. Die 3-D Resultate werden mit 2-D Ergebnissen und einer 1-D analyti-schen Lösung verglichen.
Resumo:
In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.
Resumo:
We extend the class of M-tests for a unit root analyzed by Perron and Ng (1996) and Ng and Perron (1997) to the case where a change in the trend function is allowed to occur at an unknown time. These tests M(GLS) adopt the GLS detrending approach of Dufour and King (1991) and Elliott, Rothenberg and Stock (1996) (ERS). Following Perron (1989), we consider two models : one allowing for a change in slope and the other for both a change in intercept and slope. We derive the asymptotic distribution of the tests as well as that of the feasible point optimal tests PT(GLS) suggested by ERS. The asymptotic critical values of the tests are tabulated. Also, we compute the non-centrality parameter used for the local GLS detrending that permits the tests to have 50% asymptotic power at that value. We show that the M(GLS) and PT(GLS) tests have an asymptotic power function close to the power envelope. An extensive simulation study analyzes the size and power in finite samples under various methods to select the truncation lag for the autoregressive spectral density estimator. An empirical application is also provided.
Resumo:
We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.
Resumo:
This paper employs the one-sector Real Business Cycle model as a testing ground for four different procedures to estimate Dynamic Stochastic General Equilibrium (DSGE) models. The procedures are: 1 ) Maximum Likelihood, with and without measurement errors and incorporating Bayesian priors, 2) Generalized Method of Moments, 3) Simulated Method of Moments, and 4) Indirect Inference. Monte Carlo analysis indicates that all procedures deliver reasonably good estimates under the null hypothesis. However, there are substantial differences in statistical and computational efficiency in the small samples currently available to estimate DSGE models. GMM and SMM appear to be more robust to misspecification than the alternative procedures. The implications of the stochastic singularity of DSGE models for each estimation method are fully discussed.
Resumo:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.