39 resultados para Inférence exacte
Resumo:
Le travail d'un(e) expert(e) en science forensique exige que ce dernier (cette dernière) prenne une série de décisions. Ces décisions sont difficiles parce qu'elles doivent être prises dans l'inévitable présence d'incertitude, dans le contexte unique des circonstances qui entourent la décision, et, parfois, parce qu'elles sont complexes suite à de nombreuse variables aléatoires et dépendantes les unes des autres. Etant donné que ces décisions peuvent aboutir à des conséquences sérieuses dans l'administration de la justice, la prise de décisions en science forensique devrait être soutenue par un cadre robuste qui fait des inférences en présence d'incertitudes et des décisions sur la base de ces inférences. L'objectif de cette thèse est de répondre à ce besoin en présentant un cadre théorique pour faire des choix rationnels dans des problèmes de décisions rencontrés par les experts dans un laboratoire de science forensique. L'inférence et la théorie de la décision bayésienne satisfont les conditions nécessaires pour un tel cadre théorique. Pour atteindre son objectif, cette thèse consiste de trois propositions, recommandant l'utilisation (1) de la théorie de la décision, (2) des réseaux bayésiens, et (3) des réseaux bayésiens de décision pour gérer des problèmes d'inférence et de décision forensiques. Les résultats présentent un cadre uniforme et cohérent pour faire des inférences et des décisions en science forensique qui utilise les concepts théoriques ci-dessus. Ils décrivent comment organiser chaque type de problème en le décomposant dans ses différents éléments, et comment trouver le meilleur plan d'action en faisant la distinction entre des problèmes de décision en une étape et des problèmes de décision en deux étapes et en y appliquant le principe de la maximisation de l'utilité espérée. Pour illustrer l'application de ce cadre à des problèmes rencontrés par les experts dans un laboratoire de science forensique, des études de cas théoriques appliquent la théorie de la décision, les réseaux bayésiens et les réseaux bayésiens de décision à une sélection de différents types de problèmes d'inférence et de décision impliquant différentes catégories de traces. Deux études du problème des deux traces illustrent comment la construction de réseaux bayésiens permet de gérer des problèmes d'inférence complexes, et ainsi surmonter l'obstacle de la complexité qui peut être présent dans des problèmes de décision. Trois études-une sur ce qu'il faut conclure d'une recherche dans une banque de données qui fournit exactement une correspondance, une sur quel génotype il faut rechercher dans une banque de données sur la base des observations faites sur des résultats de profilage d'ADN, et une sur s'il faut soumettre une trace digitale à un processus qui compare la trace avec des empreintes de sources potentielles-expliquent l'application de la théorie de la décision et des réseaux bayésiens de décision à chacune de ces décisions. Les résultats des études des cas théoriques soutiennent les trois propositions avancées dans cette thèse. Ainsi, cette thèse présente un cadre uniforme pour organiser et trouver le plan d'action le plus rationnel dans des problèmes de décisions rencontrés par les experts dans un laboratoire de science forensique. Le cadre proposé est un outil interactif et exploratoire qui permet de mieux comprendre un problème de décision afin que cette compréhension puisse aboutir à des choix qui sont mieux informés. - Forensic science casework involves making a sériés of choices. The difficulty in making these choices lies in the inévitable presence of uncertainty, the unique context of circumstances surrounding each décision and, in some cases, the complexity due to numerous, interrelated random variables. Given that these décisions can lead to serious conséquences in the admin-istration of justice, forensic décision making should be supported by a robust framework that makes inferences under uncertainty and décisions based on these inferences. The objective of this thesis is to respond to this need by presenting a framework for making rational choices in décision problems encountered by scientists in forensic science laboratories. Bayesian inference and décision theory meets the requirements for such a framework. To attain its objective, this thesis consists of three propositions, advocating the use of (1) décision theory, (2) Bayesian networks, and (3) influence diagrams for handling forensic inference and décision problems. The results present a uniform and coherent framework for making inferences and décisions in forensic science using the above theoretical concepts. They describe how to organize each type of problem by breaking it down into its différent elements, and how to find the most rational course of action by distinguishing between one-stage and two-stage décision problems and applying the principle of expected utility maximization. To illustrate the framework's application to the problems encountered by scientists in forensic science laboratories, theoretical case studies apply décision theory, Bayesian net-works and influence diagrams to a selection of différent types of inference and décision problems dealing with différent catégories of trace evidence. Two studies of the two-trace problem illustrate how the construction of Bayesian networks can handle complex inference problems, and thus overcome the hurdle of complexity that can be present in décision prob-lems. Three studies-one on what to conclude when a database search provides exactly one hit, one on what genotype to search for in a database based on the observations made on DNA typing results, and one on whether to submit a fingermark to the process of comparing it with prints of its potential sources-explain the application of décision theory and influ¬ence diagrams to each of these décisions. The results of the theoretical case studies support the thesis's three propositions. Hence, this thesis présents a uniform framework for organizing and finding the most rational course of action in décision problems encountered by scientists in forensic science laboratories. The proposed framework is an interactive and exploratory tool for better understanding a décision problem so that this understanding may lead to better informed choices.
Resumo:
(Résumé de l'ouvrage) C'est grâce aux portulans - ces cartes géographiques qui permettaient la navigation de port à port avec l'indication exacte de l'échelle des distances - que les navigateurs purent disposer d'une représentation beaucoup plus fidèle des côtes maritimes. Le portulan a permis au marin d'abandonner le cabotage craintif qui l'obligeait à naviguer le long des côtes, toujours tenues à distance de regard, pour la navigation en haute mer. Aujourd'hui la représentation de l'Europe est une inconnue. Le cabotage n'est plus de mise, mais le portulan manque. Nul ne peut dire où il faut commencer et où il faut jeter l'ancre. L'Europe est comme libérée de ses voeux, débordée en mille endroits. Europes intempestives présente neuf textes qui dressent une carte en filigrane, selon les termes d'une échelle inconnue qui doit faire passer pour saugrenue toute personne qui demande : « Qu'est-ce que l'Europe ? ». Il s'agit pour nous de sortir du cadastre de ce qu'il faut appeler une rhétorique Europe, avec ses métaphores fatiguées, frêles esquifs sur une mer de clichés : cap, parapet, occident, coucheries solaires et rapt.
Resumo:
L'Institut de Police Scientifique (IPS) de Lausanne a développé et emploie une méthode de profilage de l'héroïne qui permet d'établir des liens entre les saisies de différentes affaires. La comparaison s'appuie sur des caractéristiques chimiques. Au cours du trafic, les spécimens sont transportés, stockés et dilués. Leurs caractéristiques chimiques sont alors susceptibles de varier. L'objectif de ce travail consiste à évaluer les conséquences d'une dilution importante sur l'évolution des liens chimiques établis, puis d'observer l'influence de la température et de l'humidité sur le profil chimique d'échantillons d'héroïne placés dans des conditions de vieillissement accéléré. On remarque que la dilution n'influence pas directement le profilage, mais l'inférence d'une source commune entre les spécimens dépend de la différence entre les concentrations des échantillons comparés. Dans le cadre de l'étude de vieillissement, tous les échantillons ont pu être liés et aucune variation significative du profil n'a été constatée. Cependant, les quantités de certains composés ont plus tendance à varier et pourraient être à l'origine d'une modification du profil à long terme.
Resumo:
Situer des évènements dans le temps est une question essentielle en science forensique, de même que le transfert et l'identification. En effet, si une personne déclare avoir été sur les lieux d'un crime à un autre moment que l'évènement en question, la trace laissée (transfert) sur les lieux par cette personne (identification) perd toute signification. La pertinence de la trace est donc étroitement liée à la notion de temps. Les difficultés rencontrés lors de l'étude de la datation de différents type de traces ont crées une controverse mondiale sur la validité des méthodes proposées jusqu'ici, particulièrement en regard de la responsabilité de l'expert scientifique face à la justice. Si l'on considère la récurrence de cette problématique en sciences forensiques, une approche systématique ainsi qu'une meilleure compréhension fondamentale de la détermination de l'âge d'une trace est définitivement nécessaire. Cela représente un grand défi, puisque les processus de vieillissement sont influencés par plusieurs facteurs qui peuvent considérablement accélérer ou ralentir le vieillissement. Ceux-ci devront être étudiés de manière approfondie et peuvent être classés en trois groupes principaux : (i) la composition initiale de la trace, (ii) le type de substrat sur lequel se trouvent les traces, et (iii) les conditions de stockage. Pour ces raisons, l'objectif est donc plus de déterminer un intervalle de temps durant lequel la trace a été déposée, plutôt qu'une date précise. Finalement, une interprétation des résultats selon une approche probabiliste (par ex. basée sur une inférence de type Bayesienne sous deux hypothèses alternatives) semble la plus appropriée. Le développement de cette approche globale fait l'objet d'un ambitieux programme de recherche soutenu par le Fonds National Suisse de la Recherche Scientifique.
Resumo:
Résumé de la thèse Le travail de thèse «VOIR LE MONDE COMME UNE IMAGE. Le schème de l'image mimétique dans la philosophie de Platon (Cratyle, Sophiste, Timée) » d'Alexandre NEVSKY étudie la conception philosophique de l'image chez Platon. En posant la question : qu'est-ce que l'image pour Platon? l'étude se propose, dans un premier temps, d'analyser la manière précise dont l'idée de l'image fonctionne dans l'articulation logique de l'enquête platonicienne, en se basant avant tout sur trois dialogues majeurs où cette idée est explicitement thématisée par Platon lui-même, à savoir le Cratyle, le Sophiste et le Timée. Par une analyse détaillée de ces textes, Alexandre Nevsky essaie de démontrer que l'idée de l'image fonctionne comme un schème euristique dont la logique interne détermine les moments clés dans le déroulement de chaque dialogue examiné, et constitue ainsi une véritable méthode d'investigation philosophique pour Platon. En suivant cette stratégie platonicienne, l'auteur nous montre quel rôle le schème de l'image joue selon Platon d'abord dans la constitution du langage (le Cratyle), puis, dans celle du discours (le Sophiste) et, enfin, dans celle du monde (le Timée). Une telle approche lui permet de revoir l'interprétation traditionnelle de certains passages clés, célèbres pour leurs difficultés, en mettant en évidence la façon dont la nouvelle perspective platonicienne, introduite grâce au schème de l'image, permet de formuler une solution philosophique originale du problème initial. On y trouve ainsi rediscutés, pour ne citer que quelques exemples, la théorie curieuse de l'imitation phonétique et le problème de la justesse propre du nom-image, la définition philosophique de la notion d'image et la distinction platonicienne entre limage-ressemblance et l'image-apparence, la logique paradoxale de l'introduction d'un troisième genre dans la structure ontologique de l'être et la question du sens exact à donner au «discours vraisemblable » de Platon sur la naissance de l'univers. Dans un deuxième temps, cette étude tente de dégager, derrière la méthode heuristique basée sur le schème de l'image, une véritable conception de l'image mimétique chez Platon. L'une des idées principales de la thèse est ici de montrer que cette conception présente une solution philosophique de Platon au problème de l'apparence archaïque. Car, face à la question sophistique : comment une chose - que ce soit le discours ou le monde - peut-elle être une apparence, quelque chose qui n'existe pas? Platon apporte une réponse tout à fait originale elle le peut en tant qu'image. Or, l'image n'est pas une simple apparence illusoire, elle est le reflet d'une autre réalité, indépendante et véritable, que l'on doit supposer, selon Platon, même quand sa nature exacte nous échappe encore. La conception platonicienne de l'image apparaît ainsi comme un pendant indispensable de la théorie des Formes intelligibles et aussi comme son étape préalable au niveau de laquelle l'âme du philosophe, dans son ascension vers la vérité, se retrouve dans un espace intermédiaire, déjà au-delà des illusions du monde phénoménal, mais encore en-deçà des engagements métaphysiques de la théorie des Formes.
Resumo:
With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.
Resumo:
Phénomène reconnu de longue date, dont les rhéteurs et les écrivains ont même souvent vanté l'efficacité pour réaliser un portrait moral convaincant, la caractérisation langagière des personnages n'a été que peu observée selon une perspective générale, comme si son étude ne pouvait s'envisager en dehors du projet esthétique d'un auteur particulier. Cependant, on peut envisager la caractérisation langagière comme procédant d'une poétique du récit, c'est-à-dire comme un mécanisme du texte narratif, dont certaines constantes peuvent être décrites. L'objectif du présent travail est ainsi de mettre au jour les conditions, tant textuelles que contextuelles, devant être réunies pour que certains aspects des discours rapportés fassent sens en tant qu'éléments de caractérisation. La nature indirecte de ce phénomène demande en effet de porter une attention particulière à ce qui relève des conditions de production et d'interprétation du texte, autrement dit des éléments contextuels que le texte convoque (liés à la langue, aux genres, au « texte » de la culture, etc.) afin de (re)construire par inférence ce qui est dit « sans être dit ». Ainsi la caractérisation langagière reposet- elle sur la reconnaissance d'un rôle thématique endossé par le personnage, rôle défini en partie par certains « habitus » discursifs. Mais il importe également de considérer la caractérisation langagière comme un effet de la textualité. Cela concerne d'abord des unités manipulées par les auteurs (mots, structures syntaxiques, phonologie...). Néanmoins, rien ne se joue sur un unique élément ; au contraire, d'une part, il faut qu'une série de traits s'organisent en un réseau isotope, et cela de la réplique isolée au texte entier ; d'autre part, la caractérisation dérive encore des relations que le discours d'un personnage entretient avec des discours avoisinants, en premier lieu celui du narrateur. Se concentrant sur des oeuvres comiques ou satiriques des XVIIe et XVIIIe siècles, l'approche proposée ici veut également tenir compte d'une tradition rhétorique et poétique qui associe portrait moral et parole représentée, tradition encore très présente dans un tel corpus, qui a par ailleurs l'avantage de laisser entrer dans le monde de la fiction des personnages de toutes conditions, dotés de leurs langages spécifiques.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Les surdités cochléaires brusques et les déficits vestibulaire brusque idiopathiques constituent l'un des sujets les plus débattus en otologie. Ces deux pathologies naisse d'altération du labyrinthe de l'oreille interne, dont l'étiologie exacte reste aujourd'hui méconnue. Plusieurs hypothèses ont cependant été formulées. Parmi les plus discutées, on retient celle d'une atteinte virale, celle d'une altération de la vascularisation cochléaire ou encore celle d'une affection autoimmune.¦La méconnaissance des mécanismes physiopathologiques et l'importance clinique d'un traitement efficace contribuent à multiplier les études, malheureusement celles-ci manquent souvent de rigueur pour être exploitées. Ainsi plus de 1700 publication sur le sujet sont disponibles dans la littérature médicale. Malgré cette abondance , la pertinence du traitement médicamenteux reste controversée.¦Il s'est donc agit ici de faire une revue de la littérature, afin de tenter d'établir l'efficacité éventuelle des traitements selon les critères de l'Evidence-Based-Medecine (EBM). Etant donné le nombre de publications, nous nous sommes limités aux méta-analyses et aux revues systématisées.¦Nous avons sélectionné trois méta-analyses et quatre revues de littérature pour notre recherche. Elles évaluaient l'efficacité des traitements médicamenteux suivants ; corticostéroïdes, antithrombotique, vasodilatateurs, agents hémodiluants, antiviraux, anesthésiques locaux. Aucun de ceux-ci n'a démontré de preuves suffisantes, aussi bien pour les surdités brusques que pour les déficits vestibulaires brusques. Aussi, une abstention médicamenteuse se justifie à ce jour. Par contre, parmi les thérapies non médicamenteuses, la réhabilitation vestibulaire est conseillée après déficit vestibulaire brusque et se détache des autres prises en charge par son efficacité et sa sûreté.¦Notons que ces résultats se base sur un niveau de preuve faible. De nouvelles études cliniques sont indispensables. Nous avons tenté d'élaborer quelques pistes pour celles à venir, afin qu'elles soient utilisables dans un second temps par des méta-analyses. Cela permettrait une amélioration du niveau de preuve actuel.
Resumo:
La pierre et l'image. Etude monographique de l'église de Saint-Chef en Dauphiné: L'ancienne abbatiale de Saint-Chef-en-Dauphiné est située dans l'Isère, à 10 km de Bourgoin-Jallieu et à 2 km de l'ancienne voie romaine qui joignait Vienne à Aoste par le col du Petit-Saint-Bernard. L'abbaye dépendait, dès sa fondation, des archevêques de Vienne, dont la cité se trouvait à 70 km plus à l'ouest. Selon le récit de l'archevêque Adon de Vienne, écrit à la fin du IXe siècle, l'abbaye de Saint-Chef aurait été fondée au cours du VIe siècle par saint Theudère sur un territoire appartenant à sa famille, le Val Rupien. D'abord dédié à la Vierge le monastère est placé, dès l'époque carolingienne, sous le double patronage de la Vierge et du saint fondateur, dont les reliques furent déposées dans l'église. Sans doute détruite et abandonnée lors des guerres bosonides qui provoquèrent la ruine de Vienne (882), l'abbaye est restaurée quelques années plus tard par des moines venus de Champagne : en 887 les moines de Montier-en-Der, fuyant leur abbaye menacée par les invasions normandes, trouvent refuge à Saint-Chef. Afin de promouvoir la reconstruction de l'abbaye, l'archevêque Barnoin, soutenu par Louis l'Aveugle, roi de Bourgogne, lui offrent des privilèges d'exemption et plusieurs donations. Signe de la renommée et de la prospérité dont bénéficiait alors le monastère, Hugues, héritier de Louis l'Aveugle, y reçoit son éducation. Vers 925 ou 926, alors que la Champagne est à. nouveau pacifiée, les moines de Montier-en-Der regagnent leur abbaye d'origine après avoir reconstruit, selon les sources, le « petit monastère de Saint-Chef ». L'abbaye dauphinoise n'est pas pour autant abandonnée et reste vraisemblablement en contact avec les moines champenois : en 928, Hugues de Provence fait des donations importantes d l'abbaye qui est alors formellement placée sous la juridiction de l'Eglise de Vienne. En 962, le Viennois est intégré au royaume de Bourgogne puis, en 1032, au domaine impérial. Construction de l'abbaye : Après le départ des moines de Montier-en-Der, l'église dauphinoise a vraisemblablement été reconstruite par saint Thibaud, archevêque de Vienne entre 970 et l'an mil. Ayant peut-être reçu son éducation dans l'abbaye dauphinoise, il est enterré dans l'église qui, selon certaines sources, associe dès lors son patronage à celui du saint fondateur. Elevée en petit appareil irrégulier, la nef actuelle de l'église de Saint-Chef pourrait appartenir à cette phase de construction de l'église. Fils du comte Hugues de Vienne qui possédait d'importants territoires autour de Saint-Chef, Thibaud était aussi lié aux comtes de Troyes et de Champagne : ce sont ces liens qui expliquent la présence répétée de l'archevêque en Champagne et dans la région de Montier-en-Der. Or, à la même époque, l'église champenoise est reconstruite par le célèbre Adson, abbé de 968 à 992. Des ressemblances entre cette construction et celle de Saint-Chef suggèrent la réalisation, au Xe siècle, de deux églises-soeurs. L'église préromane de Montier-en-Der possédait, à. l'ouest, un massif à double étage et l'est, des tours jumelles s'élevant au-dessus des deux chapelles latérales entourant l'abside. Ce plan présente plusieurs points de comparaison avec l'église actuelle de Saint-Chef : on constate en particulier une équivalence au niveau des dimensions (largeur-longueur des nefs et le diamètre de l'abside), un choix identique pour l'emplacement du choeur et des entrées secondaires : à l'extrémité ouest du bas-côté nord et à l'extrémité orientale du bas-côté sud. Ces analogies nous aident à. restituer le plan de Saint-Chef, tel qu'il pouvait apparaître du temps de Thibaud : la partie orientale de l'église, alors élevée en petit appareil irrégulier comme la nef actuelle, était sans doute dépourvue de transept ; à l'image de l'église champenoise, des tours jumelles pouvaient toutefois s'élever au-dessus des deux chapelles orientales. Si notre hypothèse est exacte, le parti architectural adopté à Saint-Chef comme à Montier¬en-Der correspond au plan des églises monastiques réformées au Xe siècle par les abbayes de Fleury et de Gorze (dès 934). Dans ce type d'églises que l'on rencontre essentiellement dans l'ancienne Lotharingie, mais aussi dans une région proche de Saint-Chef, en Savoie, les tours orientales possédaient, à l'étage, des tribunes qui donnaient sur le choeur. La forme caractéristique de ces églises est déterminée par l'observance de coutumes liturgiques communes aux abbayes réformées. Ainsi, la règle établie par la réforme indiquait la nécessité d'espaces surélevés situés à l'est et à l'ouest de l'église : ces espaces avaient pour fonction d'accueillir les choeurs des moines dont les chants alternaient avec ceux des moines réunis au niveau inférieur, devant le sanctuaire. Par la suite, sans doute en raison de nouvelles pratiques liturgiques, la partie orientale de l'église de Saint-Chef, reconstruite en moyen appareil régulier, est augmentée d'un transept à quatre chapelles latérales. Les deux tours, si elles existaient, sont détruites pour être reconstruites aux extrémités du transept, abritant des chapelles hautes qui donnaient sur les bras du transept et le choeur. La vision latérale entre les deux tribunes est alors favorisée par l'alignement des baies des tribunes et des arcades du transept. Grâce à ce système d'ouverture, les choeurs des moines se voyaient et s'entendaient parfaitement. Ce système de tribunes orientales apparaît dans certaines églises normandes du XIe siècle ou dans d'autres églises contemporaines qui semblent s'en inspirer, telles que la cathédrale du Puy ou l'abbatiale de Saint-Sever-sur-l'Adour. L'importance croissante des chants alternés dans les offices semble avoir favorisé l'émergence d'une telle architecture. L'étude du décor sculpté, et notamment des chapiteaux ornant les différentes parties de l'édifice, permet de dater les étapes de transformation de l'abbatiale. L'aménagement des chapelles orientales semble remonter à la première moitié du XIe siècle ; l'installation des piliers soutenant le transept et les deux tours de l'édifice est datable des années 1060-1080. Par la suite, sans doute du temps de Guillaume de la Tour-du-Pin, archevêque de Vienne entre 1165 et 1170, le transept et la croisée sont surélevés et voûtés et des fenêtres viennent ajourer le mur pignon oriental. Les indices de datation tardives, rassemblés au niveau supérieur du transept, ont été utilisés par les spécialistes de l'architecture, tels Raymond Oursel et Guy Barruol, pour dater l'ensemble de l'église du XIIe siècle. Pourtant, dans d'autres études, Otto Demus, Paul Deschamp et Marcel Thiboud dataient les peintures de Saint-Chef de la seconde moitié du XIe siècle, soit un demi-siècle au moins avant la datation proposée pour l'élévation architecturale. Cette contradiction apparente se trouve désormais résolue par la mise en évidence de phases distinctes de construction et de transformations de l'édifice. Les peintures : Le décor peint de l'abbatiale est conservé dans trois chapelles du transept : dans la chapelle Saint-Theudère, à l'extrémité sud du transept, dans la chapelle Saint-Clément, à son autre extrémité, et dans la chapelle haute s'élevant au-dessus de celle-ci. Selon une dédicace peinte derrière l'autel, cette chapelle est dédiée au Christ, aux archanges et à saint Georges martyr. L'analyse stylistique permet de dater les peintures du troisième ou du dernier quart du XIe siècle : leur réalisation semble donc succéder immédiatement à l'élévation du transept et des deux tours que l'on situe, on l'a vu, dans les années 1060-1080. Au cours de cette étude, on a aussi relevé la parenté des peintures avec des oeuvres normandes et espagnoles : ces ressemblances s'affirment par certaines caractéristiques de style, mais aussi par le traitement de l'espace. Par exemple, l'alignement des anges sur la voûte, ou des élus sur le mur ouest de la chapelle haute de Saint-Chef, rappellent certains Beatus du XIe siècle, tels que celui de Saint-Sever antérieur à 1072. Dans la chapelle haute, la hiérarchie céleste est distribuée par catégories autour du Christ, représenté au centre de la voûte ; cette disposition se retrouve à Saint-Michel d'Aiguilhe au Xe siècle, ainsi que dans le premier quart du XIIe siècle à Maderuelo en Catalogne et à Fenouilla en Roussillon. D'autres rapprochements avec des oeuvres ottoniennes et carolingiennes ont aussi été observés, ainsi qu'avec certaines enluminures d'Ingelard, moine à Saint-Germain des Prés entre 1030 et 1060. L'iconographie: Le sens de l'image avait donné lieu à quelques études ponctuelles. Cette thèse a permis, d'une part, la mise en évidence d'un unique programme iconographique auquel participent les peintures des trois chapelles de l'abbatiale et, d'autre part, la découverte des liens entre le choix iconographique de Saint-Chef et certaines sources littéraires. Ces rapports ont par exemple été relevés pour la figure de l'ange conduisant saint Jean à la Jérusalem céleste, sur le voûtain ouest de la chapelle haute. La figure très soignée de l'ange, portant les mêmes vêtements que le Christ peint au centre de la voûte, présente sur son auréole quelques traces sombres qui devaient à l'origine dessiner une croix : ce détail fait de l'ange une figure du Christ, figure qui apparaît dans certaines exégèses apocalyptiques telles que le Commentaire d'Ambroise Autpert au Ville siècle, celui d'Haymon d'Auxerre au IXe siècle ou, au début du XIIe siècle, de Rupert de Deutz. Pour Ambroise Autpert, l'ange guidant saint Jean est une image du Christ amenant l'Eglise terrestre à la Jérusalem céleste, à laquelle elle sera unie à la fin des temps. Les deux figures symboliquement unies par le geste du Christ empoignant la main de saint Jean est une image du corps mystique de Jésus, le corps étant l'Eglise et la tête, le Christ qui enseigne aux fidèles. L'iconographie des peintures de la chapelle haute est centrée autour de l'oeuvre de Rédemption et des moyens pour gagner le salut, la Jérusalem céleste étant le lieu de destination pour les élus. Au centre de la voûte, le Christ présente ses deux bras écartés, en signe d'accueil. Sur le livre ouvert qu'il tient entre les genoux, les mots pax vobis - ego sum renvoient aux paroles prononcées lors de son apparition aux disciples, après sa Résurrection et au terme de son oeuvre de Rédemption. A ses pieds, sur le voûtain oriental, la Vierge en orante, première médiatrice auprès de son Fils, intercède en faveur des humains. Grâce au sacrifice du Christ et à travers la médiation de la Vierge, les hommes peuvent accéder à la Jérusalem céleste : les élus sont ici représentés sur le dernier registre du mur ouest, directement sous la Jérusalem ; un cadre plus sombre y indique symboliquement l'accès à la cité céleste. A l'autre extrémité du voûtain, Adam et Eve sont figurés deux fois autour de l'arbre de la connaissance : chassés du paradis, ils s'éloignent de la cité ; mais une fois accomplie l'oeuvre de Rédemption, ils peuvent à nouveau s'acheminer vers elle. Les peintures de la chapelle inférieure participent elles aussi au projet iconographique de la Rédemption. Sur la voûte de la chapelle, les quatre fleuves paradisiaques entouraient à l'origine une colombe. Selon l'exégèse médiévale, ces fleuves représentent les quatre temps de l'histoire, les vertus ou les quatre évangiles, diffusés aux quatre coins de la terre. Selon une tradition littéraire et iconographique d'origine paléochrétienne, ce sont aussi les eaux paradisiaques qui viennent alimenter les fonts baptismaux : l'association de la colombe, figure du Saint-Esprit et des fleuves du paradis suggère la présence, au centre de la chapelle, des fonts baptismaux. L'image de la colombe se trouve, on l'a vu, dans le prolongement vertical du Christ ressuscité, représenté au centre de la voûte supérieure. Or, selon une tradition qui remonte à Philon et Ambroise de Milan, la source des quatre fleuves, de la Parole divine diffusée par les quatre Evangiles, c'est le Christ. Dans son traité sur le Saint-Esprit, l'évêque de Milan place à la source de l'Esprit saint l'enseignement du Verbe fait homme. Il ajoute que lorsqu'il s'était fait homme, le Saint-Esprit planait au-dessus de lui ; mais depuis la transfiguration de son humanité et sa Résurrection, le Fils de Dieu se tient au-dessus des hommes, à la source du Saint-Esprit : c'est la même logique verticale qui est traduite dans les peintures de Saint-Chef, le Christ ressuscité étant situé au-dessus du Saint-Esprit et des eaux paradisiaques, dans la chapelle haute. Si les grâces divines se diffusent de la source christique aux hommes selon un mouvement descendant, l'image suggère aussi la remontée vers Dieu : en plongeant dans les eaux du baptême, le fidèle initie un parcours qui le ramènera à la source, auprès du Christ. Or, cet ascension ne peut se faire qu'à travers la médiation de l'Eglise : dans la chapelle Saint-Clément, autour de la fenêtre nord, saint Pierre et Paul, princes de l'Eglise, reçoivent la Loi du Christ. Dans la chapelle supérieure, ici aussi autour de la fenêtre septentrionale, deux personnifications déversaient les eaux, sans doute contenues dans un vase, au-dessus d'un prêtre et d'un évêque peints dans les embrasures de la fenêtre : c'est ce dont témoigne une aquarelle du XIXe siècle. Ainsi baignés par l'eau vive de la doctrine, des vertus et des grâces issue de la source divine, les représentants de l'Eglise peuvent eux aussi devenir sources d'enseignement pour les hommes. Ils apparaissent, en tant que transmetteurs de la Parole divine, comme les médiateurs indispensables entre les fidèles et le Christ. C'est par les sacrements et par leur enseignement que les âmes peuvent remonter vers la source divine et jouir de la béatitude. Si l'espace nord est connoté de manière très positive puisqu'il est le lieu de la représentation théophanique et de la Rédemption, les peintures de la chapelle sud renvoient à un sens plus négatif. Sur l'intrados d'arc, des monstres marins sont répartis autour d'un masque barbu aux yeux écarquillés, dont les dents serrées laissent échapper des serpents : ce motif d'origine antique pourrait représenter la source des eaux infernales, dont le « verrou » sera rompu lors du Jugement dernier, à la fin des temps. La peinture située dans la conque absidale est d'ailleurs une allusion au Jugement. On y voit le Christ entouré de deux personnifications en attitude d'intercession, dont Misericordia : elle est, avec Pax, Justifia et Veritas, une des quatre vertus présentes lors du Jugement dernier. Sur le fond de l'absidiole apparaissent des couronnes : elles seront distribuées aux justes en signe de récompense et de vie éternelle. L'allusion au Jugement et à l'enfer est la vision qui s'offre au moine lorsqu'il gagnait l'église en franchissant la porte sud du transept. S'avançant vers le choeur où il rejoignait les stalles, le moine pouvait presque aussitôt, grâce au système ingénieux d'ouvertures que nous avons mentionné plus haut, contempler les peintures situées sur le plafond de la chapelle haute, soit le Christ en attitude d'accueil, les anges et peut-être la Jérusalem céleste ; de là jaillissaient les chants des moines. De façon symbolique, ils se rapprochaient ainsi de leurs modèles, les anges. Dans ce parcours symbolique qui le conduisait de la mer maléfique, représentée dans la chapelle Saint¬Theudère, à Dieu et aux anges, les moines pouvaient compter sur les prières des intercesseurs, de la Vierge, des anges et des saints, tous représentés dans la chapelle haute. A Saint-Chef, l'espace nord peut-être assimilé, pour plusieurs aspects, aux Westwerke carolingiens ou aux galilées clunisiennes. Les massifs occidentaux étaient en effet le lieu de commémoration de l'histoire du salut : sites Westwerke étaient surtout le lieu de la liturgie pascale et abritaient les fonts baptismaux, les galilées clunisiennes étaient réservées à la liturgie des morts, les moines cherchant, par leurs prières, à gagner le salut des défunts. A l'entrée des galilées comme à Saint-Chef, l'image du Christ annonçait le face à face auquel les élus auront droit, à la fin des temps. Elevée au Xe siècle et vraisemblablement transformée dans les années 1060-1080, l'église de Saint-Chef reflète, par son évolution architecturale, celle des pratiques liturgiques ; son programme iconographique, qui unit trois espaces distincts de l'église, traduit d'une manière parfois originale les préoccupations et les aspirations d'une communauté monastique du XIe siècle. On soulignera toutefois que notre compréhension des peintures est limitée par la perte du décor qui, sans doute, ornait l'abside et d'autres parties de l'église ; la disparition de la crypte du choeur nuit aussi à l'appréhension de l'organisation liturgique sur cette partie de l'édifice. Seules des fouilles archéologiques ou la découverte de nouvelles peintures pourront peut-être, à l'avenir, enrichir l'état de nos connaissances.
Resumo:
Objectifs: Des décès suite à une intervention chirurgicale sont autopsiés dans le but de déterminer le cause de la mort et investiguer une éventuelle erreur médicale . Le butde l'étude est d'évaluer l'utilité de l'angio-TDM post mortem pour ce type d'investigations médico-légales délicates. Matériels et méthodes: 145 cas médico-légaux ont été investigués. De ce collectif, huit cas impliquaient une intervention chirurgicale pour laquelle le décès pouvait être éventuellementimputé. Les résultats des examens radiologiques ont été comparés avec ceux obtenus par l'autopsie conventionnelle. Résultats: La cause du décès était soit un choc hémorragique ou septique, soit la combinaison d'une hémorragie et d'une aspiration de sang. Le diagnostic a pu être posélors de l'autopsie conventionnelle de même que lors de l'examen radiologique. Cependant, l'examen par angio-TDM a permis de détecter la source exacte deshémorragies dans cinq des six cas, alors que l'autopsie n'a permis de localiser le site hémorragique approximativement que dans trois cas . Conclusion: L'angio-TDM post-mortem est recommandée dans les cas de décès post-interventionnels. Elle permet de documenter les constatations et de réexaminer les casultérieurement. De plus, la source exacte des hémorragies peut être localisée ce qui est d'une grande importance dans ce genre de cas.
Resumo:
Résumé : L'arc volcanique du sud de l'Amérique Centrale se situe sur la marge SW de la Plaque Caraïbe, au-dessus des plaques subduites de Cocos et Nazca. Il s'agit de l'un des arcs intra-océaniques les plus étudiés au monde, qui est généralement considéré comme s'étant développé à la fin du Crétacé le long d'un plateau océanique (le Plateau Caraïbe ou CLIP) et se trouvant actuellement dans un régime de subduction érosive. Au cours des dernières décennies, des efforts particuliers ont été faits pour comprendre les processus liés à la subduction sur la base d'études géophysiques et géochimiques. Au sud du Costa Rica et à l'ouest du Panama, des complexes d'accrétions et structures à la base de l'arc volcanique ont été exposés grâce à la subduction de rides asismiques et de failles transformantes. Des affleurements, situés jusqu'à seulement 15 km de la fosse, offrent une possibilité unique de mieux comprendre quelques uns des processus ayant lieu le long de la zone de subduction. Nous présentons de nouvelles contraintes sur l'origine de ces affleurements en alliant une étude de terrain poussée, de nouvelles données géochimiques, sédimentaires et paléontologiques, ainsi que des observations structurales effectuées en télédétection. Une nouvelle stratigraphie tectonique entre le Campanien et l'Éocène est définie pour la région d'avant-arc située entre la Péninsule d'Osa (Costa Rica) et la Péninsule d'Azuero (Panama). Nos résultats montrent que la partie externe de la marge est composée d'un arrangement complexe de roches ignées et de séquences sédimentaires de recouvrement qui comprennent principalement le socle de l'arc, des roches d'arc primitif, des fragments de monts sous-marins accrétés et des mélanges d'accrétion. Des preuves sont données pour le développement de l'arc volcanique du sud de l'Amérique Centrale sur un plateau océanique. Le début de la subduction le long de la marge SW de la Plaque Caraïbe a eu lieu au Campanien et a généré des roches d'arc primitif caractérisées par des affinités géochimiques particulières, globalement intermédiaires entre des affinités de plateau et d'arc insulaire. L'arc était mature au Maastrichtien et formait un isthme essentiellement continu entre l'Amérique du Nord et l'Amérique du Sud. Ceci a permis la migration de faunes terrestres entre les Amériques et pourrait avoir contribué à la crise fin Crétacé -Tertiaire en réduisant les courants océaniques subéquatoriaux entre le Pacifique et l'Atlantique. Plusieurs unités composées de fragments de monts sous-marins accrétés sont définies. La nature et l'arrangement structural de ces unités définissent de nouvelles contraintes sur les modes d'accrétion des monts sous-marins/îles océaniques et sur l'évolution de la marge depuis la formation de la zone de subduction. Entre la fin du Crétacé et l'Éocène moyen, la marge a enregistré plusieurs épisodes ponctuels d'accrétion de monts sous-marins alternant avec de la subduction érosive. A l'Éocène moyen, un événement tectonique régional pourrait avoir causé un fort couplage entre les plaques supérieure et inférieure, menant à des taux plus important d'accrétion de monts sous-marins. Durant cette période, la situation le long de la marge était très semblable à la situation actuelle et caractérisée par la présence de monts sous-marins subductants et l'absence d'accrétion de sédiments. L'enregistrement géologique montre qu'il n'est pas possible d'attribuer une nature érosive ou accrétionnaire à la marge dans le passé ou -par analogie- aujourd'hui, parce que (1) les processus d'accrétion et érosifs varient fortement spatialement et temporellement et (2) il est impossible d'évaluer la quantité exacte de matériel tectoniquement enlevé à la marge depuis le début de la subduction. Au sud du Costa Rica, certains fragments de monts sous-marins accrétés sont représentatifs d'une interaction entre une ride et un point chaud dans le Pacifique au Crétacé terminal/Paléocène. L'existence de ces fragments de monts sous-marins et la morphologie du fond de l'Océan Pacifique indiquent que la formation de la ride de Cocos-Nazca s'est formée au moins ~40 Ma avant l'âge proposé par les modèles tectoniques actuels. Au Panama, nous avons identifié une île océanique d'âge début Éocène qui a été accrétée à l'Éocène moyen. L'accrétion a eu lieu à très faible profondeur par détachement de l'île dans la fosse, et a mené à une exceptionnelle préservation des structures volcaniques. Des affleurement comprenant aussi bien des parties basses et hautes de l'édifice volcanique on été étudiées, depuis la phase sous-marine bouclier jusqu'à la phase subaérienne post-bouclier. La stratigraphie nous a permis de différencier les laves de la phase sous-marine de celles de la phase subaérienne. La composition des laves indique une diminution progressive de l'intensité de la fusion partielle de la source et une diminution de la température des laves produites durant les derniers stades de l'activité volcanique. Nous interprétons ces changements comme étant liés à l'éloignement progressif de l'île océanique de la zone de fusion ou point chaud. Abstract The southern Central American volcanic front lies on the SW edge of the Caribbean Plate, inboard of the subducting Cocos and Nazca Plates. It is one of the most studied intra-oceanic convergent margins around the world, which is generally interpreted to have developed in the late Cretaceous along an oceanic plateau (the Caribbean Large Igneous Province or CLIP) and to be currently undergoing a regime of subduction erosion. In the last decades a particular effort has been made to understand subduction-related processes on the basis of geophysical and geochemical studies. In southern Costa Rica and western Panama accretionary complexes and structures at the base of the volcanic front have been exposed in response to subduction of aseismic ridges and transforms. Onland exposures are located as close as to 15 km from the trench and provide a unique opportunity to better understand some of the processes occurring along the subduction zone. We provide new constraints on the origins of these exposures by integrating a comprehensive field work, new geochemical, sedimentary and paleontological data, as well as structural observations based on remote imaging. A new Campanian to Eocene tectonostratigraphy is defined for the forearc area located between the Osa Peninsula (Costa Rica) and the Azuero Peninsula (Panama). Our results show that the outer margin is composed of a complicated arrangement of igneous complexes and overlapping sedimentary sequences that essentially comprise an arc basement, primitive island-arc rocks, accreted seamount fragments and accretionary mélanges. Evidences are provided for the development of the southern Central American arc on the top an oceanic plateau. The subduction initiation along the SW edge of the Caribbean Plate occurred in the Campanian and led to formation of primitive island-arc rocks characterized by unusual geochemical affinities broadly intermediate between plateau and arc affinities. The arc was mature in the Maastrichtian and was forming a predominantly continuous landbridge between the North and South Americas. This allowed migration of terrestrial fauna between the Americas and may have contributed to the Cretaceous-Tertiary crisis by limiting trans-equatorial oceanic currents between the Pacific and the Atlantic. Several units composed of accreted seamount fragments are defined. The nature of the units and their structural arrangement provide new constraints on the modes of accretion of seamounts/oceanic islands and on the evolution of the margin since subduction initiation. Between the late Cretaceous and the middle Eocene, the margin recorded several local episodes of seamount accretion alternating with tectonic erosion. In the middle Eocene a regional tectonic event may have triggered strong coupling between the overriding and subducting plates, leading to higher rates of seamount accretion. During this period the situation along the margin was very similar to the present and characterized by subducting seamounts and absence of sediment accretion. The geological record shows that it is not possible to ascribe an overall erosive or accretionary nature to the margin in the past and, by analogy, today, because (1) accretionary and erosive processes exhibit significant lateral and temporal variations and (2) it is impossible to estimate the exact amount of material tectonically eroded from the margin since subduction initiation. In southern Costa Rica, accreted seamount fragments point toward a plume-ridge interaction in the Pacific in the late Cretaceous/Paleocene. This occurrence of accreted seamount fragments and morphology of the Pacific Ocean floor is indicative of the formation of the Cocos-Nazca spreading system at least ~40 Ma prior to the age proposed in current tectonic models. In Panama, we identified a remarkably-well preserved early Eocene oceanic island that accreted in the middle Eocene. The accretion probably occurred at very shallow depth by detachment of the island in the trench and led to an exceptional preservation of the volcanic structures. Exposures of both deep and superficial parts of the volcanic edifice have been studied, from the submarine-shield to subaerial-postshield stages. The stratigraphy allowed us to distinguish lavas produced during the submarine and subaerial stages. The lava compositions likely define a progressive diminution of source melting and a decrease in the temperature of erupted melts in the latest stages of volcanic activity. We interpret these changes to primarily reflect the progressive migration of the oceanic island out of the melting region or hotspot.
Resumo:
INTRODUCTION Le pays s'étendant entre le Strymon et le Nestos, c'est-à-dire la Thrace du sud-ouest, est une région montagneuse riche en mines d'or, d'argent, de fer, de cuivre et de plomb, qui dispose en outre de plusieurs vastes plaines fertiles. Un grand nombre de peuples indigènes habitaient dans ce pays et tiraient profit de ses richesses durant les époques archaïque et classique. Ces richesses sont également à l`origine de l'intérêt que portèrent plusieurs colons grecs à cette région. Le but de cet ouvrage n'est pas d'analyser de manière exhaustive l'histoire de la Thrace du sud-ouest. Ce sujet fait d'ailleurs l'objet de nombreuses investigations savantes internationales. En revanche, nous souhaitons approfondir certains aspects des relations que les peuples indigènes de cette région entretinrent avec les pouvoirs limitrophes, notamment avec l'île de Thasos et les autres cités grecques de la région, avec le royaume de Macédoine et, en dernier lieu, avec Athènes. Pour ce faire, nous étudierons dans un premier temps la topographie et les ressources naturelles de la région. Nous examinerons des problèmes portant sur l'identification des montagnes, des lacs et des rivières ainsi que sur la localisation de toponymes et de villes. Cet exposé, accompagné d'une carte, vise non seulement à rapprocher les toponymes actuels des toponymes transmis par les auteurs anciens mais aussi à enrichir nos connaissances relatives aux ressources naturelles de ces territoires. Où se trouvaient les zones minières principales et à quelles peuplades étaient-elles associées ? A quelle époque remontait leur exploitation ? On suppose souvent que ces mines cessèrent de fonctionner avant l'époque impériale. Cette hypothèse est-elle correcte ? Le but principal du premier chapitre de cette étude est de rassembler les données de nature archéologique et géologique relatives à l'exploitation des mines de la région concernée en les associant aux nombreux témoignages fournis par les auteurs antiques. Le deuxième chapitre concerne le peuplement du pays étudié. Nous nous efforcerons d'apporter des précisions sur l'origine des populations indigènes et sur la date approximative de leur installation dans la région. En se fondant sur les nombreuses informations que nous avons réunies, nous nous pencherons en particulier sur les questions relatives à la situation géographique de ces populations. Les richesses et la position stratégique de la Thrace du sud-ouest attirèrent de nombreux prétendants d`origines différentes. La vision que l`on a de la Thrace du sud-ouest aux époques archaïque et classique est le plus souvent celle d'un pays habité par des populations thraces hostiles envers les Grecs, et plus particulièrement envers les Athéniens. Est-ce qu'est cette image exacte ? En s'appuyant sur les sources littéraires et archéologiques, le troisième chapitre propose une discussion sur les premiers contacts que les divers peuples établis dans cette région établirent avec les Grecs venant de Thasos, d'Andros et d'Asie Mineure durant les VIIe et VIe siècles. Nous nous pencherons ensuite sur le rôle que jouèrent Macédoniens et Athéniens dans l'évolution du peuplement de cette région au cours du VIe siècle et au début du Ve siècle. Cette question, qui constitue le sujet du quatrième chapitre, a rendu nécessaire le réexamen du processus de l'expansion macédonienne vers l'est jusqu'au pays du Strymon. A quelle époque remonte cette expansion et quelles furent ses conséquences pour les peuples concernés? Nous allons aussi examiner le contexte historique du séjour de Pisistrate dans la région du Pangée et des rapports qu'entretint Miltiade Il avec les peuples indigènes et la Macédoine. Pour ce faire, nous nous fonderons sur l'apport des sources littéraires, épigraphiques et archéologiques. Les réponses à ces questions nous permettront ensuite, dans le cinquième chapitre, de nous interroger sur la nature des relations politiques et économiques des peuples indigènes avec Thasos, Athènes et la Macédoine dans le cadre de l'occupation perse en Thrace. Le sixième chapitre, quant à lui, se propose d`étudier l'équilibre politique et économique entre Athènes, Thasos et la Macédoine dans le territoire édonien et bisalte durant le Ve siècle. Nous nous proposons d`examiner les données témoignant de l'influence et du contrôle exercés par chacun de ces pouvoirs dans la région. Cette discussion soulève un certain nombre de questions historiques importantes. Quel rôle jouèrent les rois macédoniens dans le pays du Strymon ? Est-ce que l'entrée des cités grecques de Bisaltie dans la Ligue de Délos témoigne de l'affaiblissement du pouvoir du royaume de Macédoine, comme on le pense d'habitude ? Dans quelles zones furent actifs les Athéniens ? De quels appuis disposaient les Thasiens sur le continent avant et après la perte de leurs mines et emporia au profit des Athéniens (465-463) ? Cette discussion nous permettra aussi de faire une distinction claire entre les peuples indigènes annexés au royaume macédonien et ceux qui demeurèrent autonomes à partir de la fin du VIe siècle avant J.-C. En quoi consistait l'autonomie de ces Thraces et comment l'expliquer? L'histoire et l'organisation des ethnè thraces de la région suite à leur annexion au royaume macédonien durant le IVe siècle constituent le sujet du septième chapitre. La question de la présence athénienne dans cette région a provoqué de nombreux débats. Les savants modernes affirment souvent que les sources ne se réfèrent pas à l'existence d'une ville athénienne dans la région. Dans le huitième chapitre, nous réexaminerons les éléments de ce débat, qui touche directement au problème de la localisation de la cité prospère de Datos et des conditions historiques de la fondation de Philippes (357 avant J -C.). Enfin, nous traiterons la question du statut juridique des Athéniens présents dans la région. Bien que notre documentation sur ces sujets soit riche, elle demeure très fragmentaire. En effet, de nombreux ouvrages antiques qui traitaient de ce pays ne nous sont pas parvenus. Hormis les poèmes d"Eschyle Lycourgeia, d'[Euripide] Rhèsos et les histoires invraisemblables d'Asclepiades de Tragilos intitulées Tragodoumena, nous avons perdu des dizaines de livres historiques et géographiques rédigées par Hécatée, Hellanicos, Ephore, Eudoxe, Théopompe, Marsyas le Philippien, Armenidas, Hégisippos de Mekybema, Balakros, ainsi que Strabon, qui nous auraient certainement donné une image plus précise de l'histoire de la Thrace du sud-ouest au VIe siècle et à l'époque classique. La documentation relative à l'histoire politique, économique, sociale et géographique de la région nous fait défaut. Une autre difficulté majeure de notre travail consiste dans la nature complexe de l'histoire de la région elle-même. Enfin, une foule de questions de géographie historique et de topographie ne sont pas encore résolues. Toutes ces difficultés sont accentuées malheureusement par le manque de données archéologiques. Seul un petit nombre de sites, repérés grâce à des prospections de surface, ont fait l'objet de fouilles systématiques et de publications complètes. Il ne fait aucun doute que des recherches archéologiques nous fourniraient des indices permettant de répondre aux nombreuses questions historiques et géographiques encore en suspens. Pour tenter de pallier ces lacunes, nous avons réexaminé toutes les sources, repris l"inte1-prétation des passages litigieux et mis en valeur les résultats des nouvelles recherches.
Resumo:
Résumé Ce travail de thèse étudie des moyens de formalisation permettant d'assister l'expert forensique dans la gestion des facteurs influençant l'évaluation des indices scientifiques, tout en respectant des procédures d'inférence établies et acceptables. Selon une vue préconisée par une partie majoritaire de la littérature forensique et juridique - adoptée ici sans réserve comme point de départ - la conceptualisation d'une procédure évaluative est dite 'cohérente' lors qu'elle repose sur une implémentation systématique de la théorie des probabilités. Souvent, par contre, la mise en oeuvre du raisonnement probabiliste ne découle pas de manière automatique et peut se heurter à des problèmes de complexité, dus, par exemple, à des connaissances limitées du domaine en question ou encore au nombre important de facteurs pouvant entrer en ligne de compte. En vue de gérer ce genre de complications, le présent travail propose d'investiguer une formalisation de la théorie des probabilités au moyen d'un environment graphique, connu sous le nom de Réseaux bayesiens (Bayesian networks). L'hypothèse principale que cette recherche envisage d'examiner considère que les Réseaux bayesiens, en concert avec certains concepts accessoires (tels que des analyses qualitatives et de sensitivité), constituent une ressource clé dont dispose l'expert forensique pour approcher des problèmes d'inférence de manière cohérente, tant sur un plan conceptuel que pratique. De cette hypothèse de travail, des problèmes individuels ont été extraits, articulés et abordés dans une série de recherches distinctes, mais interconnectées, et dont les résultats - publiés dans des revues à comité de lecture - sont présentés sous forme d'annexes. D'un point de vue général, ce travail apporte trois catégories de résultats. Un premier groupe de résultats met en évidence, sur la base de nombreux exemples touchant à des domaines forensiques divers, l'adéquation en termes de compatibilité et complémentarité entre des modèles de Réseaux bayesiens et des procédures d'évaluation probabilistes existantes. Sur la base de ces indications, les deux autres catégories de résultats montrent, respectivement, que les Réseaux bayesiens permettent également d'aborder des domaines auparavant largement inexplorés d'un point de vue probabiliste et que la disponibilité de données numériques dites 'dures' n'est pas une condition indispensable pour permettre l'implémentation des approches proposées dans ce travail. Le présent ouvrage discute ces résultats par rapport à la littérature actuelle et conclut en proposant les Réseaux bayesiens comme moyen d'explorer des nouvelles voies de recherche, telles que l'étude de diverses formes de combinaison d'indices ainsi que l'analyse de la prise de décision. Pour ce dernier aspect, l'évaluation des probabilités constitue, dans la façon dont elle est préconisée dans ce travail, une étape préliminaire fondamentale de même qu'un moyen opérationnel.
Resumo:
Résumé : La radiothérapie par modulation d'intensité (IMRT) est une technique de traitement qui utilise des faisceaux dont la fluence de rayonnement est modulée. L'IMRT, largement utilisée dans les pays industrialisés, permet d'atteindre une meilleure homogénéité de la dose à l'intérieur du volume cible et de réduire la dose aux organes à risque. Une méthode usuelle pour réaliser pratiquement la modulation des faisceaux est de sommer de petits faisceaux (segments) qui ont la même incidence. Cette technique est appelée IMRT step-and-shoot. Dans le contexte clinique, il est nécessaire de vérifier les plans de traitement des patients avant la première irradiation. Cette question n'est toujours pas résolue de manière satisfaisante. En effet, un calcul indépendant des unités moniteur (représentatif de la pondération des chaque segment) ne peut pas être réalisé pour les traitements IMRT step-and-shoot, car les poids des segments ne sont pas connus à priori, mais calculés au moment de la planification inverse. Par ailleurs, la vérification des plans de traitement par comparaison avec des mesures prend du temps et ne restitue pas la géométrie exacte du traitement. Dans ce travail, une méthode indépendante de calcul des plans de traitement IMRT step-and-shoot est décrite. Cette méthode est basée sur le code Monte Carlo EGSnrc/BEAMnrc, dont la modélisation de la tête de l'accélérateur linéaire a été validée dans une large gamme de situations. Les segments d'un plan de traitement IMRT sont simulés individuellement dans la géométrie exacte du traitement. Ensuite, les distributions de dose sont converties en dose absorbée dans l'eau par unité moniteur. La dose totale du traitement dans chaque élément de volume du patient (voxel) peut être exprimée comme une équation matricielle linéaire des unités moniteur et de la dose par unité moniteur de chacun des faisceaux. La résolution de cette équation est effectuée par l'inversion d'une matrice à l'aide de l'algorithme dit Non-Negative Least Square fit (NNLS). L'ensemble des voxels contenus dans le volume patient ne pouvant être utilisés dans le calcul pour des raisons de limitations informatiques, plusieurs possibilités de sélection ont été testées. Le meilleur choix consiste à utiliser les voxels contenus dans le Volume Cible de Planification (PTV). La méthode proposée dans ce travail a été testée avec huit cas cliniques représentatifs des traitements habituels de radiothérapie. Les unités moniteur obtenues conduisent à des distributions de dose globale cliniquement équivalentes à celles issues du logiciel de planification des traitements. Ainsi, cette méthode indépendante de calcul des unités moniteur pour l'IMRT step-andshootest validée pour une utilisation clinique. Par analogie, il serait possible d'envisager d'appliquer une méthode similaire pour d'autres modalités de traitement comme par exemple la tomothérapie. Abstract : Intensity Modulated RadioTherapy (IMRT) is a treatment technique that uses modulated beam fluence. IMRT is now widespread in more advanced countries, due to its improvement of dose conformation around target volume, and its ability to lower doses to organs at risk in complex clinical cases. One way to carry out beam modulation is to sum smaller beams (beamlets) with the same incidence. This technique is called step-and-shoot IMRT. In a clinical context, it is necessary to verify treatment plans before the first irradiation. IMRT Plan verification is still an issue for this technique. Independent monitor unit calculation (representative of the weight of each beamlet) can indeed not be performed for IMRT step-and-shoot, because beamlet weights are not known a priori, but calculated by inverse planning. Besides, treatment plan verification by comparison with measured data is time consuming and performed in a simple geometry, usually in a cubic water phantom with all machine angles set to zero. In this work, an independent method for monitor unit calculation for step-and-shoot IMRT is described. This method is based on the Monte Carlo code EGSnrc/BEAMnrc. The Monte Carlo model of the head of the linear accelerator is validated by comparison of simulated and measured dose distributions in a large range of situations. The beamlets of an IMRT treatment plan are calculated individually by Monte Carlo, in the exact geometry of the treatment. Then, the dose distributions of the beamlets are converted in absorbed dose to water per monitor unit. The dose of the whole treatment in each volume element (voxel) can be expressed through a linear matrix equation of the monitor units and dose per monitor unit of every beamlets. This equation is solved by a Non-Negative Least Sqvare fif algorithm (NNLS). However, not every voxels inside the patient volume can be used in order to solve this equation, because of computer limitations. Several ways of voxel selection have been tested and the best choice consists in using voxels inside the Planning Target Volume (PTV). The method presented in this work was tested with eight clinical cases, which were representative of usual radiotherapy treatments. The monitor units obtained lead to clinically equivalent global dose distributions. Thus, this independent monitor unit calculation method for step-and-shoot IMRT is validated and can therefore be used in a clinical routine. It would be possible to consider applying a similar method for other treatment modalities, such as for instance tomotherapy or volumetric modulated arc therapy.