311 resultados para Métrique logiciel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La planification scanographique (3D) a démontré son utilité pour une reconstruction anatomique plus précise de la hanche (longueur du fémur, centre de rotation, offset, antéversion et rétroversion). Des études ont montré que lors de la planification 2D 50% seulement correspondaient à l'implant définitif du fémur alors que dans une autre étude ce taux s'élevait à 94% pour une planification 3D. Les erreurs étaient liées à l'agrandissement des radiographies. L'erreur sur la taille de la tige est liée à l'estimation inadéquate de la morphologie osseuse ainsi qu'à la densité osseuse. L'erreur de l'antéversion, augmentée par l'inclinaison du bassin, a pu être éliminée par la planification 3D et l'offset restauré dans 98%. Cette étude est basée sur une nouvelle technique de planification scanographique en trois dimensions pour une meilleure précision de la reconstruction de la hanche. Le but de cette étude est de comparer l'anatomie post-opératoire à celle préopératoire en comparant les tailles d'implant prévu lors de la planification 3D à celle réellement utilisée lors de l'opération afin de déterminer l'exactitude de la restauration anatomique avec étude des différents paramètres (centre de rotation, densité osseuse, L'offset fémoral, rotations des implants, longueur du membre) à l'aide du Logiciel HIP-PLAN (Symbios) avec évaluation de la reproductibilité de notre planification 3D dans une série prospective de 50 patients subissant une prothèse totale de hanche non cimentée primaire par voie antérieure. La planification pré-opératoire a été comparée à un CTscan postopératoire par fusion d'images. CONCLUSION ET PRESPECTIVE Les résultats obtenus sont les suivants : La taille de l'implant a été prédit correctement dans 100% des tiges, 94% des cupules et 88% des têtes (longueur). La différence entre le prévu et la longueur de la jambe postopératoire était de 0,3+2,3 mm. Les valeurs de décalage global, antéversion fémorale, inclinaison et antéversion de la cupule étaient 1,4 mm ± 3,1, 0,6 ± 3,3 0 -0,4 0 ± 5 et 6,9 ° ± 11,4, respectivement. Cette planification permet de prévoir la taille de l'implant précis. Position de la tige et de l'inclinaison de la cupule sont exactement reproductible. La planification scanographique préopératoire 3D permet une évaluation précise de l'anatomie individuelle des patients subissant une prothèse totale de hanche. La prédiction de la taille de l'implant est fiable et la précision du positionnement de la tige est excellente. Toutefois, aucun avantage n'est observée en termes d'orientation de la cupule par rapport aux études impliquant une planification 2D ou la navigation. De plus amples recherches comparant les différentes techniques de planification pré-opératoire à la navigation sont nécessaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique¦L'évaluation fonctionnelle du tubule proximal du rein est intéressante pour la compréhension de la physiopathologie des anomalies du transport du sodium à ce niveau du néphron. Ces anomalies participent au développement de l'hypertension artérielle (HTA) et de la sensibilité au sel. Environ 60% à 80% du sodium est réabsorbé proximalement dans le néphron. Chez l'animal, la fonction du tube proximal peut être estimée directement par microponction. Une telle approche directe n'étant pas possible chez l'homme, seul des approches indirectes permettent de recueillir des informations sur la physiologie de ce segment du néphron, comme par exemple par la mesure de la clairance du lithium (endogène ou exogène) ou de l'acide urique. La fraction d'excrétion du lithium (FELi) et la fraction d'excrétion de l'acide urique (FEAU) permettent d'estimer la réabsorption proximale de sodium chez l'homme. Plusieurs études expérimentales et cliniques ont montré l'existence d'une relation linéaire entre la FELi et la fraction excrétée du sodium (FENa) chez l'animal et l'homme.¦Objectif¦Décrire la distribution de la FELi et de la FEAU et analyser les associations de ces deux variables avec l'âge, le sexe, la consommation d'alcool, le tabagisme, la pression artérielle et l'IMC dans l'étude de population Hercules.¦Méthodes¦Sélection au hasard d'un sous-groupe de participants de l'étude CoLaus (N=6188). Nombre de participants à l'étude Hercules: 437, dont 229 femmes et 208 hommes. Les participants ont effectué une récolte d'urine sur 24 heures afin de déterminer la fonction rénale et les FELi et FEAU. Le TFG a été mesuré à l'aide de la clairance de la créatinine. Le test des rangs signés de Wilcoxon pour données appariées ( Wilcoxon matched-pairs signed rank test) et le test de comparaison des médianes ont été utilisés pour la comparaison entre groupes. Le coefficient de corrélation de Spearman a été utilisé pour évaluer la relation entre les variables continues. Les box-plots ont été utilisés pour la description de la distribution du lithium et de l'acide urique selon l'âge, le sexe et la période de la journée. Le logiciel Stata 11.0 a été utilisé pour les analyses statistiques.¦Résultats¦La prévalence de l'HTA dans la population de l'étude Hercules était 33%, la prévalence du diabète était 8%, la prévalence de l'obésité était 15.3%, la prévalence du tabagisme était 23%. La FELi reste stable avec l'âge et est similaire dans les deux sexes. Chez les hommes, la FELi est plus grande la nuit que le jour, c'est-à-dire qu'ils résorbent plus de sodium proximalement le jour que la nuit. Un IMC plus grand est associé à une FELi plus basse dans les deux sexes. Il y a une corrélation négative entre la FEAU et l'IMC (significative) et la consommation d'alcool.¦Conclusion¦Les résultats obtenus avec les données de l'étude Hercules sont similaires à ceux qu'on retrouve dans la littérature sur la FELi et la FEAU , ce qui rassure sur la qualité des données. La FELi varie peu avec l'âge et le sexe, contrairement à la FEAU, qui varie fortement avec l'âge et le sexe. L'HTA, le diabète, l'obésité, le tabagisme et la consommation d'alcool sont associées à une FELi et FEAU plus basses. Les sujets qui présentent ces caractéristiques réabsorbent donc plus de sodium au niveau proximal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La thématique de cette thèse peut être résumée par le célèbre paradoxe de biologie évolutive sur le maintien du polymorphisme face à la sélection et par l'équation du changement de fréquence gamétique au cours du temps dû, à la sélection. La fréquence d'un gamète xi à la génération (t + 1) est: !!!Equation tronquée!!! Cette équation est utilisée pour générer des données utlisée tout au long de ce travail pour 2, 3 et 4 locus dialléliques. Le potentiel de l'avantage de l'hétérozygote pour le maintien du polymorphisme est le sujet de la première partie. La définition commune de l'avantage de l'hétérozygote n'etant applicable qu'a un locus ayant 2 allèles, cet avantage est redéfini pour un système multilocus sur les bases de précédentes études. En utilisant 5 définitions différentes de l'avantage de l'hétérozygote, je montre que cet avantage ne peut être un mécanisme général dans le maintien du polymorphisme sous sélection. L'étude de l'influence de locus non-détectés sur les processus évolutifs, seconde partie de cette thèse, est motivée par les travaux moléculaires ayant pour but de découvrir le nombre de locus codant pour un trait. La plupart de ces études sous-estiment le nombre de locus. Je montre que des locus non-détectés augmentent la probabilité d'observer du polymorphisme sous sélection. De plus, les conclusions sur les facteurs de maintien du polymorphisme peuvent être trompeuses si tous les locus ne sont pas détectés. Dans la troisième partie, je m'intéresse à la valeur attendue de variance additive après un goulot d'étranglement pour des traits sélectionés. Une études précédente montre que le niveau de variance additive après goulot d'étranglement augmente avec le nombre de loci. Je montre que le niveau de variance additive après un goulot d'étranglement augmente (comparé à des traits neutres), mais indépendamment du nombre de loci. Par contre, le taux de recombinaison a une forte influence, entre autre en regénérant les gamètes disparus suite au goulot d'étranglement. La dernière partie de ce travail de thèse décrit un programme pour le logiciel de statistique R. Ce programme permet d'itérer l'équation ci-dessus en variant les paramètres de sélection, recombinaison et de taille de populations pour 2, 3 et 4 locus dialléliques. Cette thèse montre qu'utiliser un système multilocus permet d'obtenir des résultats non-conformes à ceux issus de systèmes rnonolocus (la référence en génétique des populations). Ce programme ouvre donc d'intéressantes perspectives en génétique des populations. Abstract The subject of this PhD thesis can be summarized by one famous paradox of evolu-tionary biology: the maintenance of polymorphism in the face of selection, and one classical equation of theoretical population genetics: the changes in gametic frequencies due to selection and recombination. The frequency of gamete xi at generation (t + 1) is given by: !!! Truncated equation!!! This equation is used to generate data on selection at two, three, and four diallelic loci for the different parts of this work. The first part focuses on the potential of heterozygote advantage to maintain genetic polymorphism. Results of previous studies are used to (re)define heterozygote advantage for multilocus systems, since the classical definition is for one diallelic locus. I use 5 different definitions of heterozygote advantage. And for these five definitions, I show that heterozygote advantage is not a general mechanism for the maintenance of polymorphism. The study of the influence of undetected loci on evolutionary processes (second part of this work) is motivated by molecular works which aim at discovering the loci coding for a trait. For most of these works, some coding loci remains undetected. I show that undetected loci increases the probability of maintaining polymorphism under selection. In addition, conclusions about the factor that maintain polymorphism can be misleading if not all loci are considered. This is, therefore, only when all loci are detected that exact conclusions on the level of maintained polymorphism or on the factor(s) that maintain(s) polymorphism could be drawn. In the third part, the focus is on the expected release of additive genetic variance after bottleneck for selected traits. A previous study shows that the expected release of additive variance increases with an increase in the number of loci. I show that the expected release of additive variance after bottleneck increases for selected traits (compared with neutral), but this increase is not a function of the number of loci, but function of the recombination rate. Finally, the last part of this PhD thesis is a description of a package for the statistical software R that implements the Equation given above. It allows to generate data for different scenario regarding selection, recombination, and population size. This package opens perspectives for the theoretical population genetics that mainly focuses on one locus, while this work shows that increasing the number of loci leads not necessarily to straightforward results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Métropolisation, morphologie urbaine et développement durable. Transformations urbaines et régulation de l'étalement : le cas de l'agglomération lausannoise. Cette thèse s'inscrit clans la perspective d'une analyse stratégique visant à un définir et à expliciter les liens entre connaissance, expertise et décision politique. L'hypothèse fondamentale qui oriente l'ensemble de ce travail est la suivante : le régime d'urbanisation qui s'est imposé au cours des trente dernières années correspond à une transformation du principe morphogénétique de développement spatial des agglomérations qui tend à alourdir leurs bilans écologiques et à péjorer la qualité du cadre de vie des citadins. Ces enjeux environnementaux liés aux changements urbains et singulièrement ceux de la forme urbaine constituent un thème de plus en plus important dans la recherche de solutions d'aménagement urbain dans une perspective de développement durable. Dans ce contexte, l'aménagement urbain devient un mode d'action et une composante de tout premier ordre des politiques publiques visant un développement durable à l'échelle locale et globale. Ces modalités de développement spatial des agglomérations émergent indiscutablement au coeur de la problématique environnementale. Or si le concept de développement durable nous livre une nouvelle de de lecture des territoires et de ses transformations, en prônant le modèle de la ville compacte et son corollaire la densification, la traduction à donner à ce principe stratégique reste controversée, notamment sous l'angle de l'aménagement du territoire et des stratégies de développement urbain permettant une mise en oeuvre adéquate des solutions proposées. Nous avons ainsi tenté dans ce travail de répondre à un certain nombre de questions : quelle validité accorder au modèle de la ville compacte ? La densification est-elle une réponse adéquate ? Si oui, sous quelles modalités ? Quelles sont, en termes de stratégies d'aménagement, les alternatives durables au modèle de la ville étalée ? Faut-il vraiment densifier ou simplement maîtriser la dispersion ? Notre objectif principal étant in fine de déterminer les orientations et contenus urbanistiques de politiques publiques visant à réguler l'étalement urbain, de valider la faisabilité de ces principes et à définir les conditions de leur mise en place dans le cas d'une agglomération. Pour cela, et après avoir choisi l'agglomération lausannoise comme terrain d'expérimentation, trois approches complémentaires se sont révélées indispensables dans ce travail 1. une approche théorique visant à définir un cadre conceptuel interdisciplinaire d'analyse du phénomène urbain dans ses rapports à la problématique du développement durable liant régime d'urbanisation - forme urbaine - développement durable ; 2. une approche méthodologique proposant des outils d'analyse simples et efficaces de description des nouvelles morphologies urbaines pour une meilleure gestion de l'environnement urbain et de la pratique de l'aménagement urbain ; 3. une approche pragmatique visant à approfondir la réflexion sur la ville étalée en passant d'une approche descriptive des conséquences du nouveau régime d'urbanisation à une approche opérationnelle, visant à identifier les lignes d'actions possibles dans une perspective de développement durable. Cette démarche d'analyse nous a conduits à trois résultats majeurs, nous permettant de définir une stratégie de lutte contre l'étalement. Premièrement, si la densification est acceptée comme un objectif stratégique de l'aménagement urbain, le modèle de la ville dense ne peut être appliqué saris la prise en considération d'autres objectifs d'aménagement. Il ne suffit pas de densifier pour réduire l'empreinte écologique de la ville et améliorer la qualité de vie des citadins. La recherche d'une forme urbaine plus durable est tributaire d'une multiplicité de facteurs et d'effets de synergie et la maîtrise des effets négatifs de l'étalement urbain passe par la mise en oeuvre de politiques urbaines intégrées et concertées, comme par exemple prôner la densification qualifiée comme résultante d'un processus finalisé, intégrer et valoriser les transports collectifs et encore plus la métrique pédestre avec l'aménagement urbain, intégrer systématiquement la diversité à travers les dimensions physique et sociale du territoire. Deuxièmement, l'avenir de ces territoires étalés n'est pas figé. Notre enquête de terrain a montré une évolution des modes d'habitat liée aux modes de vie, à l'organisation du travail, à la mobilité, qui font que l'on peut penser à un retour d'une partie de la population dans les villes centres (fin de la toute puissance du modèle de la maison individuelle). Ainsi, le diagnostic et la recherche de solutions d'aménagement efficaces et viables ne peuvent être dissociés des demandes des habitants et des comportements des acteurs de la production du cadre bâti. Dans cette perspective, tout programme d'urbanisme doit nécessairement s'appuyer sur la connaissance des aspirations de la population. Troisièmement, la réussite de la mise en oeuvre d'une politique globale de maîtrise des effets négatifs de l'étalement urbain est fortement conditionnée par l'adaptation de l'offre immobilière à la demande de nouveaux modèles d'habitat répondant à la fois à la nécessité d'une maîtrise des coûts de l'urbanisation (économiques, sociaux, environnementaux), ainsi qu'aux aspirations émergentes des ménages. Ces résultats nous ont permis de définir les orientations d'une stratégie de lutte contre l'étalement, dont nous avons testé la faisabilité ainsi que les conditions de mise en oeuvre sur le territoire de l'agglomération lausannoise. Abstract This dissertation participates in the perspective of a strategic analysis aiming at specifying the links between knowledge, expertise and political decision, The fundamental hypothesis directing this study assumes that the urban dynamics that has characterized the past thirty years signifies a trans-formation of the morphogenetic principle of agglomerations' spatial development that results in a worsening of their ecological balance and of city dwellers' quality of life. The environmental implications linked to urban changes and particularly to changes in urban form constitute an ever greater share of research into sustainable urban planning solutions. In this context, urban planning becomes a mode of action and an essential component of public policies aiming at local and global sustainable development. These patterns of spatial development indisputably emerge at the heart of environmental issues. If the concept of sustainable development provides us with new understanding into territories and their transformations, by arguing in favor of densification, its concretization remains at issue, especially in terms of urban planning and of urban development strategies allowing the appropriate implementations of the solutions offered. Thus, this study tries to answer a certain number of questions: what validity should be granted to the model of the dense city? Is densification an adequate answer? If so, under what terms? What are the sustainable alternatives to urban sprawl in terms of planning strategies? Should densification really be pursued or should we simply try to master urban sprawl? Our main objective being in fine to determine the directions and urban con-tents of public policies aiming at regulating urban sprawl, to validate the feasibility of these principles and to define the conditions of their implementation in the case of one agglomeration. Once the Lausanne agglomeration had been chosen as experimentation field, three complementary approaches proved to be essential to this study: 1. a theoretical approach aiming at definying an interdisciplinary conceptual framework of the ur-ban phenomenon in its relation to sustainable development linking urban dynamics - urban form - sustainable development ; 2. a methodological approach proposing simple and effective tools for analyzing and describing new urban morphologies for a better management of the urban environment and of urban planning practices 3. a pragmatic approach aiming at deepening reflection on urban sprawl by switching from a descriptive approach of the consequences of the new urban dynamics to an operational approach, aiming at identifying possible avenues of action respecting the principles of sustainable development. This analysis approach provided us with three major results, allowing us to define a strategy to cur-tail urban sprawl. First, if densification is accepted as a strategic objective of urban planning, the model of the dense city can not be applied without taking into consideration other urban planning objectives. Densification does not suffice to reduce the ecological impact of the city and improve the quality of life of its dwellers. The search for a more sustainable urban form depends on a multitude of factors and effects of synergy. Reducing the negative effects of urban sprawl requires the implementation of integrated and concerted urban policies, like for example encouraging densification qualified as resulting from a finalized process, integrating and developing collective forms of transportation and even more so the pedestrian metric with urban planning, integrating diversity on a systematic basis through the physical and social dimensions of the territory. Second, the future of such sprawling territories is not fixed. Our research on the ground revea-led an evolution in the modes of habitat related to ways of life, work organization and mobility that suggest the possibility of the return of a part of the population to the center of cities (end of the rule of the model of the individual home). Thus, the diagnosis and the search for effective and sustainable solutions can not be conceived of independently of the needs of the inhabitants and of the behavior of the actors behind the production of the built territory. In this perspective, any urban program must necessarily be based upon the knowledge of the population's wishes. Third, the successful implementation of a global policy of control of urban sprawl's negative effects is highly influenced by the adaptation of property offer to the demand of new habitat models satisfying both the necessity of urbanization cost controls (economical, social, environ-mental) and people's emerging aspirations. These results allowed us to define a strategy to cur-tail urban sprawl. Its feasibility and conditions of implementation were tested on the territory of the Lausanne agglomeration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat a comme sujet la poésie dialectale contemporaine du Nord de l'Italie. Il s'agit d'une étude métrique de poésies écrites dans divers dialectes sélectionnés sur la base d'un système linguistique unitaire tel que le galloitalico que l'on trouve au Piémont, en Lombardie, en Ligurie et en Emilie-Romagne. Plus précisément, le corpus soumis à examen prend en considération les formes poétiques qui, au cours de la deuxième moitié du XXème siècle, confèrent au vers libre une certaine régularité comme les structures « simples » presque archétypiques des quatrains, des huitains et de toutes les formes métriques qui optent pour une strophe unique avec un nombre de vers multiple de quatre. Ces dernières sont particulièrement intéressantes car elles peuvent cacher une structure en quatrain souvent dévoilée par la disposition des rimes, de la syntaxe et parfois également du rythme. Ces choix qui pourraient sembler arbitraires sont en réalité liés aux tentatives des poètes de reprendre des formes de la tradition pour les innover ou simplement pour les reproposer avec ou sans modification. Les liens avec la tradition et la notion de libertà nella chiusura ont été étudiés en fonction des composantes fondamentales de l'organisme métrique, c'est-à-dire la forme, les rimes, la syllabation et le rythme. Pour citer Raboni, il s'agit de comprendre la manière dont "la dissonanza può essere usata per «salvare» l'ipotesi tonale" et la manière dont "la trasgressione metrica finisce col prolungare la vita della regola alla quale, derivandone, si oppone" (Giovanni RABONI, L'opera poetica, a cura di Rodolfo Zucco, Milano, Mondadori, i Meridiani, 2006, p.403). L'objectif de cette recherche est donc d'explorer et d'expliquer l'ambiguïté métrique de la poésie dialectale du XXème siècle tout en se référant à un article fondamental pour ce genre d'étude écrit par Pier Vincenzo Mengaldo et intitulé Questioni metriche novecentesche. L'ambition de cette thèse ne se limite pas à prolonger une réflexion encore à ses débuts dans le cas de la poésie régionale contemporaine, mais elle réalise également un panorama essentiel, bien que sommaire, qui met au premier plan les aspects innovateurs, et parfois conservateurs de la poésie dialectale contemporaine de certaines régions du Nord de l'Italie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RAPPORT DE SYNTHESE : Les deux articles présentés dans ce mémoire de thèse sont le résultat de recherches effectuées au sein du Groupe de Recherche sur la Santé des Adolescents, affilié à l'Unité Multidisciplinaire de Santé des Adolescents du Centre Hospitalier Universitaire Vaudois. Les études qui constituent les présents articles ont pour thème commun la santé des adolescents atteints d'affections chroniques, à savoir d'une maladie chronique et/ou d'un handicap physique. Les données qui ont servi à ces deux études sant issues de l'enquête SMASH02 (Swiss Multicenter Adolescent Survey on Health 2002), une étude transversale multicentrique, menée en 2002 dans les écoles post-obligatoires de la majorité des cantons suisses par l'intermédiaire de questionnaires anonymes. 7548 adolescents de 16 à 20 ans ont été recrutés dans cette enquête, qui porte sur de nombreux aspects de la santé et des modes de vie des adolescents. Les analyses des données ont été effectuées à l'aide du logiciel de statistiques STATA 9 et avec l'aide d'un statisticien de l'université de Lausanne. Le premier article, intitulé "Sport Practice Among Adolescents Witte Chrome Health Conditions", est publié en juin 2009 dans la revue Archives of Pediatrics and Adolescent Medicine. Cette étude compare le niveau d'activité sportive entre les adolescents atteints d'affections chroniques et leurs pairs. L'hypothèse de recherche postule que les adolescents malades chroniques et/ou en situation de handicap pratiquent significativement moins de sport que les autres. Il ressort des analyses statistiques que cette hypothèse n'est vérifiée que si l'on considère les adolescents de sexe masculin. En effet, l'étude montre également que les filles de 16 à 20 ans en général pratiquent significativement moins de sport que leurs pairs masculins. Et le fait d'être atteint d'une affection chronique semble ne pas représenter chez elles un facteur,de risque supplémentaire de diminution de la pratique sportive. Dans ce même article, nous traitons également des éléments perçus par les adolescents comme des barrières à la pratique sportive. Il s'avère que les adolescents atteints d'affections chroniques ne perçoivent pas leur maladie ou leur situation de handicap comme la principale raison de leur faible activité sportive. Ils évoquent plus fréquemment un manque de temps libre ou une préférence pour d'autres activités, soit les mêmes barrières que celles évoquées par leurs pairs. Les conclusions de cette étude doivent rappeler aux professionnels de la santé l'importance d'encourager la pratique sportive chez leurs jeunes patients, particulièrement ceux atteints d'affections chroniques ainsi que les adolescentes en général. Dans le second article, intitulé "Are Adolescents With Chronic Conditions Particularly at Risk of Bullying?", il est question de violence entre adolescents. Plus précisément, nous étudions la prévalence de bullying chez les adolescents atteints d'affections chroniques et leurs pairs. Le terme de bullying, volontairement emprunté à l'Anglais, représente un phénomène complexe, que l'on peut approximer en Français comme une victimisation par les pairs en milieu scolaire. Il résulte de cette étude que le fait d'être atteint d'une affection chronique semble être un facteur de risque significatif de bullying chez les adolescents de 16 à 20 ans. Cette conclusion amène à considérer le problème du bullying dans l'intégration des élèves malades chroniques et en situation de handicap dans le système scolaire principal, notamment par la mise en place de mesures de prévention. Cet article est publié en ligne par la revue Archives of Disease in Childhood en mars 2009.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé pour le grand public L'île de Fuerteventura (Canaries) offre l'occasion rare d'observer les racines d'un volcan océanique édifié il y a 25 à 30 millions d'années et complètement érodé. On y voit de nombreux petits plutons de forme et composition variées, témoignant d'autant d'épisodes de l'activité magmatique. L'un de ces plutons, appelé PX1, présente une structure inhabituelle formée d'une alternance de bandes verticales d'épaisseur métrique à hectométrique de roches sombres de composition pyroxénilique ou gabbroïque. Les pyroxénites résultent clairement de l'accumulation de cristaux de pyroxènes et non de la simple solidification d'un magma? Se pose dès lors la question de la nature du processus qui a conduit à l'accumulation verticale de niveaux concentrés en pyroxènes. En effet, les litages pyroxénitiques classiques sont subhorizontaux, car ils résultent de l'accumulation gravitaire des cristaux séparés du magma dont ils cristalli¬sent par sédimentation. Cette étude vise à identifier et comprendre les mécanismes qui ont engendré ce Iitage minéralogique vertical et l'im¬portant volume de ces faciès cumulatifs. Nous nous sommes également intéressés aux conditions de pression et de température régnant au moment de la mise en place du pluton, ainsi qu'à sa durée de vie et à sa vitesse de refroidis¬sement. Enfin une approche géochimique nous a permis de préciser la nature de la source mantellique des magmas liés à cette activité magmatique. PX1 est en réalité un complexe filonien formé à des conditions de pression et de température de 1-2 kbar et 1050- 1100°C; sa construction a nécessité au moins 150 km3 de magma. L'alternance d'horizons gabbroïques et pyroxéniti¬ques représente des injections successives de magma sous la forme de filons verticaux, mis en place dans un contexte régional en extension. L'étude des orientations des minéraux dans ces faciès révèle que les horizons gabbroïques enregistrent l'extension régionale, alors que les pyroxénites sont générées par une compaction au sein du pluton. Ceci suggère que le régime des contraintes, qui était extensif lors de l'initiation de la mise en place de PX1, est pério¬diquement devenu compressif au sein même du pluton. Cette compression serait liée à des cycles de mise en place où la vitesse de croissance du pluton dépassait celle de l'extension régionale. La différenciation observée au sein de chaque horizon, depuis des pyroxénites riches en olivine jusqu'à des pyroxé¬nites à plagioclase interstitiel et des gabbros, ainsi que la composition géochimique des minéraux qui les constituent suggèrent que chaque filon vertical s'est mis en place à partir d'un magma de composition identique, puis a évolué indépendamment des autres en fonction du régime thermique et du régime des contraintes local. Lorsque le magma en train de cristalliser s'est trouvé en compression, le liquide résiduel a été séparé des cristaux déjà formés et extrait du système, laissant derrière lui une accumulation de cristaux dont la nature et les proportions dépendaient du stade de cristallisation atteint par le magma au moment de l'extraction. Ainsi, les niveaux de pyroxénites à olivine (premier minéral à cristalliser) ont été formés lorsque le magma correspondant était encore peu cristallisé; à l'inverse, les py¬roxénites riches en plagioclase (minéral plus tardif dans la séquence de cristallisation) et certains gabbros à caractère cumulatif résultent d'une compression tardive dans le processus de cristallisation du filon concerné. Les liquides résiduels extraits des niveaux pyroxénitiques sont rarement observés dans PX1, certaines poches et filonets de com¬position anorthositique pourraient en être les témoins. L'essentiel de ces liquides a probablement gagné des niveaux supérieurs du pluton, voire la surface du volcan. L'origine du régime compressif périodique affectant les filons en voie de cristallisation est attribuée aux injections suivantes de magma au sein du pluton, qui se sont succédées à un rythme plus rapide que la vitesse de consolidation des filons. Des datations U/Pb de haute précision sur des cristaux de zircon et de baddeleyite ainsi que40Ar/39Ar sur des cris¬taux d'amphibole révèlent une initiation de la mise en place de PX1 il y a 22.1 ± 0,7 Ma; celle-ci a duré quelque 0,48 ± 0,22 à 0,52 ± 0,29 Ma. Ce laps de temps est compatible avec celui nécessaire à la cristallisation des filons individuels, qui va de moins d'une année lors de l'initiation du magmatisme à 5 ans lors du maximum d'activité de PX1. La présence de cristaux résorbés enregistrant une cristallisation complexe suggère l'existence d'une chambre mag¬matique convective sous-jacente à PX1 et périodiquement rechargée. Les compositions isotopiques des roches étu¬diées révèlent une source mantellique profonde de type point chaud avec une contribution du manteau lithosphéri- que métasomatisé présent sous les îles Canaries. Résumé L'intrusion mafique Miocène PX1 fait partie du soubassement superficiel (0.15-0.2 GPa, 1100 °Q d'un volcan d'île océanique. La particularité de ce pluton est l'existence d'alternances d'unités de gabbros et de pyroxénites qui met¬tent en évidence un litage magmatique vertical (NNE-SSW). Les horizons gabbroiques et pyroxénitiques sont constitués d'unités de différenciation métriques qui suggèrent tine mise en place par injections périodiques de filons verticaux de magma formant un complexe filonien. Chaque filon vertical a subi une différenciation parallèle à un front de solidification sub-vertical parallèle aux bords du filon. Les pyroxénites résultent du fractionnement et de l'accumulation d'olivine ± clinopyroxene ± plagioclase à partir d'un magma basaltique faiblement alcalin et sont interprétées comme étant des imités de différenciation tronquées dont le liquide interstitiel a été extrait par compaction. L'orientation préférentielle des clinopyroxènes dans ces pyroxe- nites (obtenues par analyse EBSD et micro-tomographique) révèle une composante de cisaillement simple dans la genèse de ces roches, ce qui confirme cette interprétation. La compaction des pyroxénites est probablement causée par a mise en place de filons de magma suivants. Le liquide interstitiel expulsé est probablement par ces derniers. Les clinopyroxènes des gabbros, montrent une composante de cisaillement pure suggérant qu'ils sont affectés par une déformation syn-magmatique parallèle aux zones de cisaillement NNE-SSW observées autour de PX1 et liées au contexte tectonique Miocène d'extension régionale. Ceci suggère que les gabbros sont liés à des taux de mise en place faibles à la fin de cycles d'activité magmatique et sont peu ou pas affectés par la compaction. L'initiation et la géométrie de PX1 sont donc contrôlées par le contexte tectonique régional d'extension alors que les taux et les volumes de magma dépendent de facteurs liés à la source. Des taux d'injection élevés résultent probable¬ment en une croissance du pluton supérieure à la place crée par cette extension. Dans ce cas de figure, la propagation des nouveaux dykes et l'inaptitude du magma à circuler à travers les anciens dykes cristallisés pourrait causer une augmentation de la pression non-lithostatique sur ces derniers, exprimée par un cisaillement simple et l'expulsion du liquide interstitiel qu'ils contiennent (documenté par les zones de collecte anorthositiques). Les compositions en éléments majeurs et traces des gabbros et pyroxenites de PX1 sont globalement homogènes et dépendent de la nature cumulative des échantillons. Cependant, de petites variations des concentrations en éléments traces ainsi que les teneurs en éléments traces des bordures de clinopyroxenes suggèrent que ces derniers ont subi un processus de rééquilibrage et de cristallisation in situ. L'homogénéité des compositions chimiques des échantillons, ainsi que la présence de grains de clinopyroxene résorbés suggère que le complexe filonien PX1 s'est mis en place au dessus d'une chambre magmatique périodiquement rechargée dans laquelle la convection est efficace. Chaque filon est donc issu d'un même magma, mais a subi une différenciation par cristallisation in situ (jusqu'à 70% de fraction¬nement) indépendamment des autres. Dans ces filons cristallisés, les minéraux cumulatifs subissent un rééquilibrage partiel avec les liquide interstitiel avant que ce dernier ne soit expulsé lors de la compaction (mettant ainsi un terme à la différenciation). Ce modèle de mise en place signifie qu'un minimum de 150Km3 de magma est nécessaire à la genèse de PX1, une partie de ce volume ayant été émis par le 'Central Volcanic Complex' de Fuerteventura. Les rapports isotopiques radiogéniques mesurés révèlent la contribution de trois pôles mantelliques dans la genèse du magma formant PX1. Le mélange de ces pôles HIMU, DMM et EM1 refléterai l'interaction du point chaud Cana¬rien avec un manteau lithosphérique hétérogène métasomatisé. Les petites variations de ces rapports et des teneurs en éléments traces au sein des faciès pourrait refléter des taux de fusion partielle variable de la source, résultant en un échantillonnage variable du manteau lithosphérique métasomatisé lors de son interaction avec le point chaud. Des datations U/Pb de haute précision (TIMS) sur des cristaux de zircon et de baddeleyite extraits de gabbros de PX1 révèlent que l'initiation de la cristallisation du magma a eu lieu il y a 22.10±0.07 Ma et que l'activité magmatique a duré un minimum de 0.48 à 0.52 Ma. Des âges 40Ar/39Ar obtenus sur amphibole sont de 21.9 ± 0.6 à 21.8 ± 0.3 Ma, identiques aux âges U/Pb. La combinaison de ces méthodes de datations, suggère que le temps maximum nécessaire à PX1 pour se refroidir en dessous de la température de fermeture de l'amphibole est de 0.8Ma. Ceci signifie que la durée de vie de PX1 est de 520 000 à 800 000 ans. La coexistence de cristaux de baddeleyite et de zircon dans un gabbro est attribuée à son interaction avec un fluide riche en C02 relâché par les carbonatites encaissantes lors du métamorphisme de contact généré par la mise en place de PX1 environ 160 000 ans après le début de sa mise en place. Les durées de vie obtenue sont en accord avec le modèle de mise en place suggérant une durée de cristallisation poux chaque filon allant de 1 an à 5 ans. Abstract The Miocene PX1 gabbro-pyroxenite intrusion (Fuerteventura, Canary Islands), is interpreted as the shallow-level feeder-zone (0.15-0.2 GPa and 1100-1120°C), to an ocean island volcano. The particularity of PX1 is that it displays a NNE-SSW trending vertical magmatic banding expressed by alternating gabbro and pyroxeriite sequences. The gabbro and pyroxenite sequences consist of metre-thick differentiation units, which suggest emplacement by pe¬riodic injection of magma pulses as vertical dykes that amalgamated, similarly to a sub-volcanic sheeted dyke com¬plex. Individual dykes underwent internal differentiation following a solidification front (favoured by a significant lateral/horizontal thermal gradient) parallel to the dyke edges. Pyroxenitic layers result from the fractionation and accumulation of clinopyroxene ± olivine ± plagioclase crystals from a mildly alkaline basaltic liquid and are interpre¬ted as truncated differentiation sequences, from which residual melts were extracted by compaction. Clinopyroxene mineral orientation in pyroxenites (evidenced by EBSD and micro X-ray tomography analysis) display a marked pure shear component, supporting this interpretation. Compaction and squeezing of the crystal mush is ascribed to the incoming and inflating magma pulses. The resulting expelled interstitial liquid was likely collected and erupted along with the magma flowing through the newly injected dykes. Gabbro sequences represent crystallised coalesced magma batches, emplaced at lower rates at the end of eruptive cycles, and underwent minor melt extraction as evi¬denced by clinopyroxene orientations that record a simple shear component suggesting syn-magmatic deformation parallel to observed NNF.-SSW trending shear-zones induced by the regional tensional Miocene stress-field. The initiation and geometry of PX1 is controlled by the regional extensional tectonic regime whereas rates and vo¬lumes of magma depend on source-related factors. High injection rates are likely to induce intrusion growth rates larger than could be accommodated by the regional extension. In this case, dyke tip geometry and the inability of magma to circulate through previously emplaced and crystallised dykes could result in an increase of non-lithostatic pressure on previously emplaced mushy dyke walls; generating strong pure-shear compaction and interstitial melt expulsion within the feeder-zone as recorded by the cumulitic pyroxenite bands and anorthositic collection zones. The whole-rock major and trace-element chemistry of PX1 gabbros and pyroxenites is globally homogeneous and controlled by the cumulate nature of the samples (i.e. on the modal proportions of olivine, pyroxene, plagioclase and oxides). However, small variations of whole-rock trace-element contents as well as trace-element contents of clinopyroxene rims suggest that in-situ re-equilibration and crystallisation has occurred. Additionally, the global homogeneity and presence of complex zoning of rare resorbed clinopyroxene crystals suggest that the PX1 feeder- zone overlies a periodically replenished and efficiently mixed magma chamber. Each individual dyke of magma thus originated from a compositionally constant mildly alkaline magma and differentiated independently from the others reaching up to 70% fractionation. Following dyke arrest these are affected by interaction with the trapped interstitial liquid prior to its compaction-linked expulsion (thus stopping the differentiation process). This emplacement model implies that minimum amount of approximately 150 km3 of magma is needed to generate PX1, part of it having been erupted through the overlying Central Volcanic Complex of Fuerteventura. The radiogenic isotope ratios of PX1 samples reveal the contribution on three end-members during magma genesis. This mixing of the H1MU, EMI and DMM end-members could reflect the interaction of the deep-seated Canarian mantle plume with a heterogeneous metasomatic and sepentininsed lithospheric mantle. Additionally, the observed trace-element and isotopic variations within the same fades groups could reflect varying degrees of partial melting of the source region, thus tapping more or less large areas of the metasomatised lithospheric mantle during interac¬tion with the plume. High precision ID-TIMS U/Pb zircon and baddeleyite ages from the PX1 gabbro samples, indicate initiation of magma crystallisation at 22.10 ± 0.07 Ma. The magmatic activity lasted a minimum of 0.48 to 0.52 Ma. 40Ar/39Ar amphibole ages are of 21.9 ± 0.6 to 21.8 ± 0.3, identical within errors to the U/Pb ages. The combination of the 40Ar/39Ar and U/Pb datasets imply that the maximum amount of time PX1 took to cool below amphibole Tc is 0.8 Ma, suggesting PX1 lifetime of 520 000 to 800 000 years. On top of this, the coexistence of baddeleyite and zircon in a single sample is ascribed to the interaction of PX1 with C02-rich carbonatite-derived fluids released from the host-rock carbonatites during contact metamorphism 160 000 years after PX1 initiation. These ages are in agreement with the emplacement model, implying a crystallisation time of less than 1 to 5 years for individual dykes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : Cette étude est une analyse métrique et stylistique de La Pulcella d'Orléans de Vincenzo Monti - traduction-réécriture de l'homonyme poème de Voltaire, La Pucelle d'Orléans - commencée à Milan en 1798 et terminée à Chambéry, en Savoie, en 1799. Le texte italien a été considéré comme une version autonome par rapport au texte français, étant donné le particulier choix de réduire la composante philosophique et idéologique d'origine, et de mettre en relation le modèle avec une littérature italienne spécifique, principalement par l'adoption d'une grille strophique fortement marquée. La Pulcella est traduite en octaves, un mètre chevaleresque qui possède au moins depuis trois siècles sa propre "grammaire" ainsi qu'une formidable tradition de référence. De plus, avec sa traduction, l'auteur a voulu mettre l'accent sur les aspects de l'histoire les plus amusantes et provocatrices de Jeanne d'Arc - déjà narrée par Voltaire avec un ton ironique et irrévérencieux - dans le but d'une grande expérimentation au niveau de la langue, de la métrique et de la syntaxe. La traduction de la Pucelle est en effet liée à une dimension hédonistique et livresque: elle n'est pas un prétexte pour connaitre une oeuvre étrangère, ni un texte conçu pour être publiée; il s'agit plutôt d'un exercice personnel, un divertissement privé, demeuré dans le tiroir de l'auteur. Alors que pour Voltaire le but principal du poème est la polémique idéologique du fond, exprimée par un registre fort satirique, pour Monti la réécriture est un jeu stylistique, une complaisance littéraire, qui repose autant sur les composantes désacralisantes et provocatrices que sur les éléments poétiques et idylliques. Le modèle français est donc retravaillé, en premier lieu, au niveau du ton: d'un côté la traduction réduit l'horizon idéologique et la perspective historique des événements; de l'autre elle accroît les aspects les plus hédonistiques et ludiques de Voltaire, par la mise en évidence de l'élément comique, plus coloré et ouvert. En raison de la dimension intime de cette traduction, de nos jours la tradition de la Pulcella italienne se fonde sur trois témoins manuscrits seulement, dont un retrouvé en 1984 et qui a rouvert le débat philologique. Pour ma thèse j'ai utilisé l'édition critique qu'on possède à présent, imprimée en 1982 sous la direction de M. Mari et G. Barbarisi, qui se fonde seulement sur deux témoins du texte; de toute façon mon travail a essayé de considérer aussi en compte le nouvel autographe découvert. Ce travail de thèse sur la Pulcella est organisé en plusieurs chapitres qui reflètent la structure de l'analyse, basée sur les différents niveaux d'élaboration du texte. Au début il y a une introduction générale, où j'ai encadré les deux versions, la française et l'italienne, dans l'histoire littéraire, tout en donnant des indications sur la question philologique relative au texte de Monti. Ensuite, les chapitres analysent quatre aspects différents de la traduction: d'abord, les hendécasyllabes du poème: c'est à dire le rythme des vers, la prosodie et la distribution des différents modules rythmiques par rapport aux positions de l'octave. La Pucelle de Voltaire est en effet écrite en décasyllabes, un vers traditionnellement assez rigide à cause de son rythme coupé par la césure; dans la traduction le vers français est rendu par la plus célèbre mesure de la tradition littéraire italienne, l'endécasyllabe, un vers qui correspond au décasyllabe seulement pour le nombre de syllabes, mais qui présente une majeure liberté rythmique pour la disposition des accents. Le deuxième chapitre considère le mètre de l'octave, en mettant l'accent sur l'organisation syntaxique interne des strophes et sur les liens entre elles ; il résulte que les strophes sont traitées de manière différente par rapport à Voltaire. En effet, au contraire des octaves de Monti, la narration française se développe dans chaque chant en une succession ininterrompue de vers, sans solutions de continuité, en délinéant donc des structures textuelles très unitaires et linéaires. Le troisième chapitre analyse les enjambements de la Pulcella dans le but de dévoiler les liaisons syntactiques entre les verses et les octaves, liaisons presque toujours absentes en Voltaire. Pour finir, j'ai étudié le vocabulaire du poème, en observant de près les mots les plus expressives quant à leur côté comique et parodique. En effet, Monti semble exaspérer le texte français en utilisant un vocabulaire très varié, qui embrasse tous les registres de la langue italienne: de la dimension la plus basse, triviale, populaire, jusqu'au niveau (moins exploité par Voltaire) lyrique et littéraire, en vue d'effets de pastiche comique et burlesque. D'après cette analyse stylistique de la traduction, surgit un aspect très intéressant et unique de la réécriture de Monti, qui concerne l'utilisation soit de l'endécasyllabe, soit de l'octave, soit du vocabulaire du texte. Il s'agit d'un jeu constant sur la voix - ou bien sur une variation continue des différents plans intonatives - et sur la parole, qui devient plus expressive, plus dense. En effet, la lecture du texte suppose une variation mélodique incessante entre la voix de l'auteur (sous forme de la narration et du commentaire) et la voix de personnages, qu'on entend dans les nombreux dialogues; mais aussi une variation de ton entre la dimension lexical littéraire et les registres les plus baissés de la langue populaire. Du point de vue de la syntaxe, par rapport au modèle français (qui est assez monotone et linéaire, basé sur un ordre syntactique normal, sur le rythme régulier du decasyllabe et sur un langage plutôt ordinaire), Monti varie et ennoblit le ton du discours à travers des mouvements syntaxiques raffinés, des constructions de la période plus ou moins réguliers et l'introduction de propositions à cheval des vers. Le discours italien est en effet compliquée par des interruptions continues (qui ne se réalisent pas dans des lieux canoniques, mais plutôt dans la première partie du vers ou en proximité de la pointe) qui marquent des changements de vitesse dans le texte (dialogues, narration, commentaires): ils se vérifient, en somme, des accélérations et des décélérations continues du récit ainsi qu'un jeu sur les ouvertures et fermetures de chaque verse. Tout se fait à travers une recherche d'expressivité qui, en travaillant sur la combinaison et le choc des différents niveaux, déstabilise la parole et rend l'écriture imprévisible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La radiothérapie par modulation d'intensité (IMRT) est une technique de traitement qui utilise des faisceaux dont la fluence de rayonnement est modulée. L'IMRT, largement utilisée dans les pays industrialisés, permet d'atteindre une meilleure homogénéité de la dose à l'intérieur du volume cible et de réduire la dose aux organes à risque. Une méthode usuelle pour réaliser pratiquement la modulation des faisceaux est de sommer de petits faisceaux (segments) qui ont la même incidence. Cette technique est appelée IMRT step-and-shoot. Dans le contexte clinique, il est nécessaire de vérifier les plans de traitement des patients avant la première irradiation. Cette question n'est toujours pas résolue de manière satisfaisante. En effet, un calcul indépendant des unités moniteur (représentatif de la pondération des chaque segment) ne peut pas être réalisé pour les traitements IMRT step-and-shoot, car les poids des segments ne sont pas connus à priori, mais calculés au moment de la planification inverse. Par ailleurs, la vérification des plans de traitement par comparaison avec des mesures prend du temps et ne restitue pas la géométrie exacte du traitement. Dans ce travail, une méthode indépendante de calcul des plans de traitement IMRT step-and-shoot est décrite. Cette méthode est basée sur le code Monte Carlo EGSnrc/BEAMnrc, dont la modélisation de la tête de l'accélérateur linéaire a été validée dans une large gamme de situations. Les segments d'un plan de traitement IMRT sont simulés individuellement dans la géométrie exacte du traitement. Ensuite, les distributions de dose sont converties en dose absorbée dans l'eau par unité moniteur. La dose totale du traitement dans chaque élément de volume du patient (voxel) peut être exprimée comme une équation matricielle linéaire des unités moniteur et de la dose par unité moniteur de chacun des faisceaux. La résolution de cette équation est effectuée par l'inversion d'une matrice à l'aide de l'algorithme dit Non-Negative Least Square fit (NNLS). L'ensemble des voxels contenus dans le volume patient ne pouvant être utilisés dans le calcul pour des raisons de limitations informatiques, plusieurs possibilités de sélection ont été testées. Le meilleur choix consiste à utiliser les voxels contenus dans le Volume Cible de Planification (PTV). La méthode proposée dans ce travail a été testée avec huit cas cliniques représentatifs des traitements habituels de radiothérapie. Les unités moniteur obtenues conduisent à des distributions de dose globale cliniquement équivalentes à celles issues du logiciel de planification des traitements. Ainsi, cette méthode indépendante de calcul des unités moniteur pour l'IMRT step-andshootest validée pour une utilisation clinique. Par analogie, il serait possible d'envisager d'appliquer une méthode similaire pour d'autres modalités de traitement comme par exemple la tomothérapie. Abstract : Intensity Modulated RadioTherapy (IMRT) is a treatment technique that uses modulated beam fluence. IMRT is now widespread in more advanced countries, due to its improvement of dose conformation around target volume, and its ability to lower doses to organs at risk in complex clinical cases. One way to carry out beam modulation is to sum smaller beams (beamlets) with the same incidence. This technique is called step-and-shoot IMRT. In a clinical context, it is necessary to verify treatment plans before the first irradiation. IMRT Plan verification is still an issue for this technique. Independent monitor unit calculation (representative of the weight of each beamlet) can indeed not be performed for IMRT step-and-shoot, because beamlet weights are not known a priori, but calculated by inverse planning. Besides, treatment plan verification by comparison with measured data is time consuming and performed in a simple geometry, usually in a cubic water phantom with all machine angles set to zero. In this work, an independent method for monitor unit calculation for step-and-shoot IMRT is described. This method is based on the Monte Carlo code EGSnrc/BEAMnrc. The Monte Carlo model of the head of the linear accelerator is validated by comparison of simulated and measured dose distributions in a large range of situations. The beamlets of an IMRT treatment plan are calculated individually by Monte Carlo, in the exact geometry of the treatment. Then, the dose distributions of the beamlets are converted in absorbed dose to water per monitor unit. The dose of the whole treatment in each volume element (voxel) can be expressed through a linear matrix equation of the monitor units and dose per monitor unit of every beamlets. This equation is solved by a Non-Negative Least Sqvare fif algorithm (NNLS). However, not every voxels inside the patient volume can be used in order to solve this equation, because of computer limitations. Several ways of voxel selection have been tested and the best choice consists in using voxels inside the Planning Target Volume (PTV). The method presented in this work was tested with eight clinical cases, which were representative of usual radiotherapy treatments. The monitor units obtained lead to clinically equivalent global dose distributions. Thus, this independent monitor unit calculation method for step-and-shoot IMRT is validated and can therefore be used in a clinical routine. It would be possible to consider applying a similar method for other treatment modalities, such as for instance tomotherapy or volumetric modulated arc therapy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Les corps magmatiques sont des indicateurs essentiels dans toute reconstitution paléogéographique et/ou géodynamique d'un cycle orogénique, en particulier en contexte polycyclique, où la plupart des autres indices ont été oblitérés. Ils sont aisément datables et leurs caractéristiques géochimiques permettent de contraindre leur contexte tectonique de mise en place. Cette approche a été appliquée aux socles pré-mésozoïques des nappes penniques inférieures de Sambuco et de la Maggia, dans les Alpes centrales lepontines. Plusieurs événements magmatiques ont été identifiés dans le socle de Sambuco et datés par la méthode U-Pb sur zircon couplée à la technique LA-ICPMS. La suite calco-alcaline mafique rubanée de Scheggia est datée du Cambrien inférieur à 540-530 Ma ; le métagranite alumineux oeillé de Sasso Nero a un âge de 480-470 Ma, tout comme bien d'autres «older orthogneisses» des socles alpins. Il contient des zircons hérités d'âge panafricain à 630-610 Ma, indicateur d'une affiliation gondwanienne de ces terrains. Le pluton calco-alcalin du Matorello est daté à environ 300-310 Ma, et les filons lamprophyriques qu'il abrite à 300 Ma. La granodiorite de Cocco et le leucogranite de Ruscada, tous deux intrudés dans le socle de la nappe adjacente de la Maggia, ont des âges similaires à celui du Matorello. Ceci ajouté aux similitudes magmatiques observées entre Cocco et Matorello suggère une proximité paléogéographique des deux nappes au Permien-Carbonifère. Or ces dernières sont actuellement considérées appartenir à deux domaines paléogéographiques mésozoïques distincts : helvétique pour Sambuco et briançonnais pour Maggia, séparés par un bassin océanique. Si tel fut le cas, aucun mouvement décrochant ne doit avoir décalé les marges continentales de l'océan, retrouvées en parfaite coïncidence lors de sa fermeture. Le Matorello est un pluton recristallisé en faciès amphibolite et plissé par cinq phases successives de déformation non-coaxiales, qui ont conduit à son renversement complet, attesté par des indicateurs de paléogravité. Il préserve de spectaculaires phénomènes de coexistence liquide de magmas (essaims d'enclaves et Bills composites). Ce pluton était originellement tabulaire, construit par l'accumulation de multiples injections de magma en feuillets d'épaisseur métrique à décamétrique. Suivant le rythme de mise en place, les injections successives ont rapidement cristallisé avec des contours nets et bien définis (Bills composites) ou se sont mélangées avec les précédentes pour former une couche non consolidée de plusieurs dizaines de mètres d'épaisseur (granodiorite principale). Les injections individuelles sont délimitées par de subtils contrastes en granulométrie, proportions modales ou ségrégation de minéraux (schlieren), ou par des phénomènes d'érosion le long des surfaces de contact. Deux couches métriques à contour sinueux consistent en une accumulation compacte d'enclaves mafiques arrondies dans une matrice granodioritique fine. Le granoclassement des enclaves, la présence de figures de charge et de phénomènes érosifs en base de couche, ainsi que des schlieren de biotite entrecroisés évoquent l'injection de coulées de magma chargé d'enclaves et de faible viscosité en régime hydrodynamique turbulent dans un encaissant granodioritique encore largement liquide. La nature hybride des roches implique une chambre magmatique sous-jacente, en cours de différenciation et périodiquement réalimentée. Les magmas sont des liquides mafiques dérivés du manteau et des liquides anatectiques d'origine crustale, comme l'indique la gamme mesurée des rapports isotopiques initiaux du Sr (0.704 à 0.709) et des valeurs epsilon Nd (-2.1 à -4.7). Ces données montrent également que la contribution crustale est dominante, en accord avec les isotopes du plomb. Les phénomènes d'hybridation ont vraisemblablement eu lieu en base de croûte et dans la chambre magmatique sous-jacente au laccolite du Matorello. Les indicateurs de paléogravité du Matorello contribuent accessoirement à la compréhension de l'architecture actuelle de la nappe de Sambuco. Des plis isoclinaux à surface axiale verticale peuvent être mis en évidence par le contact entre les faciès dioritique et granodioritique. L'antiforme dont le Matorello forme le coeur est un synclinal, ce qui le positionne dans le Flanc inverse du grand pli couché que forme la nappe de Sambuco. Par ailleurs, des blocs de gneiss retrouvés dans le wildflysch sommital de la couverture de la nappe d'Antigorio ont été affiliés dans cette étude au pluton du Matorello. Ceci implique que le front de la nappe de Sambuco chevauchait déjà la partie est du bassin d'Antigorio au moment de sa fermeture. Par conséquent, ce n'est qu'en position externe que la nappe du Lebendun chevauche directement la nappe d'Antigorio. Abstract Magmatic bodies are important markers in paleo-geographic or geodynamic reconstructions of orogenic cycles, even more so in the case of polycyclic events where many of the other markers have been overwritten or destroyed. Plutons are relatively easy to date and their geochemical properties help constrain the tectonic context in which they were emplaced. This study focuses on the pre-mesozoic basement in the Sambuco and Maggia lower Penninic nappes located in the central Lepontine domain of the Alps. A number of magmatic events have been identified in the Sambuco basement. These events were dated using LA-ICPMS U/Pb on zircon grains. The mafic calc-alkaline banded Scheggia suite is dated as lower Cambrian, 540-530 Ma. The Al-rich Sasso-Nero lenticular gneiss is 480-470 Ma old (similarly to many older orfhogneisses of the Alpine basement) and contains 630-610 Ma old pan-African inherited zircons that illustrate the Gondwanian origin of these terranes.The calc-alkaline Matorello pluton is dated as 310-300 Ma whereas the lamprophyric bodies it contains are of 300 Ma. The Cocco granodiorite and the Ruscada leucogranite both intrude the basement of the adjacent Maggia nappe and are of similar ages to the Matorello. The ages as well as the geochemical similarities between the Cocco, Rucada and Matorello plutons suggest their paleo-geographic proximity at the Permian-Carboniferous boundary. However, these nappes are currently considered as belonging to two different Mesozoic paleo-geographic domains. Indeed, the Sambuco is considered as Helvetic whereas the Maggia is said to be Briançonnais, both separated by an oceanic basin. If this is the case, then it is essential that nostrike-slip movement has misaligned both continental margins since these coincide perfectly now that the oceanic domain closed. The Matorello pluton was originally a tabular intrusion, built up by the accumulation of multiple, several meter-thick, subhorizontal sheet-like injections of magma. Depending on their emplacement rate, the successive magma injections either solidified rapidly with sharp and rather well-defined boundaries (like the composite sills) or mingled with previous injections generating a thick molten layer up to several tens to hundred meters thick, like in the main granodioritic facies. These coalesced injections are hardly distinguishable, however subtle contrasts in granulometry, mineral modal proportions or mineral sorting (cross-bedded biotite-rich schlieren), as well as erosional features and/or crystal entrapment along contact surfaces allow to distinguish between the different injections. Two exceptional meter-thick layers display sinuous boundaries with the host granodiorite and consist of a densely packed accumulation of mafic enclaves in a granodioritic matrix. Gravitational sorting of the enclaves with load cast features at the base of the layers and sinuous biotite schlieren point to injection of low viscosity turbulent composite magma flows in the still largely molten granodiorite host. The hybrid nature of these rocks implies the existence of á periodically replenished and differentiated underlying magma chamber. Magmas are mafic liquids derived from the mantle and anatectic liquids of crustal origin, as shown by the (87Sr/86Sr), and epsilon Nd values (0.704-0.709 and -2.1 to -4.7 respectively. These data show that the crustal contribution is important, as confirmed by the Pb isotopes. The hybridisation processes seem to have occurred in the lower crust in magma chambers underlying the Matorello laccolith. The paleo-gravity markers in the Matorello help understand the architecture of the Sambuco nappe. Isoclinal folds with a vertical axial plane can be seen at the contact between dioritic and granodioritic facies. The antiform structure of which the Matorello is the heart is in fact a syncline. This places it in the inverse flanc of the large recumbent fold that constitutes the Sambuco nappe. The gneiss blocs found in the summital wildflysh cover of the Antigorio nappe have been linked to the Matorello pluton. This means that the front of the Sambuco nappe already overlapped the Antigorio basin when it closed. This implies that the Lebendun nappe can only overlap the Antigorio nappe in it's external position. Résumé grand public La chaîne alpine est la conséquence de la collision tertiaire entre deux masses continentales, l'Europe au nord et la péninsule apulienne africaine au sud, originellement séparées par l'océan mésozoïque téthysien. Cette collision a fermé un espace large de plusieurs centaines de km avec pour résultat l'écaillage de la croûte terrestre en unités tectoniques de dimensions variables, qui se sont empilées, imbriquées, éventuellement replissées en nappes de géométrie complexe. Cet amoncellement de 40 km d'épaisseur a vu sa température et sa pression lithostatique internes augmenter jusqu'à des valeurs de l'ordre de 680 °C et 6000 bars, induisant une recristallisation métamorphique des roches. L'un des objectifs de la géologie alpine est de reconstituer la géographie de la région aux temps mésozoïques de l'océan téthysien, en d'autres termes, de replacer chacune des unités tectoniques identifiées au sein de l'empilement alpin dans sa position originelle. Le défi est de taille et peut être comparé à celui de la reconstitution d'un vaste puzzle, dont certaines pièces seraient endommagées au niveau de leur contour ou leurs couleurs (métamorphisme), dissimulées par d'autres (enfouissement), voire tombées de la table de jeu (subduction, échappement latéral). Plusieurs approches ont été mises en oeuvre au cours du siècle écoulé. On citera en particulier la stratigraphie, la tectonique et le paléomagnétisme. Dans ce travail, nous avons essentiellement utilisé des techniques de datation isotopique absolue des roches (U/Pb sur zircon) qui, sur la base des connaissances acquises par l'ensemble des autres disciplines géologiques, nous ont permis de mieux contraindre ta paléogéographie mésozoïque du domaine «pennique inférieur » des Alpes centrales lépontines. Et au-delà? Nous savons tous que la disposition des continents à la surface de la Terre évolue constamment. Il est donc tentant d'essayer de remonter plus loin encore dans le temps et de reconstituer la physionomie de la marge sud européenne, tout au moins certains éléments de son histoire, au cours de l'ère paléozoïque. Les traces de ces événements très anciens sont naturellement ténues et dans ce contexte, les techniques de datation mentionnées ci-dessus deviennent les outils les plus performants. Ainsi, des datations u/Pb sur zircon nous ont permis de recenser plusieurs intrusions magmatiques, attribuées à quatre événements orogéniques anté-alpins. Des âges néoprotérozoïques (630-610 millions d'années ou Ma), cambrien inférieur (540-530 Ma), ordovicien inférieur (480-470 Ma) et carbonifère supérieur-permien inférieur (310-285 Ma) ont été obtenus dans le socle de la nappe de Sambuco. Des âges similaires à 300 Ma ont été obtenus dans la nappe voisine de la Maggia, qui permettent de relier ces deux unités. Aujourd'hui côte à côte, ces deux nappes devaient également se trouver proches l'une de l'autre il y a 300 Ma, lors de l'extension post-varisque. Les structures magmatiques spectaculaires préservées dans le pluton du Matorello (300 Ma) contraignent la géométrie actuelle de la nappe de Sambuco dans laquelle l'intrusion s'est mise en place. La forme originelle du pluton, aujourd'hui retourné et replissé plusieurs fois, s'avère être tabulaire, faite d'intrusions de faible épaisseur (1-300 m) s'étalant en forme de disque (30m à 2 km de diamètre). Les injections successives de magma se sont accumulées sous un toit dioritique précoce; elles sont issues, par le refais de fractures, d'une chambre magmatique plus profonde, périodiquement réalimentée par des magmas calco-alcalins d'origine mantellique contaminés parla croûte continentale profonde (εNd = -2.1 à -4.7). Des accumulations d'enclaves magmatiques arrondies et granoclassées dans des paléo-chenaux à fond érosif témoignent de conditions de mise en place hydrodynamiques à haute énergie. Ces enclaves sont emmenées de la chambre magmatique sous-jacente à la faveur d'épisodes de fracturation hydraulique liés à l'injection de magmas matelliques chauds dans des liquides différenciés riches en eau. Cette hypothèse est étayée par l'existence de filons composites. Une paléohorizontale a pu être déduite au sein du pluton, indiquant que cette partie de la nappe de Sambuco est verticalisée et isoclinalement replissée par la déformation alpine. Finalement, des blocs érodés du socle Sambuco ont été retrouvés dans le wildflysch sommital de la couverture sédimentaire mésozoïque de la nappe d'Antigorio sous-jacente. Ceci suggère que les blocs ont été fournis parle front de la nappe de Sambuco en train de chevaucher sur la nappe d'Antigorio au moment de la fermeture du bassin sédimentaire de cette dernière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Le Grand tétras est un galliforme de montagne apparenté au faisan et au tétras lyre. Il est distribué de manière continue à travers la toundra et les montagnes de moyenne altitude en Europe de l'ouest. Toutefois, les populations d'Europe de l'ouest ont subi un déclin constant au cours des derniers siècles. Les causes de ce déclin sont probablement liées à l'activité humaine, telle .que l'élevage ou le tourisme, qui ont engendré une modification et une fragmentation de l'habitat de l'espèce. Malheureusement, les populations soumises à de forts déclins démographiques peuvent subir des effets génétiques (augmentation de la consanguinité et perte de diversité génétique) pouvant diminuer leur potentiel de reproduction et conduire irrémédiablement à l'extinction. Cette thèse présente les analyses conduites dans le but d'estimer l'impact du déclin démographique des populations de Grand tétras sur l'étendue et la distribution de leur variabilité génétique dans le Jura et dans les Pyrénées. Du fait de la législation locale protégeant les tétraonidés en général, mais également en raison de la biologie très cryptique du Grand tétras, l'ensemble des analyses de cette étude a été réalisé à partir de matériel génétique extrait des fientes (ou échantillonnage génétique non invasif). Dans la première partie de l'étude, je détaille les protocoles d'extraction. d'ADN et d'amplification par PCR modifiés à partir des protocoles classiques utilisant des échantillons conventionnels, riches en ADN. L'utilisation d'ADN fécal impose des contraintes dues à la mauvaise qualité et à la faible quantité du matériel génétique à disposition dans les fientes. Ces contraintes ont pu être partiellement contournées en réalisant des répétitions multiples du génotypage afin d'obtenir un degré de fiabilité suffisante. J'ai également analysé les causes de la dégradation de l'ADN dans les excréments. Parmi les causes les plus communes, telles que l'activité bactérienne, l'hydrolyse spontanée et la dégradation enzymatique par les DNases libres, c'est ce dernier facteur qui apparaît comme étant la cause majeure et la plus rapide responsable de la dégradation de la qualité des échantillons. La rapidité de l'action enzymatique suggère que les plans d'échantillonnages de excréments sur le terrain pourraient être optimisés en les réalisant dans des conditions climatiques froides et sèches, favorisant ainsi l'inhibition des DNases. La seconde partie de la thèse est une étude par simulation visant à déterminer la capacité du logiciel Structure à identifier les structures génétiques complexes et hiérarchiques fréquemment rencontrées dans les populations naturelles, et ce en utilisant différents types de marqueurs génétiques. Les troisième et quatrième parties de cette thèse décrivent le statut génétique des populations résiduelles du Jura et des Pyrénées à partir de l'analyse de 11 loci microsatellites. Nous n'avons pas pu mettre en évidence dans les deux populations des effets liés à la consanguinité ou à la réduction de la diversité génétique. De plus, la différenciation génétique entre les patches d'habitats favorables reste modérée et corrélée à la distance géographique, ce qui suggère que la dispersion d'individus entre les patches a été importante au moins pendant ces dernières générations. La comparaison des paramètres de la diversité génétique avec ceux d'autres populations de Grand tétras, ou d'autres espèces proches, indique que la population du Jura a retenu une proportion importante de sa diversité originelle. Ces résultats suggèrent que le déclin récent des populations a jusqu'ici eu un impact modéré sur les facteurs génétiques et que ces populations semblent avoir conservé le potentiel génétique nécessaire à leur survie à long terme. Finalement, en cinquième partie, l'analyse de l'apparentement entre les mâles qui participent à la parade sur les places de chant (leks) indique que ces derniers sont distribués en agrégats de manière non aléatoire, préférentiellement entre individus apparentés. De plus, la corrélation entre les distances génétique et géographique entre les leks est en accord avec les motifs d'isolement par la distance mis en évidence à d'autres niveaux hiérarchiques (entre patches d'habitat et populations), ainsi qu'avec les études menées sur d'autres espèces ayant choisi ce même système de reproduction. En conclusion, cette première étude basée uniquement sur de l'ADN nucléaire aviaire extrait à partir de fèces a fourni des informations nouvelles qui n'auraient pas pu être obtenues par une méthode d'observation sur le terrain ou d'échantillonnage génétique classique. Aucun oiseau n'a été dérangé ou capturé, et les résultats sont comparables à d'autres études concernant des espèces proches. Néanmoins, la taille de ces populations approche des niveaux au-dessous desquels la survie à long terme est fortement incertaine. La persistance de la diversité génétique pour les prochaines générations reste en conséquence liée à la survie des adultes et à une reprise du succès de la reproduction. ABSTRACT Capercaillie (Tetrao urogallus) is a large grouse that is continuously distributed across the tundra and the mid-high mountains of Western Europe. However, the populations in Western Europe have been showing a constant decline during the last decades. The causes for this decline are possibly related to human activities, such as cattle breeding and tourism that have both led to habitat modification and fragmentation. Unfortunately, populations that have undergone drastic demographic bottlenecks often go through genetic processes of inbreeding and loss of diversity that decrease their fitness and eventually lead to extinction. This thesis presents the investigations conducted to estimate the impact of the demographic decline of capercaillie populations on the extent and distribution of their genetic variability in the Jura and in the Pyrenees mountains. Because grouse are protected by wildlife legislation, and also because of the cryptic behaviour of capercaillie, all DNA material used in this study was extracted from faeces (non-invasive genetic sampling). In the first part of my thesis, I detail the protocols of DNA extraction and PCR amplification adapted from classical methods using conventional DNA-rich samples. The use of faecal DNA imposes specific constraints due to the low quantity and the highly degraded genetic material available. These constraints are partially overcome by performing multiple genotyping repetitions to obtain sufficient reliability. I also investigate the causes of DNA degradation in faeces. Among the main degraders, namely bacterial activity, spontaneous hydrolysis, and free-¬DNase activities, the latter was pointed out as the most important according to our experiments. These enzymes degrade DNA very rapidly, and, as a consequence, faeces sampling schemes must be planned preferably in cold and dry weather conditions, allowing for enzyme activity inhibition. The second part of the thesis is a simulation study aiming to assess the capacity of the software Structure to detect population structure in hierarchical models relevant to situations encountered in wild populations, using several genetic markers. The methods implemented in Structure appear efficient in detecting the highest hierarchical structure. The third and fourth parts of the thesis describe the population genetics status of the remaining Jura and Pyrenees populations using 11 microsatellite loci. In either of these populations, no inbreeding nor reduced genetic diversity was detected. Furthermore, the genetic differentiation between patches defined by habitat suitability remains moderate and correlated with geographical distance, suggesting that significant dispersion between patches was at work at least until the last generations. The comparison of diversity indicators with other species or other populations of capercaillie indicate that population in the Jura has retained a large part of its original genetic diversity. These results suggest that the recent decline has had so forth a moderate impact on• genetic factors and that these populations might have retained the potential for long term survival, if the decline is stopped. Finally, in the fifth part, the analysis of relatedness between males participating in the reproduction parade, or lek, indicate that capercaillie males, like has been shown for some other grouse species, gather on leks• among individuals that are more related than the average of the population. This pattern appears to be due to both population structure and kin-association. As a conclusion, this first study relying exclusively on nuclear DNA extracted from faeces has provided novel information that was not available through field observation or classical genetic sampling. No bird has been captured or disturbed, and the results are consistent with other studies of closely related species. However, the size of these populations is approaching thresholds below which long-term survival is unlikely. The persistence of genetic diversity for the forthcoming generations remains therefore bond to adult survival and to the increase of reproduction success.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.