999 resultados para théorie ancrée
Resumo:
RESUMELes modèles classiques sur l'évolution des chromosomes sexuels supposent que des gènes sexe- antagonistes s'accumulent sur les chromosomes sexuels, entraînant ainsi l'apparition d'une région non- recombinante, qui se répand progressivement en favorisant l'accumulation de mutations délétères. En accord avec cette théorie, les chromosomes sexuels que l'on observe aujourd'hui chez les mammifères et les oiseaux sont considérablement différenciés. En revanche, chez la plupart des vertébrés ectothermes, les chromosomes sexuels sont indifférenciés et il existe une impressionnante diversité de mécanismes de détermination du sexe. Au cours de cette thèse, j'ai étudié l'évolution des chromosomes sexuels chez les vertébrés ectothermes, en outre pour mieux comprendre ce contraste avec les vertébrés endothermes. L'hypothèse « high-turnover » postule que les chromosomes sexuels sont remplacés régulièrement à partir d'autosomes afin d'éviter leur dégénérescence. L'hypothèse « fountain-of-youth » propose que la recombinaison entre le chromosome X et le chromosome Y au sein de femelles XY empêche la dégénérescence. Les résultats de ma thèse, basés sur des études théoriques et empiriques, suggèrent que les deux processus peuvent être entraînés par l'environnement et ainsi jouent un rôle important dans l'évolution des chromosomes sexuels chez les vertébrés ectothermes.SUMMARYClassical models of sex-chromosome evolution assume that sexually antagonistic genes accumulate on sex chromosomes leading to a non-recombining region, which progressively expands and favors the accumulation of deleterious mutations. Concordant with this theory, sex chromosomes in extant mammals and birds are considerably differentiated. In most ectothermic vertebrates, such as frogs, however, sex chromosomes are undifferentiated and a striking diversity of sex determination systems is observed. This thesis was aimed to investigate this apparent contrast of sex chromosome evolution between endothermic and ectothermic vertebrates. The "high-turnover" hypothesis holds that sex chromosomes arose regularly from autosomes preventing decay. The "fountain-of-youth" hypothesis posits that sex chromosomes undergo episodic X-Y recombination in sex-reversed XY females, thereby purging ("rejuvenating") the Y chromosome. We suggest that both processes likely played an important role in sex chromosome evolution of ectothermic vertebrates. The literature largely views sex determination as a dichotomous process: individual sex is assumed to be determined either by genetic (genotypic sex determination, GSD) or by environmental factors (environmental sex determination, ESD), most often temperature (temperature sex determination, TSD). We endorsed an alternative view, which sees GSD and TSD as the ends of a continuum. The conservatism of molecular processes among different systems of sex determination strongly supports the continuum view. We proposed to define sex as a threshold trait underlain by a liability factor, and reaction norms allowing modeling interactions between genotypic and temperature effects. We showed that temperature changes (due to e.g., climatic changes or range expansions) are expected to provoke turnovers in sex-determination mechanisms maintaining homomorphic sex chromosomes. The balanced lethal system of crested newts might be the result of such a sex determination turnover, originating from two variants of ancient Y-chromosomes. Observations from a group of tree frogs, on the other hand, supported the 'fountain of youth' hypothesis. We then showed that low rates of sex- reversals in species with GSD might actually be adaptive considering joint effects of deleterious mutation purging and sexually antagonistic selection. Ongoing climatic changes are expected to threaten species with TSD by biasing population sex ratios. In contrast, species with GSD are implicitly assumed immune against such changes, because genetic systems are thought to necessarily produce even sex ratios. We showed that this assumption may be wrong and that sex-ratio biases by climatic changes may represent a previously unrecognized extinction threat for some GSD species.
Resumo:
Risk theory has been a very active research area over the last decades. The main objectives of the theory are to find adequate stochastic processes which can model the surplus of a (non-life) insurance company and to analyze the risk related quantities such as ruin time, ruin probability, expected discounted penalty function and expected discounted dividend/tax payments. The study of these ruin related quantities provides crucial information for actuaries and decision makers. This thesis consists of the study of four different insurance risk models which are essentially related. The ruin and related quantities are investigated by using different techniques, resulting in explicit or asymptotic expressions for the ruin time, the ruin probability, the expected discounted penalty function and the expected discounted tax payments. - La recherche en théorie du risque a été très dynamique au cours des dernières décennies. D'un point de vue théorique, les principaux objectifs sont de trouver des processus stochastiques adéquats permettant de modéliser le surplus d'une compagnie d'assurance non vie et d'analyser les mesures de risque, notamment le temps de ruine, la probabilité de ruine, l'espérance de la valeur actuelle de la fonction de pénalité et l'espérance de la valeur actuelle des dividendes et taxes. L'étude de ces mesures associées à la ruine fournit des informations cruciales pour les actuaires et les décideurs. Cette thèse consiste en l'étude des quatre différents modèles de risque d'assurance qui sont essentiellement liés. La ruine et les mesures qui y sont associées sont examinées à l'aide de différentes techniques, ce qui permet d'induire des expressions explicites ou asymptotiques du temps de ruine, de la probabilité de ruine, de l'espérance de la valeur actuelle de la fonction de pénalité et l'espérance de la valeur actuelle des dividendes et taxes.
Resumo:
Résumé Ce travail de thèse étudie des moyens de formalisation permettant d'assister l'expert forensique dans la gestion des facteurs influençant l'évaluation des indices scientifiques, tout en respectant des procédures d'inférence établies et acceptables. Selon une vue préconisée par une partie majoritaire de la littérature forensique et juridique - adoptée ici sans réserve comme point de départ - la conceptualisation d'une procédure évaluative est dite 'cohérente' lors qu'elle repose sur une implémentation systématique de la théorie des probabilités. Souvent, par contre, la mise en oeuvre du raisonnement probabiliste ne découle pas de manière automatique et peut se heurter à des problèmes de complexité, dus, par exemple, à des connaissances limitées du domaine en question ou encore au nombre important de facteurs pouvant entrer en ligne de compte. En vue de gérer ce genre de complications, le présent travail propose d'investiguer une formalisation de la théorie des probabilités au moyen d'un environment graphique, connu sous le nom de Réseaux bayesiens (Bayesian networks). L'hypothèse principale que cette recherche envisage d'examiner considère que les Réseaux bayesiens, en concert avec certains concepts accessoires (tels que des analyses qualitatives et de sensitivité), constituent une ressource clé dont dispose l'expert forensique pour approcher des problèmes d'inférence de manière cohérente, tant sur un plan conceptuel que pratique. De cette hypothèse de travail, des problèmes individuels ont été extraits, articulés et abordés dans une série de recherches distinctes, mais interconnectées, et dont les résultats - publiés dans des revues à comité de lecture - sont présentés sous forme d'annexes. D'un point de vue général, ce travail apporte trois catégories de résultats. Un premier groupe de résultats met en évidence, sur la base de nombreux exemples touchant à des domaines forensiques divers, l'adéquation en termes de compatibilité et complémentarité entre des modèles de Réseaux bayesiens et des procédures d'évaluation probabilistes existantes. Sur la base de ces indications, les deux autres catégories de résultats montrent, respectivement, que les Réseaux bayesiens permettent également d'aborder des domaines auparavant largement inexplorés d'un point de vue probabiliste et que la disponibilité de données numériques dites 'dures' n'est pas une condition indispensable pour permettre l'implémentation des approches proposées dans ce travail. Le présent ouvrage discute ces résultats par rapport à la littérature actuelle et conclut en proposant les Réseaux bayesiens comme moyen d'explorer des nouvelles voies de recherche, telles que l'étude de diverses formes de combinaison d'indices ainsi que l'analyse de la prise de décision. Pour ce dernier aspect, l'évaluation des probabilités constitue, dans la façon dont elle est préconisée dans ce travail, une étape préliminaire fondamentale de même qu'un moyen opérationnel.
Resumo:
RÉSUMÉ Les protéines d'ancrage de la protéine kinase A (AKAPs) constituent une grande famille de protéines qui ciblent la protéine kinase A (PKA) à proximité de ses substrats physiologiques pour assurer leur régulation. Une nouvelle protéine de cette famille, appelée AKAP-Lbc, a été récemment caractérisée et fonctionne comme un facteur d'échange de nucléotides guanine (GEF) pour la petite GTPase Rho. AKAP-Lbc est régulée par différents signaux qui activent et désactivent son activité Rho-GEF. Son activation est assurée par la sous-unité alpha de la protéine G hétérotrimérique G12, tandis que son inhibition dépend de son interaction avec la PKA et 14-3-3. AKAP-Lbc est principalement exprimée dans le coeur et pourrait réguler des processus importants tels que l'hypertrophie et la différenciation des cardiomyocytes. Ainsi, il est crucial d'élucider les mécanismes moléculaires impliqués dans la régulation de son activité Rho-GEF. Le but général de ce travail de thèse est la caractérisation de deux nouveaux mécanismes impliqués dans la régulation de l'activité de AKAP-Lbc. Le premier mécanisme consiste en la régulation de l'activité de AKAP-Lbc par son homo-oligomérisation. Mes travaux montrent que l'homo-oligomérisation maintient AKAP-Lbc inactive, dans une conformation permettant à la PKA ancrée et à 14-3-3 d'exercer leur effet inhibiteur sur l'activité de AKAP-Lbc. Le second mécanisme concerne la régulation de l'activité de AKAP-Lbc via une nouvelle interaction entre AKAP-Lbc et la protéine LC3. LC3 joue un rôle crucial dans l'autophagie, un processus cellulaire qui adresse les protéines cytoplasmiques au lysosome pour leur dégradation. Ce mécanisme est particulièrement important pour le survie des cardiomyocytes durant les périodes d'absence de nutriments. Mes travaux mettent en évidence que LC3 inhibe l'activité Rho-GEF de AKAP-Lbc, ce qui suggère que, au-delà son rôle bien établi dans l'autophagie, LC3 participerait à la régulation de la signalisation de Rho. Prises ensembles, ces études contribuent à comprendre comment le complexe de signalisation formé par AKAP-Lbc régule la signalisation de Rho dans les cellules. Au-delà de leur intérêt au niveau biochimique, ces travaux pourraient aussi contribuer à élucider les réseaux de signalisation qui régulent des phénomènes physiologiques dans le coeur. ABSTRACT A-kinase anchoring proteins (AKAPs) are a group of functionally related proteins, which target the cAMP dependent protein kinase A (PKA) in close proximity to its physiological substrates for ensuring their regulation. A novel PKA anchoring protein, termed AKAP-Lbc, has been recently characterized, which also functions as a guanine nucleotide exchange factor (GEF) for the small GTPase Rho. AKAP-Lbc is regulated in a bi-directional manner by signals which activate or deactivate its Rho-GEF activity. Activation is mediated by the alpha subunit of the heterotrimeric G protein G12, whereas inhibition occurs following its interaction with PKA and 14-3-3. AKAP-Lbc is predominantly expressed in the heart and might regulate important processes such as hypertrophy and differentiation of cardiomyocytes. Therefore ít is crucial to elucidate the molecular mechanisms involved in the regulation of the Rho-GEF activity of AKAP-Lbc. The general aim of the present thesis work is the characterization of two novel molecular mechanisms involved in the regulation of the Rho-GEF activity of AKAP-Lbc. The first mechanism consists of the. regulation of AKAP-Lbc activity through its homooligomerization. I report here that homo-oligomerization maintains AKAP-Lbc inactive, under a conformation suitable for ensuring the inhibitory effect of anchored PKA and 14-33 on AKAP-Lbc activity. The second mechanism concerns the regulation of AKAP-Lbc activity through a novel interaction between AKAP-Lbc and ubiquitin-like protein LC3. LC3 is a key mediator of autophagy, which is a cellular process that targets cytosolic proteins to the lysosome for degradation. This process is particularly important for cardiomyocyte survival during conditions of nutrient starvation. Here, I show that LC3 is a negative regulator of the Rho-GEF activity of AKAP-Lbc, which suggests that, beyond its well established role in autophagy, LC3 can participate in the regulation of Rho signaling in cells. Overall, these findings contribute to understand how the AKAP-Lbc signaling complex can regulate the Rho signaling in cells. Beyond its interest at the biochemical level, this work might also contribute to elucidate the signaling network that regulate physiological events in the heart.
Resumo:
SUMMARY : The evolution of animal societies, where some individuals forego their own reproductive opportunities to help others to reproduce, poses an evolutionary paradox that can be traced back to Darwin. Altruism may evolve through kin selection when the donor and recipient of altruistic acts are related to each other. In social insects, workers are generally highly related to the brood they rear when colonies are headed by a single queen. Yet some ants have an extraordinary social organization, called unicoloniality, whereby individuals from separate nests mix freely to form large supercolonies, which in some cases extend over hundreds of km. These supercolonies are characterised by a high number of queens (polygyny) and an absence of clear colony boundaries. This type of social organization represents an evolutionary paradox because relatedness between nestmates is effectively zero. In such conditions, kin selection cannot account for the evolution of reproductive altruism. Moreover, unicoloniality is thought to be unstable over time, because workers that can no longer aid close relatives may evolve more selfish strategies. The Argentine ant (Linepithema humile) is a highly invasive species listed among the hundred world's worst invaders by the UICN. Native from South America, L. humile has been accidentally introduced throughout the world. Native populations have been described as noninvasive with a family-based organization. In contrast, within its introduction range, they form unicolonial supercolonies that contain numerous nests without intraspecific aggression. The development of such unicolonial populations has been explained as a direct consequence of the ant's introduction into a new habitat, favouring a transition from family-based to open colonies. To determine if the social structure of the Argentine ant is fundamentally different between the native and the introduced range, we studied genetically and behaviourally native and introduced populations of L. humile over different geographic scales. Our results clearly indicated that there are no fundamental differences in the social organisation of the Argentine ant between the two ranges. Our investigations revealed that, contrary to previous claims, native populations have a unicolonial social organisation very similar to that observed in the introduced range. Consequently, the unicolonial social structure of the Argentine ant does not stem from a shift in social organization associated with introduction into new habitats but evolved in the native range and is likely a stable, evolutionarily ancient adaptation to the local environment. Our study on native populations of L. humile also gave important insight in the comprehension of the evolution of unicoloniality in the Argentine ant. Native supercolonies are relatively small compared to introduced ones and may co-habit in a same population. These supercolonies are genetically highly differentiated leading to a significant relatedness among nestmate workers when the different supercolonies of a population are taken as a reference population. This provides the necessary conditions for loin selection to operate. Furthermore, we examined a native population over time, which revealed a high supercolony extinction rate. If more competitive supercolonies are more likely to survive or replace other supercolonies, a subtle dynamical process between the spread of selfish traits within supercolony and the selective elimination of supercolonies with such traits may allow a stable equilibrium and the persistence of unicoloniality over time. Finally, a worldwide study of the Argentine ant showed that the introduced supercolonies originate from numerous independent introduction events. In conclusion, the success of the Argentine ant does not stem from a shift in social organization associated with its introduction into new habitats, but is most probably explained by the intrinsic characteristics developed in its native range. RESUME : L'altruisme de reproduction où certains individus renoncent à leur propre reproduction pour aider d'autres individus à se reproduire constitue l'un des plus grand paradoxe de l'évolution. En effet, comment expliquer l'évolution de comportements qui tendent à augmenter les chances de survie et le succès reproductif d'autres individus, alors que ces actes diminuent l'aptitude de leurs auteurs ? La théorie de la sélection de parentèle permet de résoudre ce problème. Cette théorie stipule qu'en aidant de proches parents à se reproduire, les individus peuvent promouvoir indirectement la transmission de copies de leurs propres gènes à la génération suivante. Chez les insectes sociaux, l'altruisme des ouvrières s'explique par la théorie de sélection de parentèle lorsque les colonies sont monogynes (constituées d'une seule reine) puisque les ouvrières sont fortement apparentées aux couvains dont elles s'occupent. Par contre, les espèces dites unicoloniales, dont les colonies forment des réseaux de nids appelés supercolonies, représentent toujours un paradoxe pour les théories de l'évolution puisque l'apparentement entre les différents individus d'un nid est nulle. De plus, l'unicolonialité ne devrait pas être stable sur le long terme parce que les ouvrières qui ne s'occupent plus de leur apparentés devraient développer des stratégies plus égoïstes au cours du temps. La fourmi d'Argentine (Linepithema humile) est une espèce invasive ayant un impact considérable sur son environnement. Originaire d'Amérique du Sud, elle a été introduite dans pratiquement toutes les régions du monde dont le climat est de type méditerranéen. Son incroyable succès invasif s'explique par sa structure sociale unicoloniale observée dans chacun des pays où elle a été introduite. Par contre, les rares études effectuées en Argentine ont suggéré que la fourmi d'Argentine n'était pas unicoloniale dans son aire native. L'unicolonialité chez la fourmi d'Argentine était donc considéré comme une conséquence de son introduction dans de nouveaux environnements. Durant cette thèse, nous avons vérifié si la structure sociale de cette espèce différait fondamentalement entre l'aire native et introduite. Pour cela, nous avons étudié, à différentes échelles géographiques, des populations introduites et argentines avec une approche génétique et comportementale. L'ensemble de nos résultats montrent que les différences entre les deux structure sociales ne sont pas aussi importantes que ce que l'on imaginait. Les populations natives sont aussi constituées de réseaux de nids coopérants. La taille de ses supercolonies est toutefois bien moins importante en Argentine et il n'est pas rare de trouver plusieurs supercolonies cohabitantes dans une même population. Nous avons démontré que ces réseaux de nids étaient constitués d'individus qui sont plus apparentés entre eux qu'ils ne le sont avec les individus d'autres supercolonies, ainsi l'unicolonialité dans son aire d'origine ne représente pas un réel paradoxe pour les théories de l'évolution. Finalement nous avons étudié la même population en Argentine à six ans d'intervalle et avons constaté que les supercolonies avaient un taux de survie très faible ce qui pourrait expliquer la stabilité de l'unicolonialité au cours du temps. Si les supercolonies les plus compétitives survivent mieux que les supercolonies dans lesquelles apparaissent des traits égoïstes, on devrait alors observer une dynamique entre l'apparition de traits égoïstes et l'élimination des supercolonies dans lesquelles ces traits égoïstes évolueraient. Finalement, une étude mondiale nous a montré que les supercolonies étaient originaires de nombreux événements d'introductions indépendants. En conclusion, le succès invasif de la fourmi d'Argentine n'est donc pas dû à un changement de comportement associé à son introduction mais est lié aux caractéristiques qu'elle a développées en Argentine.
Resumo:
Le projet "Bonnes pratiques de promotion de la santé des personnes âgées" vise à définir des recommandations pour promouvoir la santé des personnes âgées dans les différents cantons suisses adhérents au projet. Cinq instituts suisses ont ainsi été mandatés à produire un rapport faisant état de la situation relative à cinq domaines :- mesures visant à stimuler l'activité physique;- prévention des chutes;- participation du corps médical (médecins de famille);- conseils en matière de santé, manifestations, cours;- accès aux groupes-cibles et outils de recrutement.Dans le but de définir les bases pour une évaluation future des interventions recommandées, le présent rapport, sollicité par Promotion Santé Suisse, détaille le travail effectué avec les équipes responsables de chaque domaine pour élaborer une série de trois synthèses de leur travail, à savoir :- une analyse de la situation en question (problèmes constatés);- une théorie d'action définissant les objectifs intermédiaires et finaux à atteindre à partir des recommandations faites dans leur domaine;- une liste des indicateurs associés aux objectifs prioritaires.Ces synthèses ont été réalisées à l'aide du modèle de catégorisation des résultats de promotion de la santé et de la prévention (SMOC) un outil développé conjointement par les Instituts universitaires de médecine sociale et préventive de Berne et de Lausanne, en collaboration avec Promotion Santé Suisse. Les théories d'action ainsi élaborées ont ensuite été intégrées dans une théorie d'action globale correspondant à l'ensemble du projet " Bonnes pratiques de promotion de la santé des personnes âgées ". [P. 5]
Resumo:
Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.
Resumo:
The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.
Resumo:
La luxation d'une prothèse totale de la hanche est une complication majeure en termes de morbidité pour le patient et des coûts pour le système de santé. Cette complication est retrouvée entre 2 à 3% selon les séries (1-3) pour des prothèses primaires, et beaucoup plus élevée suite à des révisions. Pour remédier à ce problème, des systèmes de prothèses contraintes sont une option, cependant associés à des descellements fréquents entre 10 à 26 % selon les séries (4-6). Ces échecs étant en partie expliqués par une usure rapide des surfaces de frottements due aux fortes contraintes, mais également par les contraintes cupule-os occasionnant des descellements mécaniques (7). Par conséquent, pour augmenter la stabilité, tout en évitant les contraintes sur le couple de frottement, Bousquet développe, en 1976, une prothèse totale de hanche « à double mobilité ». Ce système consiste à combiner deux articulations apparentes, premièrement une tête métallique dans un insert de polyéthylène, articulé lui- même dans la concavité d'une cupule métallique fixée au bassin. En tant que tel, ce système biomécanique réduirait en théorie le risque de luxation. Dès lors, on aperçoit depuis environ 15 ans une augmentation progressive de l'utilisation de ce type d'implants que ce soit comme implant primaire ou secondaire, chez des patients jeunes ou âgés. Cependant, des études in vitro, ont montré que des grandes surfaces de friction sont associées à une augmentation de l'usure du polyéthylène (8). En revanche, les données sur la cinématique et l'usure, in vivo, de ce type d'implant étaient jusqu'alors limitées. Depuis quelques années, un certain nombre d'études cliniques avec un follow up significatif ont été publiées. CONCLUSIONS ET PERSPECTIVES FUTURES La prothèse totale de hanche à double mobilité, développée par Bousquet dans les années 1970, est un concept novateur dans l'arthroplastie totale de hanche. Depuis sa première conception, de nombreuses améliorations ont été adoptées. Cependant, ses effets à long terme sur la survie de l'implant doivent encore être effectué. Certes, des études ont montré un net effet sur la réduction du taux de luxation des prothèses primaires, lors de révision ou après résection tumorale. Toutefois, compte tenu des données limitées à long terme sur le taux d'usure et le descellement aseptique, il convient d'utiliser ce type d'implant avec prudence, en particulier lors d'arthroplastie primaire chez des patients jeunes.
Resumo:
La gouvernance de l'Internet est une thématique récente dans la politique mondiale. Néanmoins, elle est devenue au fil des années un enjeu économique et politique important. La question a même pris une importance particulière au cours des derniers mois en devenant un sujet d'actualité récurrent. Forte de ce constat, c ette recherche retrace l'histoire de la gouvernance de l'Internet depuis son émergence comme enjeu politique dans les années 1980 jusqu'à la fin du Sommet Mondial sur la Société de l'Information (SMSI) en 2005. Plutôt que de se focaliser sur l'une ou l'autre des institutions impliquées dans la régulation du réseau informatique mondial, cette recherche analyse l'émergence et l'évolution historique d'un espace de luttes rassemblant un nombre croissant d'acteurs différents. Cette évolution est décrite à travers le prisme de la relation dialectique entre élites et non-élites et de la lutte autour de la définition de la gouvernance de l'Internet. Cette thèse explore donc la question de comment les relations au sein des élites de la gouvernance de l'Internet et entre ces élites et les non-élites expliquent l'emergence, l'évolution et la structuration d'un champ relativement autonome de la politique mondiale centré sur la gouvernance de l'Internet. Contre les perspectives dominantes réaliste et libérales, cette recherche s'ancre dans une approche issue de la combinaison des traditions hétérodoxes en économie politique internationale et des apports de la sociologie politique internationale. Celle-ci s'articule autour des concepts de champ, d'élites et d'hégémonie. Le concept de champ, développé par Bourdieu inspire un nombre croissant d'études de la politique mondiale. Il permet à la fois une étude différenciée de la mondialisation et l'émergence d'espaces de lutte et de domination au niveau transnational. La sociologie des élites, elle, permet une approche pragmatique et centrée sur les acteurs des questions de pouvoir dans la mondialisation. Cette recherche utilise plus particulièrement le concept d'élite du pouvoir de Wright Mills pour étudier l'unification d'élites a priori différentes autour de projets communs. Enfin, cette étude reprend le concept néo-gramscien d'hégémonie afin d'étudier à la fois la stabilité relative du pouvoir d'une élite garantie par la dimension consensuelle de la domination, et les germes de changement contenus dans tout ordre international. A travers l'étude des documents produits au cours de la période étudiée et en s'appuyant sur la création de bases de données sur les réseaux d'acteurs, cette étude s'intéresse aux débats qui ont suivi la commercialisation du réseau au début des années 1990 et aux négociations lors du SMSI. La première période a abouti à la création de l'Internet Corporation for Assigned Names and Numbers (ICANN) en 1998. Cette création est le résultat de la recherche d'un consensus entre les discours dominants des années 1990. C'est également le fruit d'une coalition entre intérêts au sein d'une élite du pouvoir de la gouvernance de l'Internet. Cependant, cette institutionnalisation de l'Internet autour de l'ICANN excluait un certain nombre d'acteurs et de discours qui ont depuis tenté de renverser cet ordre. Le SMSI a été le cadre de la remise en cause du mode de gouvernance de l'Internet par les États exclus du système, des universitaires et certaines ONG et organisations internationales. C'est pourquoi le SMSI constitue la seconde période historique étudiée dans cette thèse. La confrontation lors du SMSI a donné lieu à une reconfiguration de l'élite du pouvoir de la gouvernance de l'Internet ainsi qu'à une redéfinition des frontières du champ. Un nouveau projet hégémonique a vu le jour autour d'éléments discursifs tels que le multipartenariat et autour d'insitutions telles que le Forum sur la Gouvernance de l'Internet. Le succès relatif de ce projet a permis une stabilité insitutionnelle inédite depuis la fin du SMSI et une acceptation du discours des élites par un grand nombre d'acteurs du champ. Ce n'est que récemment que cet ordre a été remis en cause par les pouvoirs émergents dans la gouvernance de l'Internet. Cette thèse cherche à contribuer au débat scientifique sur trois plans. Sur le plan théorique, elle contribue à l'essor d'un dialogue entre approches d'économie politique mondiale et de sociologie politique internationale afin d'étudier à la fois les dynamiques structurelles liées au processus de mondialisation et les pratiques localisées des acteurs dans un domaine précis. Elle insiste notamment sur l'apport de les notions de champ et d'élite du pouvoir et sur leur compatibilité avec les anlayses néo-gramsciennes de l'hégémonie. Sur le plan méthodologique, ce dialogue se traduit par une utilisation de méthodes sociologiques telles que l'anlyse de réseaux d'acteurs et de déclarations pour compléter l'analyse qualitative de documents. Enfin, sur le plan empirique, cette recherche offre une perspective originale sur la gouvernance de l'Internet en insistant sur sa dimension historique, en démontrant la fragilité du concept de gouvernance multipartenaire (multistakeholder) et en se focalisant sur les rapports de pouvoir et les liens entre gouvernance de l'Internet et mondialisation. - Internet governance is a recent issue in global politics. However, it gradually became a major political and economic issue. It recently became even more important and now appears regularly in the news. Against this background, this research outlines the history of Internet governance from its emergence as a political issue in the 1980s to the end of the World Summit on the Information Society (WSIS) in 2005. Rather than focusing on one or the other institution involved in Internet governance, this research analyses the emergence and historical evolution of a space of struggle affecting a growing number of different actors. This evolution is described through the analysis of the dialectical relation between elites and non-elites and through the struggle around the definition of Internet governance. The thesis explores the question of how the relations among the elites of Internet governance and between these elites and non-elites explain the emergence, the evolution, and the structuration of a relatively autonomous field of world politics centred around Internet governance. Against dominant realist and liberal perspectives, this research draws upon a cross-fertilisation of heterodox international political economy and international political sociology. This approach focuses on concepts such as field, elites and hegemony. The concept of field, as developed by Bourdieu, is increasingly used in International Relations to build a differentiated analysis of globalisation and to describe the emergence of transnational spaces of struggle and domination. Elite sociology allows for a pragmatic actor-centred analysis of the issue of power in the globalisation process. This research particularly draws on Wright Mill's concept of power elite in order to explore the unification of different elites around shared projects. Finally, this thesis uses the Neo-Gramscian concept of hegemony in order to study both the consensual dimension of domination and the prospect of change contained in any international order. Through the analysis of the documents produced within the analysed period, and through the creation of databases of networks of actors, this research focuses on the debates that followed the commercialisation of the Internet throughout the 1990s and during the WSIS. The first time period led to the creation of the Internet Corporation for Assigned Names and Numbers (ICANN) in 1998. This creation resulted from the consensus-building between the dominant discourses of the time. It also resulted from the coalition of interests among an emerging power elite. However, this institutionalisation of Internet governance around the ICANN excluded a number of actors and discourses that resisted this mode of governance. The WSIS became the institutional framework within which the governance system was questioned by some excluded states, scholars, NGOs and intergovernmental organisations. The confrontation between the power elite and counter-elites during the WSIS triggered a reconfiguration of the power elite as well as a re-definition of the boundaries of the field. A new hegemonic project emerged around discursive elements such as the idea of multistakeholderism and institutional elements such as the Internet Governance Forum. The relative success of the hegemonic project allowed for a certain stability within the field and an acceptance by most non-elites of the new order. It is only recently that this order began to be questioned by the emerging powers of Internet governance. This research provides three main contributions to the scientific debate. On the theoretical level, it contributes to the emergence of a dialogue between International Political Economy and International Political Sociology perspectives in order to analyse both the structural trends of the globalisation process and the located practices of actors in a given issue-area. It notably stresses the contribution of concepts such as field and power elite and their compatibility with a Neo-Gramscian framework to analyse hegemony. On the methodological level, this perspective relies on the use of mixed methods, combining qualitative content analysis with social network analysis of actors and statements. Finally, on the empirical level, this research provides an original perspective on Internet governance. It stresses the historical dimension of current Internet governance arrangements. It also criticise the notion of multistakeholde ism and focuses instead on the power dynamics and the relation between Internet governance and globalisation.
Resumo:
« Le temps des humains ne connaît pas de repos, il épouse le rythme des événements mais aussi de la pensée et des discours. Et il faut, pour l'apprécier, saisir dans un même mouvement ce qu'en dit la théorie et ce qu'en fait l'histoire. En somme considérer à la fois la pensée et le réel. Faire un détour par les grands auteurs pour mieux comprendre ce qu'a de spécifique le temps de la démocratie, ce qu'il a de changeant et d'inaccompli. C'est dans ce genre que s'inscrit, et de la meilleure manière, l'essai que l'on va lire, à la fois novateur par son approche et stimulant dans ses conclusions. [...] Antoine Chollet observe un temps qui change, et il montre que cela a une influence décisive sur la nature de notre régime. Quelle place la démocratie laisse-t-elle à l'événement ? La réhabilitation du présent condamne-t-elle l'utopie du futur et de la révolution ? Y a-t-il encore un temps pour le vouloir, et que pourrait être exactement un vouloir de la démocratie ? Ces questions, parmi tant d'autres, soulignent assez l'importance de l'objet et la qualité de la démonstration. » Marc Sadoun
Resumo:
Collection : Les cahiers de Gradhiva ; 16
Resumo:
Ce travail a pour objectif d'étudier l'évolution du métier de médecin de premier recours à la lumière du réel de son activité. Afin de pallier les lacunes de la littérature, nous proposons d'investiguer les perceptions et les pratiques rapportées de médecins de premier recours, considérant leur activité comme située dans un contexte spécifique. Un cadre théorique multiréférencé, intégrant les apports de Bischoff (2012), de la théorie de l'activité (Engeström et al., 1999), de l'ergonomie (Daniellou, 1996 ; Falzon, 2004a; Leplat, 1997) et de certains courants de la psychologie du travail (Curie et al., 1990 ; Curie, 2000b ; Malrieu, 1989) permet de tenir compte de la complexité du travail des médecins de premier recours. Une méthodologie mixte, alliant une approche qualitative par entretiens semi-structurés (n=20) à une approche quantitative par questionnaire (n=553), a été développée. Les résultats de l'analyse thématique des entretiens mettent en évidence trois thèmes majeurs : l'Evolution du métier (Thème 1), caractérisé par les changements perçus, les demandes des populations qui consultent et les paradoxes et vécus des médecins ; les Ajustements et supports (Thème 2) mis en place par les médecins pour faire face aux changements et aux difficultés de leur métier ; les Perceptions et les attentes par rapport au métier (Thème 3), mettant en avant des écarts perçus entre la formation et la réalité du métier. La partie quantitative permet de répondre aux questionnements générés à partir des résultats qualitatifs et de généraliser certains d'entre eux. Suite à l'intégration des deux volets de l'étude, nous présentons une nouvelle modélisation du métier de médecin de premier recours, soulignant son aspect dynamique et évolutif. Cette modélisation rend possible l'analyse de l'activité réelle des médecins, en tenant compte des contraintes organisationnelles, des paradoxes inhérents au métier et du vécu des médecins de premier recours. L'analyse des limites de cette étude ouvre à de nouvelles perspectives de recherche. A l'issue de ce travail, nous proposons quelques usages pragmatiques, qui pourront être utiles aux médecins de premier recours et aux médecins en formation, non seulement dans la réalisation de leur activité, mais également pour le maintien de leur équilibre et leur épanouissement au sein du métier. - This study aims to investigate the evolution of primary care physicians' work, in the light of the reality of their activity. In order to overcome the limitations of the literature, we propose to focus on primary care physicians' reported perceptions and practices, considering their activity as situated in a specific context. The theoretical framework refers to Bischoff (2012), Activity theory (Engeström et al., 1999), ergonomy (Daniellou, 1996; Falzon, 2004a; Leplat, 1997) and work psychology (Curie et al., 1990 ; Curie, 2000b ; Malrieu, 1989) and enables to take into account the complexity of primary care physicians' work. This mixed methods study proposes semi-structured interviews (n=20) and a questionnaire (n=553). Thematic analysis of interviews points out three major themes : Evolution of work (Theme 1) is characterised by perceived changes, patients' expectations and paradoxes ; Adjustments and supports (Theme 2), that help to face changes and difficulties of work ; Perceptions related to work, including differences between work reality as represented during medical education/training and actual work reality. Quantitative part of the study enables to answer questions generated from qualitative results and to generalise some of them. Integration of qualitative and quantitative results leads to a new modelling of primary care physicians ' work, that is dynamic and evolutionary. This modelling is useful to analyse the primary care physicians' activity, including organisational constraints, paradoxes of work and how primary care physicians are experiencing them. Despite its limitations, this study offers new research perspectives. To conclude, we state pragmatic recommendations that could be helpful to primary care physicians in private practice and junior doctors, in order to realise their activity, to maintain their balance and to sustain their professional fulfilment.
Resumo:
L?objectif de ce travail de recherche était de décrypter l?évolution géodynamique de la Péninsule de Biga (Turquie du N-O), à travers l?analyse de deux régions géologiques peu connues, le mélange de Çetmi et la zone d?Ezine (i.e. le Groupe d?Ezine et l?ophiolite de Denizgören). Une étude complète et détaillée de terrain (cartographie et échantillonnage) ainsi qu?une approche multidisciplinaire (sédimentologie de faciès, pétrographie sédimentaire et magmatique, micropaléontologie, datations absolues, géochimie sur roche totale, cristallinité de l?illite) ont permis d?obtenir de nouveaux éléments d?information sur la région considérée. ? Le mélange de Çetmi, de type mélange d?accrétion, affleure au nord et au sud de la Péninsule de Biga ; les principaux résultats de son étude peuvent se résumer comme suit: - Son aspect structural actuel (nature des contacts, organisation tectonique) est principalement dû au régime extensif Tertiaire présent dans la région. - Il est constitué de blocs de différentes natures : rares calcaires Scythien-Ladinien dans le faciès Han Bulog, blocs hectométriques de calcaires d?âge Norien-Rhaetien de rampe carbonatée, nombreux blocs décamétriques de radiolarites rouges d?âge Bajocien- Aptien, blocs/écailles de roches magmatiques de type spilites (basaltes à andésite), ayant des signatures géochimiques d?arcs ou intra-plaques. - La matrice du mélange est constituée d?une association greywacke-argilites dont l?âge Albien inférieur à moyen a été déterminé par palynologie. - L?activité du mélange s?est terminée avant le Cénomanien (discordance Cénomanienne au sommet du mélange, pas de bloc plus jeune que la matrice). - Du point de vue de ses corrélations latérales, le mélange de Çetmi partage plus de traits communs avec les mélanges se trouvant dans les nappes allochtones du Rhodope (nord de la Grèce et sud-ouest de la Bulgarie) qu?avec ceux de la suture Izmir-Ankara (Turquie); il apparaît finalement que sa mise en place s?est faite dans une logique balkanique (chevauchements vers le nord d?âge anté-Cénomanien). ? Le Groupe d?Ezine et l?ophiolite sus-jacente de Denizgören affleurent dans la partie ouest de la Péninsule de Biga. Le Groupe d?Ezine est une épaisse séquence sédimentaire continue (3000 m), subdivisée en trois formations, caractérisée chacune par un type de sédimentation spécifique, relatif à un environnement de dépôt particulier. De par ses caractéristiques (grande épaisseur, variations latérales de faciès et d?épaisseur dans les formations, érosion de matériel provenant de l?amont du bassin), le groupe d?Ezine est interprétée comme un dépôt syn-rift d?âge Permien moyen-Trias inférieur. Il pourrait représenter une partie de la future marge passive sud Rhodopienne à la suite de l?ouverture de l?océan Maliac/Méliata. L?ophiolite de Denizgören sus-jacente repose sur le Groupe d?Ezine par l?intermédiaire d?une semelle métamorphique à gradient inverse, du faciès amphibolite à schiste vert. L?âge du faciès amphibolite suggère une initiation de l?obduction au Barrémien (125 Ma, âge Ar/Ar); cet âge est unique dans le domaine égéen, mais il peut là aussi être relié à une logique balkanique, sur la base de comparaison avec le domaine Rhodopien. ? Toutes les unités précédentes (mélange de Çetmi, Groupe d?Ezine et ophiolite de Denizgören) ont passivement subi trois phases extensives pendant le Tertiaire. Dans la région d?Ezine et du mélange nord, les micaschistes HP sous-jacents ont été exhumés avant l?Eocène moyen. Dans le cas du mélange sud, cette exhumation Eocene est en partie enregistrée dans les mylonites séparant le mélange du dôme métamorphique sous-jacent du Kazda?. Le mélange sud est dans tous les cas fortement érodé à la suite de la double surrection du dôme du Kazda?, près de la lim ite Oligocène/Miocene et pendant le Plio- Quaternaire. Dans le premier cas, ce soulèvement est caractérisé par le développement d?une faille de détachement à faible pendage, qui contrôle à la fois l?exhumation du massif, et la formation d?un bassin sédimentaire syntectonique, de type bassin supradétachement; quant à la phase extensive la plus récente, elle est contrôlée par le jeu de failles normales à forts pendages qui remanient l?ensemble des structures héritées, et dictent la géomorphologie actuelle de la région. ? Il est possible de proposer un scénario pour l?évolution géodynamique de la Péninsule de Biga, basé sur l?ensemble des résultats précédents et sur les données de la géologie régionale ; ses points principaux sont: - La Péninsule de Biga fait partie de la marge Rhodopienne. - Le Groupe d?Ezine est un témoin de la marge passive nord Maliac/Méliata. - L?ophiolite de Denizgören et le mélange de Çetmi ont été mis en place tous deux vers le nord sur la marge précédente, respectivement au Barrémien et à l?Albien terminal- Cénomanien inférieur. - Une forte composante décrochante durant l?emplacement est suggérée par la préservation de fragments de la marge passive et l?absence de métamorphisme dans la plaque inférieure. - Tous les évènements précédents ont été largement affectés par le régime d?extension Tertiaire.<br/><br/>The purpose of this study is to unravel the geodynamic evolution of the Biga Peninsula (NW Turkey) through the detailed study of two poorly known areas, the Çetmi mélange and the Ezine zone (i.e. the Ezine Group and the Denizgören ophiolite). The methodology was based on a detailed field work and a multidisciplinary approach. ? The accretion-related Çetmi mélange is mainly cropping out north and south of the Biga Peninsula; the main results of its study can be summarized as follows: -Its present-day structural aspect (type of contacts, tectonic organisation) is largely inherited from the Tertiary extensional regime in the region. -It is made of blocks of various natures: Han Bulog limestones with a Scythian to Ladinian age, common carbonate ramp Norian-Rhaetian limestones (biggest blocks of the mélange), red radolarite with a Bajocian to Aptian age; the most common lithology of the mélange is made by block/slices of spilitic magmatic rocks (basalt to andesite); they have volcanic arc or within plate basalt geochemical signatures. -The matrix of the mélange is made of a greywacke-shale association of Early-Middle Albian age. - The mélange stopped its activity before the Cenomanian (no younger blocks than the matrix, and Cenomanian unconformity). - If compared to the regional geology, the Çetmi mélange shares some characteristics with the Izmir-Ankara mélanges (less), and with the mélanges from allochthonous nappes found in eastern Rhodope (more); it appears finally that its emplacement is related to a Balkanic logic (ante-Cenomanian northward thrusting). ? The Ezine Group and the overlying Denizgören ophiolite are cropping out in the western part of the Biga Peninsula. The Ezine Group is a thick sedimentary sequence interpreted as a syn-rift deposit of Middle Permian-Early Triassic age. It represents a part of the south Rhodopian passive margin, following the opening of the Maliac/Meliata oceanic domain. The Denizgören ophiolite has been emplaced northward on the Ezine Group in the Barremian (125 Ma, age of the amphibolitic sole); this age is unique in the Aegean domain, but here again, it may be related to a Balkan logic. ? All the previous units (Çetmi mélange, Ezine Group and Denizgören ophiolite) have passively suffered two extensional regimes during the Tertiary. In the Ezine and northern Çetmi mélange area, the underlying HP Çamlýca micaschists were exhumed before the Middle Eocene. As for the southern mélange, it was strongly eroded following the Late Oligocene to Quaternary uplift of the underlying Kazda? Massif. This uplift was characterized by the development of a low-angle detachment fault controlling a part of the exhumation, as well as the development of a supra-detachment basin. ? Based on the previous results, and on the data from the regional geology, one can propose a scenario for the geodynamic evolution of the Biga Peninsula. Its key points are:- The Biga Peninsula is belonging to the Rhodope margin. - The Ezine Group is a remnant of the northern Maliac/Meliata passive margin. - Both the Denizgören ophiolite and the Çetmi mélange have been emplaced northward on the previous margin, respectively in the Barremian and in the Late Albian-Early Cenomanian times. - The preservation of the remnants of the Rhodope margin, as well as the absence of metamorphism in the lower plate suggest a strong strike-slip component during the emplacements. - All the previous events are (at least) partly obliterated by the Tertiary extensional regime.<br/><br/>Le géologue est comme un «historien» de la Terre, qui porte un intérêt particulier à l?étude du passé de notre planète; ce dernier, très ancien, se mesure en dizaines ou centaines de millions d?années (Ma). Or le visage de la terre a constamment évolué au cours des ces millions d?années écoulés, car les plaques (continentales et océaniques) qui composent son enveloppe superficielle ne restent pas immobiles, mais se déplacent continuellement à sa surface, à une vitesse de l?ordre du cm/an (théorie de la tectonique des plaques); c?est ainsi, par exemple, que des océans naissent, grandissent, puis finissent par se refermer. On appelle sutures océaniques, les zones, aujourd?hui sur la terre ferme, où l?on retrouve les restes d?océans disparus. Ces sutures sont caractérisées par deux associations distinctes de roches, que l?on appelle les mélanges et les ophiolites; ces mélanges et ophiolites sont donc les témoins de l?activité passée d?un océan aujourd?hui refermé. L?équipe de recherche dans laquelle ce travail à été réalisé s?intéresse à un vaste domaine océanique fossile: l?océan Néotéthys. Cet océan, de plusieurs milliers de kilomètres de large, séparait alors l?Europe et l?Asie au nord, de l?Afrique, l?Inde et l?Australie au sud. De cet océan, il n?en subsiste aujourd?hui qu?une infime partie, qui se confond avec notre mer Méditerranée actuelle. Or, tout comme l?océan Pacifique est bordé de mers plus étroites (Mer de Chine, du Japon, etc?), l?océan Néotéthys était bordé au nord de mers marginales. C?est dans ce cadre que s?est inscrit mon travail de thèse, puisqu?il a consisté en l?étude d?une suture océanique (mélange plus ophiolite), témoin d?une des mers qui bordait l?océan Néotéthys sur sa marge nord. L?objectif était de préciser de quelle suture il s?agissait, puis de déterminer quand et comment elle avait fonctionné (i.e son évolution géologique). Les roches qui composent cette suture affleurent aujourd?hui en Turquie nord occidentale dans la Péninsule de Biga. Au nord et au sud de la péninsule se trouvent les zones géologique du mélange de Çetmi, et à l?ouest, le Groupe d?Ezine et l?ophiolite susjacente, dite ophiolite de Denizgören. Une étude complète et détaillée de terrain (cartographie, échantillonnage), suivie de diverses analyses en laboratoire (détermination de leur âge, de leur condition de formation, etc?), ont permis d?aboutir aux principaux résultats suivants : - Mise en évidence dans le mélange de Çetmi des témoins (1) de l?océan Lycien disparu (ancienne mer marginale de la Néotéthys), et (2) de la marge continentale qui le bordait au nord. - Fin de l?activité du mélange de Çetmi il y a environ 105 Ma (Albien). - Le mélange de Çetmi est difficilement corrélable dans le temps avec les unités semblables affleurant dans la région d?étude (unicité du mélange), ce qui implique des conditions particulière de formation. - L?ophiolite de Denizgören est un morceau d?océan Lycien posé sur un reste préservé de sa marge continentale nord. - Cette dernière est représentée sur le terrain par une succession de roches caractéristiques, le Groupe d?Ezine. Celui-ci est lui-même un témoin de l?ouverture d?un océan marginal de la Néotethys antérieur au Lycien, l?océan Maliac, qui s?est ouvert il y a 245 Ma (Permien-Trias). - La mise en place de l?ophiolite de Denizgören sur le Groupe d?Ezine (125 Ma, Barrémien) est antérieure à la mise en place du mélange de Çetmi. - Il apparaît que ces deux mises en place sont contemporaines de la formation de la chaîne des Balkans, terminée avant le Cénomanien (100 Ma). - L?évolution dans le temps des objets précédents (océans, marges continentales) montre de grands mouvements latéraux est-ouest entre ces objets (translation). Ce qui implique que les roches que l?on retrouve aujourd?hui sur un transect nord-sud ne l?étaient pas nécessairement auparavant. - Enfin, il s?avère que le mélange de Çetmi, l?ophiolite de Denizgören, et le Groupe d?Ezine ont subi par la suite des déformations extensives importantes qui ont considérablement perturbé le schéma post-mise en place.
Resumo:
Depuis le séminaire H. Cartan de 1954-55, il est bien connu que l'on peut trouver des éléments de torsion arbitrairement grande dans l'homologie entière des espaces d'Eilenberg-MacLane K(G,n) où G est un groupe abélien non trivial et n>1. L'objectif majeur de ce travail est d'étendre ce résultat à des H-espaces possédant plus d'un groupe d'homotopie non trivial. Dans le but de contrôler précisément le résultat de H. Cartan, on commence par étudier la dualité entre l'homologie et la cohomologie des espaces d'Eilenberg-MacLane 2-locaux de type fini. On parvient ainsi à raffiner quelques résultats qui découlent des calculs de H. Cartan. Le résultat principal de ce travail peut être formulé comme suit. Soit X un H-espace ne possédant que deux groupes d'homotopie non triviaux, tous deux finis et de 2-torsion. Alors X n'admet pas d'exposant pour son groupe gradué d'homologie entière réduite. On construit une large classe d'espaces pour laquelle ce résultat n'est qu'une conséquence d'une caractéristique topologique, à savoir l'existence d'un rétract faible X K(G,n) pour un certain groupe abélien G et n>1. On généralise également notre résultat principal à des espaces plus compliqués en utilisant la suite spectrale d'Eilenberg-Moore ainsi que des méthodes analytiques faisant apparaître les nombres de Betti et leur comportement asymptotique. Finalement, on conjecture que les espaces qui ne possédent qu'un nombre fini de groupes d'homotopie non triviaux n'admettent pas d'exposant homologique. Ce travail contient par ailleurs la présentation de la « machine d'Eilenberg-MacLane », un programme C++ conçu pour calculer explicitement les groupes d'homologie entière des espaces d'Eilenberg-MacLane. <br/><br/>By the work of H. Cartan, it is well known that one can find elements of arbitrarilly high torsion in the integral (co)homology groups of an Eilenberg-MacLane space K(G,n), where G is a non-trivial abelian group and n>1. The main goal of this work is to extend this result to H-spaces having more than one non-trivial homotopy groups. In order to have an accurate hold on H. Cartan's result, we start by studying the duality between homology and cohomology of 2-local Eilenberg-MacLane spaces of finite type. This leads us to some improvements of H. Cartan's methods in this particular case. Our main result can be stated as follows. Let X be an H-space with two non-vanishing finite 2-torsion homotopy groups. Then X does not admit any exponent for its reduced integral graded (co)homology group. We construct a wide class of examples for which this result is a simple consequence of a topological feature, namely the existence of a weak retract X K(G,n) for some abelian group G and n>1. We also generalize our main result to more complicated stable two stage Postnikov systems, using the Eilenberg-Moore spectral sequence and analytic methods involving Betti numbers and their asymptotic behaviour. Finally, we investigate some guesses on the non-existence of homology exponents for finite Postnikov towers. We conjecture that Postnikov pieces do not admit any (co)homology exponent. This work also includes the presentation of the "Eilenberg-MacLane machine", a C++ program designed to compute explicitely all integral homology groups of Eilenberg-MacLane spaces. <br/><br/>Il est toujours difficile pour un mathématicien de parler de son travail. La difficulté réside dans le fait que les objets qu'il étudie sont abstraits. On rencontre assez rarement un espace vectoriel, une catégorie abélienne ou une transformée de Laplace au coin de la rue ! Cependant, même si les objets mathématiques sont difficiles à cerner pour un non-mathématicien, les méthodes pour les étudier sont essentiellement les mêmes que celles utilisées dans les autres disciplines scientifiques. On décortique les objets complexes en composantes plus simples à étudier. On dresse la liste des propriétés des objets mathématiques, puis on les classe en formant des familles d'objets partageant un caractère commun. On cherche des façons différentes, mais équivalentes, de formuler un problème. Etc. Mon travail concerne le domaine mathématique de la topologie algébrique. Le but ultime de cette discipline est de parvenir à classifier tous les espaces topologiques en faisant usage de l'algèbre. Cette activité est comparable à celle d'un ornithologue (topologue) qui étudierait les oiseaux (les espaces topologiques) par exemple à l'aide de jumelles (l'algèbre). S'il voit un oiseau de petite taille, arboricole, chanteur et bâtisseur de nids, pourvu de pattes à quatre doigts, dont trois en avant et un, muni d'une forte griffe, en arrière, alors il en déduira à coup sûr que c'est un passereau. Il lui restera encore à déterminer si c'est un moineau, un merle ou un rossignol. Considérons ci-dessous quelques exemples d'espaces topologiques: a) un cube creux, b) une sphère et c) un tore creux (c.-à-d. une chambre à air). a) b) c) Si toute personne normalement constituée perçoit ici trois figures différentes, le topologue, lui, n'en voit que deux ! De son point de vue, le cube et la sphère ne sont pas différents puisque ils sont homéomorphes: on peut transformer l'un en l'autre de façon continue (il suffirait de souffler dans le cube pour obtenir la sphère). Par contre, la sphère et le tore ne sont pas homéomorphes: triturez la sphère de toutes les façons (sans la déchirer), jamais vous n'obtiendrez le tore. Il existe un infinité d'espaces topologiques et, contrairement à ce que l'on serait naïvement tenté de croire, déterminer si deux d'entre eux sont homéomorphes est très difficile en général. Pour essayer de résoudre ce problème, les topologues ont eu l'idée de faire intervenir l'algèbre dans leurs raisonnements. Ce fut la naissance de la théorie de l'homotopie. Il s'agit, suivant une recette bien particulière, d'associer à tout espace topologique une infinité de ce que les algébristes appellent des groupes. Les groupes ainsi obtenus sont appelés groupes d'homotopie de l'espace topologique. Les mathématiciens ont commencé par montrer que deux espaces topologiques qui sont homéomorphes (par exemple le cube et la sphère) ont les même groupes d'homotopie. On parle alors d'invariants (les groupes d'homotopie sont bien invariants relativement à des espaces topologiques qui sont homéomorphes). Par conséquent, deux espaces topologiques qui n'ont pas les mêmes groupes d'homotopie ne peuvent en aucun cas être homéomorphes. C'est là un excellent moyen de classer les espaces topologiques (pensez à l'ornithologue qui observe les pattes des oiseaux pour déterminer s'il a affaire à un passereau ou non). Mon travail porte sur les espaces topologiques qui n'ont qu'un nombre fini de groupes d'homotopie non nuls. De tels espaces sont appelés des tours de Postnikov finies. On y étudie leurs groupes de cohomologie entière, une autre famille d'invariants, à l'instar des groupes d'homotopie. On mesure d'une certaine manière la taille d'un groupe de cohomologie à l'aide de la notion d'exposant; ainsi, un groupe de cohomologie possédant un exposant est relativement petit. L'un des résultats principaux de ce travail porte sur une étude de la taille des groupes de cohomologie des tours de Postnikov finies. Il s'agit du théorème suivant: un H-espace topologique 1-connexe 2-local et de type fini qui ne possède qu'un ou deux groupes d'homotopie non nuls n'a pas d'exposant pour son groupe gradué de cohomologie entière réduite. S'il fallait interpréter qualitativement ce résultat, on pourrait dire que plus un espace est petit du point de vue de la cohomologie (c.-à-d. s'il possède un exposant cohomologique), plus il est intéressant du point de vue de l'homotopie (c.-à-d. il aura plus de deux groupes d'homotopie non nuls). Il ressort de mon travail que de tels espaces sont très intéressants dans le sens où ils peuvent avoir une infinité de groupes d'homotopie non nuls. Jean-Pierre Serre, médaillé Fields en 1954, a montré que toutes les sphères de dimension >1 ont une infinité de groupes d'homotopie non nuls. Des espaces avec un exposant cohomologique aux sphères, il n'y a qu'un pas à franchir...