746 resultados para Aboriginal Tent Embassy


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Monte Perdido thrust fault (southern Pyrenees) consists of a 6-m-thick interval of intensely deformed clay-bearing rocks. The fault zone is affected by a pervasive pressure solution seam and numerous shear surfaces. Calcite extensional-shear veins are present along the shear surfaces. The angular relationships between the two structures indicate that shear surfaces developed at a high angle (70°) to the local principal maximum stress axis r1. Two main stages of deformation are present. The first stage corresponds to the development of calcite shear veins by a combination of shear surface reactivation and extensional mode I rupture. The second stage of deformation corresponds to chlorite precipitation along the previously reactivated shear surfaces. The pore fluid factor k computed for the two deformation episodes indicates high fluid pressures during the Monte Perdido thrust activity. During the first stage of deformation, the reactivation of the shear surface was facilitated by a suprahydrostatic fluid pressure with a pore fluid factor kv equal to 0.89. For the second stage, the fluid pressure remained still high (with a k value ranging between 0.77 and 0.84) even with the presence of weak chlorite along the shear surfaces. Furthermore, evidence of hydrostatic fluid pressure during calcite cement precipitation supports that incremental shear surface reactivations are correlated with cyclic fluid pressure fluctuations consis- tent with a fault-valve model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study investigates the role of human agency in the gene flow and geographical distribution of the Australian baobab, Adansonia gregorii. The genus Adansonia is a charismatic tree endemic to Africa, Madagascar, and northwest Australia that has long been valued by humans for its multiple uses. The distribution of genetic variation in baobabs in Africa has been partially attributed to human-mediated dispersal over millennia, but this relationship has never been investigated for the Australian species. We combined genetic and linguistic data to analyse geographic patterns of gene flow and movement of word-forms for A. gregorii in the Aboriginal languages of northwest Australia. Comprehensive assessment of genetic diversity showed weak geographic structure and high gene flow. Of potential dispersal vectors, humans were identified as most likely to have enabled gene flow across biogeographic barriers in northwest Australia. Genetic-linguistic analysis demonstrated congruence of gene flow patterns and directional movement of Aboriginal loanwords for A. gregorii. These findings, along with previous archaeobotanical evidence from the Late Pleistocene and Holocene, suggest that ancient humans significantly influenced the geographic distribution of Adansonia in northwest Australia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les surdités cochléaires brusques et les déficits vestibulaire brusque idiopathiques constituent l'un des sujets les plus débattus en otologie. Ces deux pathologies naisse d'altération du labyrinthe de l'oreille interne, dont l'étiologie exacte reste aujourd'hui méconnue. Plusieurs hypothèses ont cependant été formulées. Parmi les plus discutées, on retient celle d'une atteinte virale, celle d'une altération de la vascularisation cochléaire ou encore celle d'une affection autoimmune.¦La méconnaissance des mécanismes physiopathologiques et l'importance clinique d'un traitement efficace contribuent à multiplier les études, malheureusement celles-ci manquent souvent de rigueur pour être exploitées. Ainsi plus de 1700 publication sur le sujet sont disponibles dans la littérature médicale. Malgré cette abondance , la pertinence du traitement médicamenteux reste controversée.¦Il s'est donc agit ici de faire une revue de la littérature, afin de tenter d'établir l'efficacité éventuelle des traitements selon les critères de l'Evidence-Based-Medecine (EBM). Etant donné le nombre de publications, nous nous sommes limités aux méta-analyses et aux revues systématisées.¦Nous avons sélectionné trois méta-analyses et quatre revues de littérature pour notre recherche. Elles évaluaient l'efficacité des traitements médicamenteux suivants ; corticostéroïdes, antithrombotique, vasodilatateurs, agents hémodiluants, antiviraux, anesthésiques locaux. Aucun de ceux-ci n'a démontré de preuves suffisantes, aussi bien pour les surdités brusques que pour les déficits vestibulaires brusques. Aussi, une abstention médicamenteuse se justifie à ce jour. Par contre, parmi les thérapies non médicamenteuses, la réhabilitation vestibulaire est conseillée après déficit vestibulaire brusque et se détache des autres prises en charge par son efficacité et sa sûreté.¦Notons que ces résultats se base sur un niveau de preuve faible. De nouvelles études cliniques sont indispensables. Nous avons tenté d'élaborer quelques pistes pour celles à venir, afin qu'elles soient utilisables dans un second temps par des méta-analyses. Cela permettrait une amélioration du niveau de preuve actuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Wnt -Wingless (Wg) in Drosophila- signaling is an evolutionary conserved, fundamental signal transduction pathway in animals, having a crucial role in early developmental processes. In the adult animal the Wnt cascade is mainly shut off; aberrant activation leads to cancer. One physiological exception in the adult animal is the activation of Wnt signaling in the nervous system. In the present work, we investigated Wg signaling in the Drosophila neuromuscular junctions (NMJs). The fly NMJs closely resemble the glutamatergic synapses in the mammalian central nervous system and serves as a model system to investigate the mechanism of synapse formation and stability. We demonstrate that the trimeric G-protein Go has a fundamental role in the presynaptic cell in the NMJ. It is implicated in the presynaptic Wg pathway, acting downstream of the ligand Wg and its receptor Frizzled2 (Fz2). Furthermore, we prove that the presynaptic Wg-Fz2-Gαo pathway is essential for correct NMJ formation. The neuronal protein Ankyrin2 (Ank2) localizes to the NMJ and has so far been considered to be a static player in NMJ formation, linking the plasma membrane to the cytoskeleton. We identify Ank2 as a direct target of Gαo. The physical and genetic interaction of Gαo with Ank2 represents a novel branch of the presynaptic Wg pathway, regulating the microtubule cytoskeleton in NMJ formation, jointly with the previously established Futsch-dependent branch, which controls microtubule stability downstream of the kinase Sgg (the homolog of GSK3ß). We moreover demonstrate that the Gαo-Ankyrin interaction to regulate the cytoskeleton is conserved in mammalian neuronal cells. Our findings therefore provide a novel, universally valid regulation of the cytoskeleton in the nervous system. Aberrant inactivation of the neuronal Wnt pathway is believed to be involved in the pathogenesis of the Aß peptide in Alzheimer's disease (AD). We modeled AD in Drosophila by expressing Aß42 in the nervous system and in the eye. Neuronal expression drastically shortens the life span of the flies. We prove that this effect depends on the expression specifically in glutamatergic neurons. However, Aß42 does not induce any morphological changes in the NMJ; therefore this synapse is not suitable to study the mechanism of Aß42 induced neurotoxicity. We furthermore demonstrate that genetic activation of the Wnt pathway does not rescue the Aß42 induced phenotypes - in opposition to the dominating view in the field. These results advice caution when interpreting data on the potential interaction of Wnt signaling and AD in other models. -- La voie de signalisation Wnt (Wingless (Wg) chez la drosophile) est conservée dans l'évolution et fondamentale pour le développement des animaux. Cette signalisation est normalement inactive chez l'animal adulte; une activation anormale peut provoquer le cancer. Or, ceci n'est pas le cas dans le système nerveux des adultes. La présente thèse avait pour but d'analyser le rôle de la voie de signalisation Wingless dans la plaque motrice de Drosophila melanogaster. En effet, cette plaque ressemble fortement aux synapses glutaminergiques du système nerveux central des mammifères et procure ainsi un bon modèle pour l'étude des mécanismes impliqués dans la formation et la stabilisation des synapses. Nos résultats montrent que la protéine trimérique Go joue un rôle fondamental dans la fonction de la cellule présynaptique de la plaque motrice. Go est en effet impliqué dans la voie de signalisation Wg, opérant en aval du ligand Wg et de son récepteur Frizzled2. Nous avons pu démontrer que cette voie de signalisation Wg-Fz2-Gαo est essentielle pour le bon développement et le fonctionnement de la plaque motrice. Fait intéressant, nous avons montré que la protéine neuronale Ankyrin2 (Ank2), qui est connue pour jouer un rôle statique en liant la membrane plasmique au cytosquelette dans la plaque motrice, est une cible directe de Gαo. L'interaction physique et génétique entre Gαo et Ank2 constitue ainsi une bifurcation de la voie de signalisation présynaptique Wg. Cette voie régule le cytosquelette des microtubules en coopération avec la branche liée à la protéine Futsch. Cette protéine est l'homologue de la protéine liant les microtubules MAP1B des mammifères et contrôle la stabilité des microtubules opérant en aval de la kinase Sgg (l'homologue de GSK3ß). De plus, la régulation du cytosquelette par l'interaction entre Gαo et Ankyrin est conservée chez les mammifères. Dans leur ensemble, nos résultats ont permis d'identifier un nouveau mode de régulation du cytosquelette dans le système nerveux, probablement valable de manière universelle. La voie de signalisation Wnt est soupçonnée d'être impliquée dans la toxicité provoquée par le peptide Aß dans le cadre de la maladie d'Alzheimer. Nous avons tenté de modéliser la maladie chez la drosophile en exprimant Aß42 spécifiquement dans le cerveau. Cette expérience a montré que l'expression neuronale d'Aß42 réduit la durée de vie des mouches de manière significative par un mécanisme impliquant les cellules glutamatergiques. Par contre, aucune modification morphologique n'est provoquée par Aß42 dans les plaques motrices glutamatergiques. Ces résultats montrent que ce modèle de Drosophile n'est pas adéquat pour l'étude de la maladie d'Alzheimer. De plus, l'activation génétique de la voie de signalisation Wg n'a pas réussi à restaurer les phénotypes de survie ou ceux des yeux causés par Aß42. Ces résultats indiquent que l'implication de la voie de signalisation Wg dans la maladie d'Alzheimer doit être considérée avec prudence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND/AIM: With the evolving boundaries of sports science and greater understanding of the driving factors in the human performance physiology, one of the limiting factors has now become the technology. The growing scientific interest on the practical application of hypoxic training for intermittent activities such as team and racket sports legitimises the development of innovative technologies serving athletes in a sport-specific setting. METHODS: Description of a new mobile inflatable simulated hypoxic equipment. RESULTS: The system comprises two inflatable units-that is, a tunnel and a rectangular design, each with a 215 m(3) volume and a hypoxic trailer generating over 3000 Lpm of hypoxic air with FiO₂ between 0.21 and 0.10 (a simulated altitude up to 5100 m). The inflatable units offer a 45 m running lane (width=1.8 m and height=2.5 m) as well as a 8 m × 10 m dome tent. FiO₂ is stable within a range of 0.1% in normal conditions inside the tunnel. The air supplied is very dry-typically 10-15% relative humidity. CONCLUSIONS: This mobile inflatable simulated hypoxic equipment is a promising technological advance within sport sciences. It offers an opportunity for team-sport players to train under hypoxic conditions, both for repeating sprints (tunnel configuration) or small-side games (rectangular configuration).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant-propos: Selon les données disponibles, le Cameroun, à l'instar de nombreux pays en développement, ne constitue qu'une destination marginale de l'investissement direct étranger (IDE), à l'exception de ceux destinés aux secteurs minier et pétrolier. Déterminer les causes de cette situation peu satisfaisante n'aurait en soi qu'un intérêt théorique si ce pays n'avait pas adopté une réglementation visant à encadrer et à promouvoir ce type d'investissements et n'avait pas, par ailleurs, signé et ratifié divers instruments bilatéraux et multilatéraux se rapportant à cet objet. Ce sont donc des considérations très pratiques qui l'emportent et rendent nécessaire une étude plus détaillée sur le sujet. Ce travail a pour objet l'étude du régime juridique des investissements directs étrangers analysé comme facteur pouvant Favoriser le développement économique et social du Cameroun. Dans ces conditions, il eût été impossible de s'en tenir à l'analyse des seules dispositions ayant trait spécifiquement au régime juridique des investissements d'origine étrangère. L'examen des obstacles et des contraintes ayant un impact aussi bien sur les politiques d'incitation que sur les effets attendus de ce type d'investissement s'est avéré indispensable pour appréhender la question dans sa globalité. Au risque de sacrifier quelque peu l'exigence de concision nécessaire à la rédaction d'une thèse, nous avons donc opté pour un exposé aussi complet que possible des questions avant tout juridiques, mais aussi politiques et économiques, auxquelles peuvent être confrontés, non seulement le juriste averti, mais aussi le praticien ou tout simplement l'étranger désireux d'investir au Cameroun. Pour ce faire, nous avons divisé notre étude en deux parties. Dans la première partie, nous nous efforçons de présenter et d'analyser les normes coutumières, conventionnelles, légales ou contractuelles constitutives du régime juridique des investissements au Cameroun. Et parce que le système juridique camerounais est complexe, et aussi méconnu ou inconnu, il nous a paru indispensable, à chaque fois, d'en rappeler les spécificités de manière à familiariser le lecteur avec les réalités institutionnelles et juridiques du pays qui illustre notre étude. Dans la deuxième partie, nous avons tenté de démontrer la nécessité d'adopter des politiques complémentaires visant à améliorer l'incidence de l'IDE sur le développement en proposant des mesures d'ordre politique et juridique pouvant contribuer à l'amélioration de la compétitivité de l'économie camerounaise, d'une part, et, d'autre part, viser à atténuer les effets néfastes des IDE et des politiques d'incitation. En élargissant ainsi le champ de notre analyse, nous espérons rendre service à la fois aux juristes et aux praticiens, plus sensibles aux solutions concrètes qu'à leur explication doctrinale. C'est ainsi que nous avons mis en commun les connaissances juridiques théoriques et les analyses et opinions émises par différents observateurs des faits économiques et sociaux du Cameroun, conscient qu'en Afrique plus qu'ailleurs, les juristes désireux de faire oeuvre utile ne sauraient s'enfermer dans la tour d'ivoire des Facultés. Nos conclusions, loin de faire l'inventaire de tous les résultats auxquels nous sommes parvenu, se limitent aux enseignements majeurs que nous tirons de notre recherche et aux propositions que nous formulons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sténose du canal médullaire lombaire peut aujourd'hui se traiter de deux façons différentes à savoir le traitement non- chirurgical (physiothérapie, AINS, infiltrations de corticostéroïdes) pour les patients souffrant de symptômes modérés et le traitement chirurgical (décompression canalaire) pour les patients avec des symptômes graves et des déficits fonctionnels. Plusieurs études ont tenté de comparer ces deux approches thérapeutiques. Pour ce faire, on se servit de questionnaires d'évaluation subjective des capacités fonctionnelles (Oswestry Disability Index) souvent associés à des mesures des capacités de marche en laboratoire.¦Notre étude utilise des capteurs gyroscopiques placés sur le corps des sujets afin de mesurer des paramètres de positions, de transferts de position et de la marche pendant 5 jours consécutifs. Cette méthode nous permet d'effectuer ces mesures objectives dans le cadre de vie des patients, dans leurs activités quotidiennes. Nous espérons ainsi obtenir des résultats qui soient plus représentatifs de leur mobilité.¦Dans le cadre de mon travail de master, je me suis concentré sur la phase pilote d'une étude du Dr Schizas. Cette phase ne regroupe qu'un nombre limité de sujets (14) répartis en deux groupes de 7 suivant le traitement reçu (chir. contre non-chir). Nous avons alors émis trois hypothèses. La première dit que, avant traitement, les patients non-opérés marchent mieux que les patients destinés à la chirurgie (symptômes moins intenses). La deuxième postule que le traitement chirurgical permet d'atténuer suffisamment les symptômes pour que les capacités de marche se rapprochent de celles des patients non opérés avant traitement (efficacité de la chirurgie). Pour finir, notre dernière hypothèse prétend que, après la chirurgie, les patients opérés voient une amélioration de leur capacité de marche par rapport à celles qu'ils avaient avant l'intervention. 4 paramètres ont été retenus afin de caractériser la marche: la longueur des pas, la vitesse, la cadence des pas et la distance parcourue. C'est à partir des moyennes et des coefficients de variabilité de ces paramètres que nous avons effectué nos comparaisons.¦Après l'analyse de nos résultats, il s'avère que nos valeurs tendent à valider nos trois hypothèses à quelques exceptions près. Hypothèse n°1: avant traitement, les patients non destinés à la chirurgie marchent plus vite (2.96 contre 2.87 P 0.84) et avec une cadence des pas plus importante (101.78 contre 94.59 P 0.047). Seule la longueur des pas est plus importante chez les futurs opérés (1.01 contre 0.96 P 0.72). Les coefficients de variabilité (CV) sont tous plus faibles chez les non-opérés (marche plus homogène). Concernant notre 2ème hypothèse, nous sommes plutôt satisfaits des résultats. A 3 mois après la chirurgie, les patients opérés, comparés aux non-opérés avant traitement ont une longueur de pas similaire (1.02 contre 0.96 P 0.70) et une vitesse plus importante (3.08 contre 2.96 P 0.83). Seule la cadence des pas est plus élevée chez les non-opérés (101.78 contre 100.23 P 0.72). Les CV confirment également un rapprochement des capacités de marche de nos patients opérés de celles des non-opérés. Pour la troisième hypothèse, nous sommes heureux de constater que les moyennes et les CV sont tous en accord avec l'idée de base. A trois mois post-traitement les patients opérés font des pas de longueur similaire (1.02 contre 1.01 P 0.93), marchent plus vite (3.08 contre 2.89 P 0.52) et à une cadence plus importante (100.23 contre 94.59 P 0.19).¦Avec seulement 14 patients, il est bien clair que ces résultats n'ont que peu de valeur statistique. Cependant, ces résultats nous encouragent à poursuivre cette étude sur un collectif de patients plus important dans le but de mieux comprendre les troubles de la mobilité des personnes atteintes de canal lombaire étroit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Métropolisation, morphologie urbaine et développement durable. Transformations urbaines et régulation de l'étalement : le cas de l'agglomération lausannoise. Cette thèse s'inscrit clans la perspective d'une analyse stratégique visant à un définir et à expliciter les liens entre connaissance, expertise et décision politique. L'hypothèse fondamentale qui oriente l'ensemble de ce travail est la suivante : le régime d'urbanisation qui s'est imposé au cours des trente dernières années correspond à une transformation du principe morphogénétique de développement spatial des agglomérations qui tend à alourdir leurs bilans écologiques et à péjorer la qualité du cadre de vie des citadins. Ces enjeux environnementaux liés aux changements urbains et singulièrement ceux de la forme urbaine constituent un thème de plus en plus important dans la recherche de solutions d'aménagement urbain dans une perspective de développement durable. Dans ce contexte, l'aménagement urbain devient un mode d'action et une composante de tout premier ordre des politiques publiques visant un développement durable à l'échelle locale et globale. Ces modalités de développement spatial des agglomérations émergent indiscutablement au coeur de la problématique environnementale. Or si le concept de développement durable nous livre une nouvelle de de lecture des territoires et de ses transformations, en prônant le modèle de la ville compacte et son corollaire la densification, la traduction à donner à ce principe stratégique reste controversée, notamment sous l'angle de l'aménagement du territoire et des stratégies de développement urbain permettant une mise en oeuvre adéquate des solutions proposées. Nous avons ainsi tenté dans ce travail de répondre à un certain nombre de questions : quelle validité accorder au modèle de la ville compacte ? La densification est-elle une réponse adéquate ? Si oui, sous quelles modalités ? Quelles sont, en termes de stratégies d'aménagement, les alternatives durables au modèle de la ville étalée ? Faut-il vraiment densifier ou simplement maîtriser la dispersion ? Notre objectif principal étant in fine de déterminer les orientations et contenus urbanistiques de politiques publiques visant à réguler l'étalement urbain, de valider la faisabilité de ces principes et à définir les conditions de leur mise en place dans le cas d'une agglomération. Pour cela, et après avoir choisi l'agglomération lausannoise comme terrain d'expérimentation, trois approches complémentaires se sont révélées indispensables dans ce travail 1. une approche théorique visant à définir un cadre conceptuel interdisciplinaire d'analyse du phénomène urbain dans ses rapports à la problématique du développement durable liant régime d'urbanisation - forme urbaine - développement durable ; 2. une approche méthodologique proposant des outils d'analyse simples et efficaces de description des nouvelles morphologies urbaines pour une meilleure gestion de l'environnement urbain et de la pratique de l'aménagement urbain ; 3. une approche pragmatique visant à approfondir la réflexion sur la ville étalée en passant d'une approche descriptive des conséquences du nouveau régime d'urbanisation à une approche opérationnelle, visant à identifier les lignes d'actions possibles dans une perspective de développement durable. Cette démarche d'analyse nous a conduits à trois résultats majeurs, nous permettant de définir une stratégie de lutte contre l'étalement. Premièrement, si la densification est acceptée comme un objectif stratégique de l'aménagement urbain, le modèle de la ville dense ne peut être appliqué saris la prise en considération d'autres objectifs d'aménagement. Il ne suffit pas de densifier pour réduire l'empreinte écologique de la ville et améliorer la qualité de vie des citadins. La recherche d'une forme urbaine plus durable est tributaire d'une multiplicité de facteurs et d'effets de synergie et la maîtrise des effets négatifs de l'étalement urbain passe par la mise en oeuvre de politiques urbaines intégrées et concertées, comme par exemple prôner la densification qualifiée comme résultante d'un processus finalisé, intégrer et valoriser les transports collectifs et encore plus la métrique pédestre avec l'aménagement urbain, intégrer systématiquement la diversité à travers les dimensions physique et sociale du territoire. Deuxièmement, l'avenir de ces territoires étalés n'est pas figé. Notre enquête de terrain a montré une évolution des modes d'habitat liée aux modes de vie, à l'organisation du travail, à la mobilité, qui font que l'on peut penser à un retour d'une partie de la population dans les villes centres (fin de la toute puissance du modèle de la maison individuelle). Ainsi, le diagnostic et la recherche de solutions d'aménagement efficaces et viables ne peuvent être dissociés des demandes des habitants et des comportements des acteurs de la production du cadre bâti. Dans cette perspective, tout programme d'urbanisme doit nécessairement s'appuyer sur la connaissance des aspirations de la population. Troisièmement, la réussite de la mise en oeuvre d'une politique globale de maîtrise des effets négatifs de l'étalement urbain est fortement conditionnée par l'adaptation de l'offre immobilière à la demande de nouveaux modèles d'habitat répondant à la fois à la nécessité d'une maîtrise des coûts de l'urbanisation (économiques, sociaux, environnementaux), ainsi qu'aux aspirations émergentes des ménages. Ces résultats nous ont permis de définir les orientations d'une stratégie de lutte contre l'étalement, dont nous avons testé la faisabilité ainsi que les conditions de mise en oeuvre sur le territoire de l'agglomération lausannoise. Abstract This dissertation participates in the perspective of a strategic analysis aiming at specifying the links between knowledge, expertise and political decision, The fundamental hypothesis directing this study assumes that the urban dynamics that has characterized the past thirty years signifies a trans-formation of the morphogenetic principle of agglomerations' spatial development that results in a worsening of their ecological balance and of city dwellers' quality of life. The environmental implications linked to urban changes and particularly to changes in urban form constitute an ever greater share of research into sustainable urban planning solutions. In this context, urban planning becomes a mode of action and an essential component of public policies aiming at local and global sustainable development. These patterns of spatial development indisputably emerge at the heart of environmental issues. If the concept of sustainable development provides us with new understanding into territories and their transformations, by arguing in favor of densification, its concretization remains at issue, especially in terms of urban planning and of urban development strategies allowing the appropriate implementations of the solutions offered. Thus, this study tries to answer a certain number of questions: what validity should be granted to the model of the dense city? Is densification an adequate answer? If so, under what terms? What are the sustainable alternatives to urban sprawl in terms of planning strategies? Should densification really be pursued or should we simply try to master urban sprawl? Our main objective being in fine to determine the directions and urban con-tents of public policies aiming at regulating urban sprawl, to validate the feasibility of these principles and to define the conditions of their implementation in the case of one agglomeration. Once the Lausanne agglomeration had been chosen as experimentation field, three complementary approaches proved to be essential to this study: 1. a theoretical approach aiming at definying an interdisciplinary conceptual framework of the ur-ban phenomenon in its relation to sustainable development linking urban dynamics - urban form - sustainable development ; 2. a methodological approach proposing simple and effective tools for analyzing and describing new urban morphologies for a better management of the urban environment and of urban planning practices 3. a pragmatic approach aiming at deepening reflection on urban sprawl by switching from a descriptive approach of the consequences of the new urban dynamics to an operational approach, aiming at identifying possible avenues of action respecting the principles of sustainable development. This analysis approach provided us with three major results, allowing us to define a strategy to cur-tail urban sprawl. First, if densification is accepted as a strategic objective of urban planning, the model of the dense city can not be applied without taking into consideration other urban planning objectives. Densification does not suffice to reduce the ecological impact of the city and improve the quality of life of its dwellers. The search for a more sustainable urban form depends on a multitude of factors and effects of synergy. Reducing the negative effects of urban sprawl requires the implementation of integrated and concerted urban policies, like for example encouraging densification qualified as resulting from a finalized process, integrating and developing collective forms of transportation and even more so the pedestrian metric with urban planning, integrating diversity on a systematic basis through the physical and social dimensions of the territory. Second, the future of such sprawling territories is not fixed. Our research on the ground revea-led an evolution in the modes of habitat related to ways of life, work organization and mobility that suggest the possibility of the return of a part of the population to the center of cities (end of the rule of the model of the individual home). Thus, the diagnosis and the search for effective and sustainable solutions can not be conceived of independently of the needs of the inhabitants and of the behavior of the actors behind the production of the built territory. In this perspective, any urban program must necessarily be based upon the knowledge of the population's wishes. Third, the successful implementation of a global policy of control of urban sprawl's negative effects is highly influenced by the adaptation of property offer to the demand of new habitat models satisfying both the necessity of urbanization cost controls (economical, social, environ-mental) and people's emerging aspirations. These results allowed us to define a strategy to cur-tail urban sprawl. Its feasibility and conditions of implementation were tested on the territory of the Lausanne agglomeration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The determination of gross alpha, gross beta and 226Ra activity in natural waters is useful in a wide range of environmental studies. Furthermore, gross alpha and gross beta parameters are included in international legislation on the quality of drinking water [Council Directive 98/83/EC].1 In this work, a low-background liquid scintillation counter (Wallac, Quantulus 1220) was used to simultaneously determine gross alpha, gross beta and 226Ra activity in natural water samples. Sample preparation involved evaporation to remove 222Rn and its short-lived decay daughters. The evaporation process concentrated the sample ten-fold. Afterwards, a sample aliquot of 8 mL was mixed with 12 mL of Ultima Gold AB scintillation cocktail in low-diffusion vials. In this study, a theoretical mathematical model based on secular equilibrium conditions between 226Ra and its short-lived decay daughters is presented. The proposed model makes it possible to determine 226Ra activity from two measurements. These measurements also allow determining gross alpha and gross beta simultaneously. To validate the proposed model, spiked samples with different activity levels for each parameter were analysed. Additionally, to evaluate the model's applicability in natural water, eight natural water samples from different parts of Spain were analysed. The eight natural water samples were also characterised by alpha spectrometry for the naturally occurring isotopes of uranium (234U, 235U and 238U), radium (224Ra and 226Ra), 210Po and 232Th. The results for gross alpha and 226Ra activity were compared with alpha spectrometry characterization, and an acceptable concordance was obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Version abregée L'ischémie cérébrale est la troisième cause de mort dans les pays développés, et la maladie responsable des plus sérieux handicaps neurologiques. La compréhension des bases moléculaires et anatomiques de la récupération fonctionnelle après l'ischémie cérébrale est donc extrêmement importante et représente un domaine d'intérêt crucial pour la recherche fondamentale et clinique. Durant les deux dernières décennies, les chercheurs ont tenté de combattre les effets nocifs de l'ischémie cérébrale à l'aide de substances exogènes qui, bien que testées avec succès dans le domaine expérimental, ont montré un effet contradictoire dans l'application clinique. Une approche différente mais complémentaire est de stimuler des mécanismes intrinsèques de neuroprotection en utilisant le «modèle de préconditionnement» : une brève insulte protège contre des épisodes d'ischémie plus sévères à travers la stimulation de voies de signalisation endogènes qui augmentent la résistance à l'ischémie. Cette approche peut offrir des éléments importants pour clarifier les mécanismes endogènes de neuroprotection et fournir de nouvelles stratégies pour rendre les neurones et la glie plus résistants à l'attaque ischémique cérébrale. Dans un premier temps, nous avons donc étudié les mécanismes de neuroprotection intrinsèques stimulés par la thrombine, un neuroprotecteur «préconditionnant» dont on a montré, à l'aide de modèles expérimentaux in vitro et in vivo, qu'il réduit la mort neuronale. En appliquant une technique de microchirurgie pour induire une ischémie cérébrale transitoire chez la souris, nous avons montré que la thrombine peut stimuler les voies de signalisation intracellulaire médiées par MAPK et JNK par une approche moléculaire et l'analyse in vivo d'un inhibiteur spécifique de JNK (L JNK) .Nous avons également étudié l'impact de la thrombine sur la récupération fonctionnelle après une attaque et avons pu démontrer que ces mécanismes moléculaires peuvent améliorer la récupération motrice. La deuxième partie de cette étude des mécanismes de récupération après ischémie cérébrale est basée sur l'investigation des bases anatomiques de la plasticité des connections cérébrales, soit dans le modèle animal d'ischémie transitoire, soit chez l'homme. Selon des résultats précédemment publiés par divers groupes ,nous savons que des mécanismes de plasticité aboutissant à des degrés divers de récupération fonctionnelle sont mis enjeu après une lésion ischémique. Le résultat de cette réorganisation est une nouvelle architecture fonctionnelle et structurelle, qui varie individuellement selon l'anatomie de la lésion, l'âge du sujet et la chronicité de la lésion. Le succès de toute intervention thérapeutique dépendra donc de son interaction avec la nouvelle architecture anatomique. Pour cette raison, nous avons appliqué deux techniques de diffusion en résonance magnétique qui permettent de détecter les changements de microstructure cérébrale et de connexions anatomiques suite à une attaque : IRM par tenseur de diffusion (DT-IR1V) et IRM par spectre de diffusion (DSIRM). Grâce à la DT-IRM hautement sophistiquée, nous avons pu effectuer une étude de follow-up à long terme chez des souris ayant subi une ischémie cérébrale transitoire, qui a mis en évidence que les changements microstructurels dans l'infarctus ainsi que la modification des voies anatomiques sont corrélés à la récupération fonctionnelle. De plus, nous avons observé une réorganisation axonale dans des aires où l'on détecte une augmentation d'expression d'une protéine de plasticité exprimée dans le cône de croissance des axones (GAP-43). En appliquant la même technique, nous avons également effectué deux études, rétrospective et prospective, qui ont montré comment des paramètres obtenus avec DT-IRM peuvent monitorer la rapidité de récupération et mettre en évidence un changement structurel dans les voies impliquées dans les manifestations cliniques. Dans la dernière partie de ce travail, nous avons décrit la manière dont la DS-IRM peut être appliquée dans le domaine expérimental et clinique pour étudier la plasticité cérébrale après ischémie. Abstract Ischemic stroke is the third leading cause of death in developed countries and the disease responsible for the most serious long-term neurological disability. Understanding molecular and anatomical basis of stroke recovery is, therefore, extremely important and represents a major field of interest for basic and clinical research. Over the past 2 decades, much attention has focused on counteracting noxious effect of the ischemic insult with exogenous substances (oxygen radical scavengers, AMPA and NMDA receptor antagonists, MMP inhibitors etc) which were successfully tested in the experimental field -but which turned out to have controversial effects in clinical trials. A different but complementary approach to address ischemia pathophysiology and treatment options is to stimulate and investigate intrinsic mechanisms of neuroprotection using the "preconditioning effect": applying a brief insult protects against subsequent prolonged and detrimental ischemic episodes, by up-regulating powerful endogenous pathways that increase resistance to injury. We believe that this approach might offer an important insight into the molecular mechanisms responsible for endogenous neuroprotection. In addition, results from preconditioning model experiment may provide new strategies for making brain cells "naturally" more resistant to ischemic injury and accelerate their rate of functional recovery. In the first part of this work, we investigated down-stream mechanisms of neuroprotection induced by thrombin, a well known neuroprotectant which has been demonstrated to reduce stroke-induced cell death in vitro and in vivo experimental models. Using microsurgery to induce transient brain ischemia in mice, we showed that thrombin can stimulate both MAPK and JNK intracellular pathways through a molecular biology approach and an in vivo analysis of a specific kinase inhibitor (L JNK1). We also studied thrombin's impact on functional recovery demonstrating that these molecular mechanisms could enhance post-stroke motor outcome. The second part of this study is based on investigating the anatomical basis underlying connectivity remodeling, leading to functional improvement after stroke. To do this, we used both a mouse model of experimental ischemia and human subjects with stroke. It is known from previous data published in literature, that the brain adapts to damage in a way that attempts to preserve motor function. The result of this reorganization is a new functional and structural architecture, which will vary from patient to patient depending on the anatomy of the damage, the biological age of the patient and the chronicity of the lesion. The success of any given therapeutic intervention will depend on how well it interacts with this new architecture. For this reason, we applied diffusion magnetic resonance techniques able to detect micro-structural and connectivity changes following an ischemic lesion: diffusion tensor MRI (DT-MRI) and diffusion spectrum MRI (DS-MRI). Using DT-MRI, we performed along-term follow up study of stroke mice which showed how diffusion changes in the stroke region and fiber tract remodeling is correlating with stroke recovery. In addition, axonal reorganization is shown in areas of increased plasticity related protein expression (GAP 43, growth axonal cone related protein). Applying the same technique, we then performed a retrospective and a prospective study in humans demonstrating how specific DTI parameters could help to monitor the speed of recovery and show longitudinal changes in damaged tracts involved in clinical symptoms. Finally, in the last part of this study we showed how DS-MRI could be applied both to experimental and human stroke and which perspectives it can open to further investigate post stroke plasticity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gouvernance de l'Internet est une thématique récente dans la politique mondiale. Néanmoins, elle est devenue au fil des années un enjeu économique et politique important. La question a même pris une importance particulière au cours des derniers mois en devenant un sujet d'actualité récurrent. Forte de ce constat, c ette recherche retrace l'histoire de la gouvernance de l'Internet depuis son émergence comme enjeu politique dans les années 1980 jusqu'à la fin du Sommet Mondial sur la Société de l'Information (SMSI) en 2005. Plutôt que de se focaliser sur l'une ou l'autre des institutions impliquées dans la régulation du réseau informatique mondial, cette recherche analyse l'émergence et l'évolution historique d'un espace de luttes rassemblant un nombre croissant d'acteurs différents. Cette évolution est décrite à travers le prisme de la relation dialectique entre élites et non-élites et de la lutte autour de la définition de la gouvernance de l'Internet. Cette thèse explore donc la question de comment les relations au sein des élites de la gouvernance de l'Internet et entre ces élites et les non-élites expliquent l'emergence, l'évolution et la structuration d'un champ relativement autonome de la politique mondiale centré sur la gouvernance de l'Internet. Contre les perspectives dominantes réaliste et libérales, cette recherche s'ancre dans une approche issue de la combinaison des traditions hétérodoxes en économie politique internationale et des apports de la sociologie politique internationale. Celle-ci s'articule autour des concepts de champ, d'élites et d'hégémonie. Le concept de champ, développé par Bourdieu inspire un nombre croissant d'études de la politique mondiale. Il permet à la fois une étude différenciée de la mondialisation et l'émergence d'espaces de lutte et de domination au niveau transnational. La sociologie des élites, elle, permet une approche pragmatique et centrée sur les acteurs des questions de pouvoir dans la mondialisation. Cette recherche utilise plus particulièrement le concept d'élite du pouvoir de Wright Mills pour étudier l'unification d'élites a priori différentes autour de projets communs. Enfin, cette étude reprend le concept néo-gramscien d'hégémonie afin d'étudier à la fois la stabilité relative du pouvoir d'une élite garantie par la dimension consensuelle de la domination, et les germes de changement contenus dans tout ordre international. A travers l'étude des documents produits au cours de la période étudiée et en s'appuyant sur la création de bases de données sur les réseaux d'acteurs, cette étude s'intéresse aux débats qui ont suivi la commercialisation du réseau au début des années 1990 et aux négociations lors du SMSI. La première période a abouti à la création de l'Internet Corporation for Assigned Names and Numbers (ICANN) en 1998. Cette création est le résultat de la recherche d'un consensus entre les discours dominants des années 1990. C'est également le fruit d'une coalition entre intérêts au sein d'une élite du pouvoir de la gouvernance de l'Internet. Cependant, cette institutionnalisation de l'Internet autour de l'ICANN excluait un certain nombre d'acteurs et de discours qui ont depuis tenté de renverser cet ordre. Le SMSI a été le cadre de la remise en cause du mode de gouvernance de l'Internet par les États exclus du système, des universitaires et certaines ONG et organisations internationales. C'est pourquoi le SMSI constitue la seconde période historique étudiée dans cette thèse. La confrontation lors du SMSI a donné lieu à une reconfiguration de l'élite du pouvoir de la gouvernance de l'Internet ainsi qu'à une redéfinition des frontières du champ. Un nouveau projet hégémonique a vu le jour autour d'éléments discursifs tels que le multipartenariat et autour d'insitutions telles que le Forum sur la Gouvernance de l'Internet. Le succès relatif de ce projet a permis une stabilité insitutionnelle inédite depuis la fin du SMSI et une acceptation du discours des élites par un grand nombre d'acteurs du champ. Ce n'est que récemment que cet ordre a été remis en cause par les pouvoirs émergents dans la gouvernance de l'Internet. Cette thèse cherche à contribuer au débat scientifique sur trois plans. Sur le plan théorique, elle contribue à l'essor d'un dialogue entre approches d'économie politique mondiale et de sociologie politique internationale afin d'étudier à la fois les dynamiques structurelles liées au processus de mondialisation et les pratiques localisées des acteurs dans un domaine précis. Elle insiste notamment sur l'apport de les notions de champ et d'élite du pouvoir et sur leur compatibilité avec les anlayses néo-gramsciennes de l'hégémonie. Sur le plan méthodologique, ce dialogue se traduit par une utilisation de méthodes sociologiques telles que l'anlyse de réseaux d'acteurs et de déclarations pour compléter l'analyse qualitative de documents. Enfin, sur le plan empirique, cette recherche offre une perspective originale sur la gouvernance de l'Internet en insistant sur sa dimension historique, en démontrant la fragilité du concept de gouvernance multipartenaire (multistakeholder) et en se focalisant sur les rapports de pouvoir et les liens entre gouvernance de l'Internet et mondialisation. - Internet governance is a recent issue in global politics. However, it gradually became a major political and economic issue. It recently became even more important and now appears regularly in the news. Against this background, this research outlines the history of Internet governance from its emergence as a political issue in the 1980s to the end of the World Summit on the Information Society (WSIS) in 2005. Rather than focusing on one or the other institution involved in Internet governance, this research analyses the emergence and historical evolution of a space of struggle affecting a growing number of different actors. This evolution is described through the analysis of the dialectical relation between elites and non-elites and through the struggle around the definition of Internet governance. The thesis explores the question of how the relations among the elites of Internet governance and between these elites and non-elites explain the emergence, the evolution, and the structuration of a relatively autonomous field of world politics centred around Internet governance. Against dominant realist and liberal perspectives, this research draws upon a cross-fertilisation of heterodox international political economy and international political sociology. This approach focuses on concepts such as field, elites and hegemony. The concept of field, as developed by Bourdieu, is increasingly used in International Relations to build a differentiated analysis of globalisation and to describe the emergence of transnational spaces of struggle and domination. Elite sociology allows for a pragmatic actor-centred analysis of the issue of power in the globalisation process. This research particularly draws on Wright Mill's concept of power elite in order to explore the unification of different elites around shared projects. Finally, this thesis uses the Neo-Gramscian concept of hegemony in order to study both the consensual dimension of domination and the prospect of change contained in any international order. Through the analysis of the documents produced within the analysed period, and through the creation of databases of networks of actors, this research focuses on the debates that followed the commercialisation of the Internet throughout the 1990s and during the WSIS. The first time period led to the creation of the Internet Corporation for Assigned Names and Numbers (ICANN) in 1998. This creation resulted from the consensus-building between the dominant discourses of the time. It also resulted from the coalition of interests among an emerging power elite. However, this institutionalisation of Internet governance around the ICANN excluded a number of actors and discourses that resisted this mode of governance. The WSIS became the institutional framework within which the governance system was questioned by some excluded states, scholars, NGOs and intergovernmental organisations. The confrontation between the power elite and counter-elites during the WSIS triggered a reconfiguration of the power elite as well as a re-definition of the boundaries of the field. A new hegemonic project emerged around discursive elements such as the idea of multistakeholderism and institutional elements such as the Internet Governance Forum. The relative success of the hegemonic project allowed for a certain stability within the field and an acceptance by most non-elites of the new order. It is only recently that this order began to be questioned by the emerging powers of Internet governance. This research provides three main contributions to the scientific debate. On the theoretical level, it contributes to the emergence of a dialogue between International Political Economy and International Political Sociology perspectives in order to analyse both the structural trends of the globalisation process and the located practices of actors in a given issue-area. It notably stresses the contribution of concepts such as field and power elite and their compatibility with a Neo-Gramscian framework to analyse hegemony. On the methodological level, this perspective relies on the use of mixed methods, combining qualitative content analysis with social network analysis of actors and statements. Finally, on the empirical level, this research provides an original perspective on Internet governance. It stresses the historical dimension of current Internet governance arrangements. It also criticise the notion of multistakeholde ism and focuses instead on the power dynamics and the relation between Internet governance and globalisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'introduction des technologies de séquençage de nouvelle génération est en vue de révolutionner la médecine moderne. L'impact de ces nouveaux outils a déjà contribué à la découverte de nouveaux gènes et de voies cellulaires impliqués dans la pathologie de maladies génétiques rares ou communes. En revanche, l'énorme quantité de données générées par ces systèmes ainsi que la complexité des analyses bioinformatiques nécessaires, engendre un goulet d'étranglement pour résoudre les cas les plus difficiles. L'objectif de cette thèse a été d'identifier les causes génétiques de deux maladies héréditaires utilisant ces nouvelles techniques de séquençage, couplées à des technologies d'enrichissement de gènes. Dans ce cadre, nous avons développé notre propre méthode de travail (pipeline) pour l'alignement des fragments de séquence (reads). Suite à l'identification de gènes, nous avons réalisé une analyse fonctionnelle pour élucider leur rôle dans la maladie. Dans un premier temps, nous avons étudié et identifié des mutations impliquées dans une forme récessive de la rétinite pigmentaire qui est à ce jour la dégénérescence rétinienne héréditaire la plus fréquente. En particulier, nous avons constaté que des mutations faux-sens dans le gène FAM161A étaient la cause de la rétinite pigmentaire préalablement associé avec le locus RP28. De plus, nous avons démontré que ce gène avait des fonctions au niveau du cil du photorécepteur, complétant le large spectre des cilliopathies rétiniennes héréditaires. Dans un second temps, nous avons exploré la possibilité qu'un syndrome, relativement fréquent en pédiatrie de fièvre récurrente, appelé PFAPA (acronyme de fièvre périodique avec adénite stomatite, pharyngite et cervical aphteuse) puisse avoir une origine génétique. L'étiologie de cette maladie n'étant pas claire, nous avons tenté d'identifier le spectre génétique de patients PFAPA. Comme nous n'avons pas pu mettre à jour un nouveau gène unique muté et responsable de la maladie chez tous les individus dépistés, il semblerait qu'un modèle génétique plus complexe suggérant l'implication de plusieurs gènes dans la pathologie ait été identifié chez les patients touchés. Ces gènes seraient notamment impliqués dans des processus liés à l'inflammation ce qui élargirait l'impact de ces études à d'autres maladies auto-inflammatoires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort. Auguste Detoeuf Propos d'O.L. Brenton, confiseur, Editions du Tambourinaire, 1948. En choisissant volontairement une problématique comptable typiquement empirique, ce travail s'est attelé à tenter de démontrer la possibilité de produire des enseignements purement comptables (ie à l'intérieur du schème de représentation de la Comptabilité) en s'interdisant l'emprunt systématique de theories clé-en-main à l'Économie -sauf quant cela s'avère réellement nécessaire et légitime, comme dans l'utilisation du CAPM au chapitre précédent. Encore une fois, rappelons que cette thèse n'est pas un réquisitoire contre l'approche économique en tant que telle, mais un plaidoyer visant à mitiger une telle approche en Comptabilité. En relation avec le positionnement épistémologique effectué au premier chapitre, il a été cherché à mettre en valeur l'apport et la place de la Comptabilité dans l'Économie par le positionnement de la Comptabilité en tant que discipline pourvoyeuse de mesures de représentation de l'activité économique. Il nous paraît clair que si l'activité économique, en tant que sémiosphère comptable directe, dicte les observations comptables, la mesure de ces dernières doit, tant que faire se peut, tenter de s'affranchir de toute dépendance à la discipline économique et aux théories-méthodes qui lui sont liées, en adoptant un mode opératoire orthogonal, rationnel et systématique dans le cadre d'axiomes lui appartenant en propre. Cette prise de position entraîne la définition d'un nouveau cadre épistémologique par rapport à l'approche positive de la Comptabilité. Cette dernière peut se décrire comme l'expression philosophique de l'investissement de la recherche comptable par une réflexion méthodique propre à la recherche économique. Afin d'être au moins partiellement validé, ce nouveau cadre -que nous voyons dérivé du constructivisme -devrait faire montre de sa capacité à traiter de manière satisfaisante une problématique classique de comptabilité empirico-positive. Cette problématique spécifique a été choisie sous la forme de traitement-validation du principe de continuité de l'exploitation. Le principe de continuité de l'exploitation postule (énonciation d'une hypothèse) et établit (vérification de l'hypothèse) que l'entreprise produit ses états financiers dans la perspective d'une poursuite normale de ses activités. Il y a rupture du principe de continuité de l'exploitation (qui devra alors être écartée au profit du principe de liquidation ou de cession) dans le cas de cessation d'activité, totale ou partielle, volontaire ou involontaire, ou la constatation de faits de nature à compromettre la continuité de l'exploitation. Ces faits concernent la situation financière, économique et sociale de l'entreprise et représentent l'ensemble des événements objectifs 33, survenus ou pouvant survenir, susceptibles d'affecter la poursuite de l'activité dans un avenir prévisible. A l'instar de tous les principes comptables, le principe de continuité de l'exploitation procède d'une considération purement théorique. Sa vérification requiert toutefois une analyse concrète, portant réellement et de manière mesurable à conséquence, raison pour laquelle il représente un thème de recherche fort apprécié en comptabilité positive, tant il peut (faussement) se confondre avec les études relatives à la banqueroute et la faillite des entreprises. Dans la pratique, certaines de ces études, basées sur des analyses multivariées discriminantes (VIDA), sont devenues pour l'auditeur de véritables outils de travail de par leur simplicité d'utilisation et d'interprétation. À travers la problématique de ce travail de thèse, il a été tenté de s'acquitter de nombreux objectifs pouvant être regroupés en deux ensembles : celui des objectifs liés à la démarche méthodologique et celui relevant de la mesure-calibration. Ces deux groupes-objectifs ont permis dans une dernière étape la construction d'un modèle se voulant une conséquence logique des choix et hypothèses retenus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: La qualité de l'implantation d'une prothèse totale du genou est un facteur essentiel déterminant le résultat clinique à long terme. L'alignement postopératoire des membres inférieurs est considéré comme le facteur influençant le plus la survie à long terme d'une arthroplastie du genou. Au vu du haut degré de corrélation entre les complications post-opératoires et les malpositionnements prothétiques, les chirurgiens ont tenté de développer durant ces deux dernières décennies des instruments chirurgicaux améliorant la précision d'implantation. Depuis le début des années 90, de nouvelles instrumentations assistées par ordinateur ont été proposées. Actuellement, en chirurgie prothétique du genou, la plus utilisée de ces techniques est le système de navigation OrthoPilot® qui permet, grâce à une station de navigation et des émetteurs infrarouges, de contrôler en continu pendant l'opération, l'axe mécanique du membre inférieur et de vérifier la précision des coupes osseuses. Le but de cette étude de cohorte appareillée rétrospective est de comparer les résultats clinique et radiologiques de deux collectifs de patients (32 patients dans chaque groupe) comparables (âge, sexe, BMI, degré d'arthrose, recul postopératoire), opérés avec le même type de prothèse (prothèse à glissement tricompartimental postérieurement stabilisée), soit avec le système de navigation Orthopilot®, soit à l'aide de l'instrumentation ancillaire mécanique classique. Les résultats obtenus montrent que la technique chirurgicale supportée par le système de navigation Orthopilot® est fiable et aisément reproductible. Par rapport à l'instrumentation manuelle, l'instrumentation assistée améliore significativement la précision de pose du composant tibial dans le plan frontal. Cependant entre des mains expérimentées, la technique d'alignement mécanique classique, plus simple, reste performante (coût modique, temps opératoire plus court et sans risque de défaillance technique).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis le séminaire H. Cartan de 1954-55, il est bien connu que l'on peut trouver des éléments de torsion arbitrairement grande dans l'homologie entière des espaces d'Eilenberg-MacLane K(G,n) où G est un groupe abélien non trivial et n>1. L'objectif majeur de ce travail est d'étendre ce résultat à des H-espaces possédant plus d'un groupe d'homotopie non trivial. Dans le but de contrôler précisément le résultat de H. Cartan, on commence par étudier la dualité entre l'homologie et la cohomologie des espaces d'Eilenberg-MacLane 2-locaux de type fini. On parvient ainsi à raffiner quelques résultats qui découlent des calculs de H. Cartan. Le résultat principal de ce travail peut être formulé comme suit. Soit X un H-espace ne possédant que deux groupes d'homotopie non triviaux, tous deux finis et de 2-torsion. Alors X n'admet pas d'exposant pour son groupe gradué d'homologie entière réduite. On construit une large classe d'espaces pour laquelle ce résultat n'est qu'une conséquence d'une caractéristique topologique, à savoir l'existence d'un rétract faible X K(G,n) pour un certain groupe abélien G et n>1. On généralise également notre résultat principal à des espaces plus compliqués en utilisant la suite spectrale d'Eilenberg-Moore ainsi que des méthodes analytiques faisant apparaître les nombres de Betti et leur comportement asymptotique. Finalement, on conjecture que les espaces qui ne possédent qu'un nombre fini de groupes d'homotopie non triviaux n'admettent pas d'exposant homologique. Ce travail contient par ailleurs la présentation de la « machine d'Eilenberg-MacLane », un programme C++ conçu pour calculer explicitement les groupes d'homologie entière des espaces d'Eilenberg-MacLane. <br/><br/>By the work of H. Cartan, it is well known that one can find elements of arbitrarilly high torsion in the integral (co)homology groups of an Eilenberg-MacLane space K(G,n), where G is a non-trivial abelian group and n>1. The main goal of this work is to extend this result to H-spaces having more than one non-trivial homotopy groups. In order to have an accurate hold on H. Cartan's result, we start by studying the duality between homology and cohomology of 2-local Eilenberg-MacLane spaces of finite type. This leads us to some improvements of H. Cartan's methods in this particular case. Our main result can be stated as follows. Let X be an H-space with two non-vanishing finite 2-torsion homotopy groups. Then X does not admit any exponent for its reduced integral graded (co)homology group. We construct a wide class of examples for which this result is a simple consequence of a topological feature, namely the existence of a weak retract X K(G,n) for some abelian group G and n>1. We also generalize our main result to more complicated stable two stage Postnikov systems, using the Eilenberg-Moore spectral sequence and analytic methods involving Betti numbers and their asymptotic behaviour. Finally, we investigate some guesses on the non-existence of homology exponents for finite Postnikov towers. We conjecture that Postnikov pieces do not admit any (co)homology exponent. This work also includes the presentation of the "Eilenberg-MacLane machine", a C++ program designed to compute explicitely all integral homology groups of Eilenberg-MacLane spaces. <br/><br/>Il est toujours difficile pour un mathématicien de parler de son travail. La difficulté réside dans le fait que les objets qu'il étudie sont abstraits. On rencontre assez rarement un espace vectoriel, une catégorie abélienne ou une transformée de Laplace au coin de la rue ! Cependant, même si les objets mathématiques sont difficiles à cerner pour un non-mathématicien, les méthodes pour les étudier sont essentiellement les mêmes que celles utilisées dans les autres disciplines scientifiques. On décortique les objets complexes en composantes plus simples à étudier. On dresse la liste des propriétés des objets mathématiques, puis on les classe en formant des familles d'objets partageant un caractère commun. On cherche des façons différentes, mais équivalentes, de formuler un problème. Etc. Mon travail concerne le domaine mathématique de la topologie algébrique. Le but ultime de cette discipline est de parvenir à classifier tous les espaces topologiques en faisant usage de l'algèbre. Cette activité est comparable à celle d'un ornithologue (topologue) qui étudierait les oiseaux (les espaces topologiques) par exemple à l'aide de jumelles (l'algèbre). S'il voit un oiseau de petite taille, arboricole, chanteur et bâtisseur de nids, pourvu de pattes à quatre doigts, dont trois en avant et un, muni d'une forte griffe, en arrière, alors il en déduira à coup sûr que c'est un passereau. Il lui restera encore à déterminer si c'est un moineau, un merle ou un rossignol. Considérons ci-dessous quelques exemples d'espaces topologiques: a) un cube creux, b) une sphère et c) un tore creux (c.-à-d. une chambre à air). a) b) c) Si toute personne normalement constituée perçoit ici trois figures différentes, le topologue, lui, n'en voit que deux ! De son point de vue, le cube et la sphère ne sont pas différents puisque ils sont homéomorphes: on peut transformer l'un en l'autre de façon continue (il suffirait de souffler dans le cube pour obtenir la sphère). Par contre, la sphère et le tore ne sont pas homéomorphes: triturez la sphère de toutes les façons (sans la déchirer), jamais vous n'obtiendrez le tore. Il existe un infinité d'espaces topologiques et, contrairement à ce que l'on serait naïvement tenté de croire, déterminer si deux d'entre eux sont homéomorphes est très difficile en général. Pour essayer de résoudre ce problème, les topologues ont eu l'idée de faire intervenir l'algèbre dans leurs raisonnements. Ce fut la naissance de la théorie de l'homotopie. Il s'agit, suivant une recette bien particulière, d'associer à tout espace topologique une infinité de ce que les algébristes appellent des groupes. Les groupes ainsi obtenus sont appelés groupes d'homotopie de l'espace topologique. Les mathématiciens ont commencé par montrer que deux espaces topologiques qui sont homéomorphes (par exemple le cube et la sphère) ont les même groupes d'homotopie. On parle alors d'invariants (les groupes d'homotopie sont bien invariants relativement à des espaces topologiques qui sont homéomorphes). Par conséquent, deux espaces topologiques qui n'ont pas les mêmes groupes d'homotopie ne peuvent en aucun cas être homéomorphes. C'est là un excellent moyen de classer les espaces topologiques (pensez à l'ornithologue qui observe les pattes des oiseaux pour déterminer s'il a affaire à un passereau ou non). Mon travail porte sur les espaces topologiques qui n'ont qu'un nombre fini de groupes d'homotopie non nuls. De tels espaces sont appelés des tours de Postnikov finies. On y étudie leurs groupes de cohomologie entière, une autre famille d'invariants, à l'instar des groupes d'homotopie. On mesure d'une certaine manière la taille d'un groupe de cohomologie à l'aide de la notion d'exposant; ainsi, un groupe de cohomologie possédant un exposant est relativement petit. L'un des résultats principaux de ce travail porte sur une étude de la taille des groupes de cohomologie des tours de Postnikov finies. Il s'agit du théorème suivant: un H-espace topologique 1-connexe 2-local et de type fini qui ne possède qu'un ou deux groupes d'homotopie non nuls n'a pas d'exposant pour son groupe gradué de cohomologie entière réduite. S'il fallait interpréter qualitativement ce résultat, on pourrait dire que plus un espace est petit du point de vue de la cohomologie (c.-à-d. s'il possède un exposant cohomologique), plus il est intéressant du point de vue de l'homotopie (c.-à-d. il aura plus de deux groupes d'homotopie non nuls). Il ressort de mon travail que de tels espaces sont très intéressants dans le sens où ils peuvent avoir une infinité de groupes d'homotopie non nuls. Jean-Pierre Serre, médaillé Fields en 1954, a montré que toutes les sphères de dimension >1 ont une infinité de groupes d'homotopie non nuls. Des espaces avec un exposant cohomologique aux sphères, il n'y a qu'un pas à franchir...