961 resultados para Calculs DFT
Resumo:
Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.
Resumo:
Polychlorinated trityl radicals bearing carboxylate substituents are water soluble persistent radicals that can be used for dynamic nuclear polarization. In contrast to other trityl radicals, the polarization mechanism differs from the classical solid effect. DFT calculations performed to rationalize this behaviour support the hypothesis that polarization is transferred from the unpaired electron to chlorine nuclei and from these to carbon by spin diffusion. The marked differences observed between neutral and anionic forms of the radical will be discussed.
Resumo:
Dans les pays en développement, où les territoires présentent de multiples facteurs de vulnérabilité et où l'exposition à des dangers divers et nombreux sont des phénomènes quotidiens, la mise en place de mesures visant à contrebalancer ces phénomènes devient un enjeu difficile à réaliser. Dans cette perspective, il s'agit d'étudier, à travers les pratiques des acteurs, quels sont les éléments qui permettent de définir les risques et les actions à entreprendre. Les acteurs doivent négocier ou même imposer la légitimité de leurs vulnérabilités dans un jeu de négociations, d'arbitrages et de conflits. Le cas d'étude à San Cristóbal, Guatemala, permet d'analyser les différentes solutions proposées sous l'angle des vulnérabilités en jeu. Nous montrons que la prise en compte des vulnérabilités influence la lecture de l'équation du risque des acteurs concernés et conditionne le champ des solutions possibles. Les résultats de cette recherche indiquent que le risque n'est pas univoque mais qu'il est le résultat d'un choix et des calculs faits par les acteurs. Pour cette raison, les mesures à entreprendre dépendent des compromis élaborés entre les acteurs.
Resumo:
Introduction : Le traitement des entorses acromio-claviculaires (AC) est aujourd'hui encore controversé. Les luxations AC avec lésion du fascia delto-trapézoidale (grade IV, V et VI) sont généralement traitées par une chirurgie de stabilisation. A l'inverse les entorses sans luxation de la clavicule (grade I et II) sont traitées conservativement avec de bons résultats. Il reste une interrogation concernant le traitement des luxations AC sans lésion du fascia delto-trapézoidale (grade III). Le but de notre étude est d'évaluer les résultats du traitement chirurgical des entorses AC de grade III selon un score cinématique. Matériel et Méthode : 30 patients avec une entorse AC de grade III ont été opérés d'une stabilisation de la clavicule entre 2003 et 2011 par le service d'Orthopédie et traumatologie du CHUV. Tous ont été cliniquement évalués selon le score de Constant. L'évaluation cinématique a été effectuée à l'aide d'un iPod touch, fixé sur l'humérus. Cet outil de mesure, décrit et validé par l'EPFL, prend en considération l'accélération et la vitesse angulaire du membre supérieur pour 7 différents mouvements des deux bras. L'évaluation cinématique a été effectuée en comparant le côté opéré par rapport au côté sain selon 2 scores (RAV et P) provenant de ces variables. Les scores RAV et P sont calculés par l'application installée sur l'iPod touch, ils sont donnés en pourcentage par rapport à l'épaule saine. Nous avons défini un score de Constant relatif de plus de 60 et un score cinématique de plus de 75% comme satisfaisant. Résultats : Nous avons revus dix patients avec un recul moyen de 36 mois (6 à 72 mois) d'un âge moyen de 42 ans (27 à 62 ans). Le score de Constant moyen est de 75.9 ± 21.7. Le score P moyen est de 89.3% ± 23.4 et le score RAV moyen est de 91.8% ± 15.8 (tab.1). Quatre sujets obtiennent un excellent score de Constant pour le bras opéré, 2 sujets obtiennent un bon score et un sujet obtient un score moyen, tandis que 3 sujets obtiennent un mauvais score. Huit patients obtiennent un score cinématique satisfaisant alors que nous observons 2 résultats non satisfaisants. Les mauvais résultats tant cliniques que cinématiques ont été observés chez des patients travailleurs de force, nécessitant d'effectuer des mouvements de l'épaule au-dessus du niveau du buste. Discussion et Conclusion : Sur la base d'une évaluation clinique et cinématique, le traitement chirugical des entorses AC de grade III donne des résultats satisfaisants. Notre étude ne comportant pas de groupe contrôle et notre série étant non homogène, avec un nombre limité de sujet, nous ne pouvons conclure que le traitement chirurgical est le traitement le mieux adapté aux patients avec une entorse acromio-claviculaires de type III. Nous recommandons toutefois un traitement chirugical chez les patients actifs, et les patients exerçant un métier avec nécessité de mobilisation de l'épaule au dessus du buste. Un travail manuel lourd représente un facteur de mauvais pronostic.
Resumo:
3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.
Resumo:
Additions of lactams, imides, (S)-4-benzyl-1,3-oxazolidin-2-one, 2-pyridone, pyrimidine-2,4-diones (AZT derivatives), or inosines to the electron-deficient triple bonds of methyl propynoate, tert-butyl propynoate, 3-butyn-2-one, N-propynoylmorpholine, or N-methoxy-N-methylpropynamide in the presence of many potential catalysts were examined. DABCO and, second, DMAP appeared to be the best (highest reaction rates and E/Z ratios), while RuCl3, RuClCp*(PPh3)2, AuCl, AuCl(PPh3), CuI, and Cu2(OTf)2 were incapable of catalyzing such additions. The groups incorporated (for example, the 2-(methoxycarbonyl)ethenyl group that we name MocVinyl) serve as protecting groups for the above-mentioned heterocyclic CONH or CONHCO moieties. Deprotections were accomplished via exchange with good nucleophiles: the 1-dodecanethiolate anion turned out to be the most general and efficient reagent, but in some particular cases other nucleophiles also worked (e.g., MocVinyl-inosines can be cleaved with succinimide anion). Some structural and mechanistic details have been accounted for with the help of DFT and MP2 calculations.
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
Le maintien d'une concentration sanguine constante de calcium est d'une importance cruciale et trois organes participent à la balance calcique normale : les reins, les intestins et les os. La concentration plasmatique de calcium est strictement régulée par l'hormone parathyroïdienne (PTH) et par la vitamine D. Des variations circadiennes de la PTH, de la vitamine D ainsi que du calcium plasmatique ont été décrites précédemment chez l'humain ainsi que chez le rat. Ces rythmes de PTH dans le sérum sont importants pour la régulation du remodelage de l'os. En effet, il a été montré chez les souris C57BL/6J que des injections de PTH une fois par jour mènent à une augmentation de la densité minérale de l'os alors que l'infusion en continu de PTH est associée à une diminution de cette densité. La vitamine D joue également un rôle fondamental dans la physiologie osseuse, car un déficit en vitamine D peut conduire à une ostéomalacie. Cependant la fonction des oscillations de vitamine D au niveau de l'homéostasie osseuse reste inconnue. L'horloge circadienne est un système interne de contrôle biologique du temps générant des rythmes de 24 heures dans l'expression des gènes, ainsi que dans la physiologie et le comportement. Ce contrôle s'opère par des boucles rétroactives positives et négatives de l'expression de gènes circadiens tels que CLOCK, BMAL1, CRY1 et 2 ou PERI et 2. Dans ce travail, nous avons émis l'hypothèse que l'homéostasie calcique est sous le contrôle de l'horloge circadienne. Dans un premier temps, nous avons montré chez les souris C57BL/6J des variations journalières des concentrations de calcium, de PTH et de vitamine D dans le sang, ainsi que de calcium dans les urines. Nous avons également démontré des changements au niveau de l'expression rénale des gènes importants dans l'homéostasie du calcium, tant au niveau de l'ARN messager que des protéines. Ensuite, pour analyser le rôle du système de l'horloge circadienne dans l'homéostasie du calcium, nous avons étudié des souris dans lesquelles a été supprimé le gène CLOCK crucial pour la fonction de l'horloge et nous avons comparé ces souris à des souris de type sauvage de même portée. Les souris CLOCK-I- étaient hypercalciuriques à chaque moment de la journée. Cependant le rythme circadien de l'excrétion de calcium était préservé. Le taux de calcium plasmatique ne différait pas entre les génotypes, mais les souris CLOCK -/- ne montraient pas de variations journalières de ce paramètre. Une perte du rythme journalier était également observée pour les niveaux de vitamine D, perte qui pourrait être une cause de l'altération de la micro-architecture osseuse révélée chez les souris CLOCK-/-. En effet, ces souris montrent une diminution du nombre de trabécules, de leur volume ainsi que de leur surface, ce qui suggère la présence d'ostéoporose. Nous avons également trouvé que le rythme de l'expression de l'ARN messager de CYP27B1 était aboli dans les reins des souris CLOCK -/-, ce qui peut expliquer l'altération du rythme de la vitamine D. Les taux sanguins de PTH étaient comparables entre les souris CLOCK -/- et de type sauvage. Dans les reins, une augmentation de l'expression de l'ARN messager de TRPV5 et NCX1 a été constatée, ce qui suggérerait une augmentation de la réabsorption de calcium dans le tubule convoluté distal et dans le tubule connecteur. Dans les intestins, la réabsorption calcique était diminuée, chez les souris CLOCK-I-, fait confirmé par une diminution des niveaux d'ARN messager de TRPV6 et PMCAL. En résumé, la suppression du gène CLOCK chez les souris a conduit à une hypercalciurie, une altération du rythme des taux plasmatiques de calcium et de vitamine D et à une détérioration de l'architecture osseuse. Pour conclure, ces résultats montrent que l'horloge circadienne est essentielle à l'homéostasie calcique ainsi qu'à la physiologie des os. - L'ostéoporose affecte environ 22 millions de femmes et 5.5 millions d'hommes en Europe, réduisant significativement leur qualité de vie et a causé 3.5 millions de nouvelles fractures en 2010. Les dépenses totales liées à ces fractures ont atteint 37 milliards d'euro et ce coût devrait augmenter de 25% d'ici à 2025. Le nombre de nouvelles fractures dues à l'ostéoporose à travers le monde est estimé à environ 1000 par heure. Parmi les causes de l'ostéoporose, le déficit én calcium et/ou en vitamine D joue un rôle important, mais il existe également des causes génétiques ou liées à des facteurs comme les hormones sexuelles (estrogènes, testostérone), l'âge, le tabac, le poids corporel, certains médicaments,... La vie est rythmique : ceci est dû à l'alternance naturelle du jour et de la nuit et de ses effets sur le corps. La prise alimentaire, par exemple, est un processus qui a lieu pendant la phase active, qui est prévisible (il se produit toujours au même moment) et qui peut être anticipé par le corps. Pour cela, une horloge interne est présente dans chaque cellule du corps et est synchronisée par la lumière du jour, entre autres stimuli. Cette horloge indique la phase du jour et régule l'expression de gènes impliqués dans les différents processus qui nécessitent une anticipation. Pendant mon travail de thèse, je me suis demandé si des îythmes circadiens (c'est-à-dire d'une durée d'environ 24 heures et indépendants des stimuli externes) étaient observables'pour les gènes régulant les flux de calcium dans le corps et si l'interruption de ces rythmes pouvait mener à des altérations de la qualité de l'os. J'ai d'abord travaillé avec des souris normales et j'ai pu montrer la présence de rythmes au niveau du calcium sanguin et urinaire, mais également au niveau des hormones et gènes qui contrôlent le métabolisme du calcium dans le corps, comme la vitamine D et l'hormone parathyroidienne. De manière intéressante, j'ai observé que la plupart de ces gènes ont un rythme synchronisé. J'ai ensuite utilisé un modèle de souris dans lequel l'horloge interne a été génétiquement invalidée et j'ai montré que ces souris présentent une augmentation de leur excrétion urinaire de calcium et un rythme circadien altéré de la vitamine D dans le sang. Ces souris absorbent aussi moins bien le calcium intestinal et présentent une ostéoporose marquée. Ce travail montre donc que l'horloge interne est nécessaire pour établir un rythme circadiens de certains facteurs influant les flux de calcium dans l'organisme, comme la vitamine D, et que la perturbation de ces rythmes mène à une dérégulation du métabolisme osseux. Ainsi, la perturbation de l'horloge interne peut causer une ostéoporose et une hypercalciurie qui pourraient aboutir à la formation de fractures et de calculs rénaux. L'extrapolation de ces observations chez l'homme ou à des changements plus subtiles des rythmes circadiens, comme le décalage horaire, restent à montrer. Cette recherche a démontré que les rythmes circadiens des mécanismes de régulation des flux de calcium dans l'organisme sont essentiels au maintien d'un squelette normal et suggère que les perturbations des rythmes circadiens pourraient être une nouvelle cause de l'ostéoporose. - Maintaining constant calcium concentration in the plasma is of a crucial importance and three organs participate in normal calcium balance - kidney, gut and bone. Plasma calcium concentration is strictly regulated by parathyroid hormone (PTH) and vitamin D. Circadian variations of PTH, vitamin D and plasma calcium were previously described in humans, as well as in rats. Rhythms in serum PTH are important for balanced bone remodelling. Indeed in C57BL/6J mice, PTH injection once per day leads to an increase in bone mineral density (BMD), whilst continuous infusion is associated with decreased BMD. Vitamin D also plays a crucial role in bone physiology, since the deficiency in vitamin D can lead to rickets/osteomalacia. However, the role of vitamin D rhythms in bone homeostasis remains unknown. The circadian clock is an. internal time-keeping system generating rhythms in gene expression with 24h periodicity, in physiology and in behaviour. It is operated by positive- and negative-feedback loops of circadian genes, such as CLOCK, BMAL1, CRY1 and 2 or PERI and 2. In this work, we hypothesized, that calcium homeostasis is under the control of the circadian clock. First, we showed daily variations in urinary calcium and serum calcium, PTH and l,25(OH)2 vitamin D, together with renal mRNA and protein levels of genes involved in calcium homeostasis in C57BL/6J mice. Second, and to investigate the role of the circadian clock system in calcium handling, we studied mice lacking the gene CLOCK crucial for fonction of the clock system and compared them to the WT littermates. CLOCK-/- mice were hypercalciuric at all timepoints of the day. However, the circadian rhythm of calcium excretion was preserved. Serum calcium levels did not differ between the genotypes, but CLOCK-/- mice did not exhibit daily variation for this parameter. Loss of rhythm was observed also for serum l,25(OH)2 vitamin D levels, which may be one of the causes of altered bone microarchitecture that was revealed in CLOCK-/- mice. They displayed increased trabecular separation and decreased trabecular number, trabecular bone volume and trabecular bone surface, suggestive of osteoporosis. We found that the rhythm of the mRNA expression of CYP27B1 was abolished in the kidney of CLOCK-/- mice, which could induce the altered rhythm of l,25(OH)2 vitamin. Serum PTH levels were comparable between CLOCK-/- and WT mice. In the kidney, increased mRNA expression of TRPV5 and NCX1 suggests increased calcium reabsorption in the distal convoluted and connecting tubule. In the gut, intestinal calcium absorption was decreased in CLOCK¬/- mice, confirmed by decreased mRNA levels of TRPV6 and PMCA1. In summary, deletion of the CLOCK gene in mice conducts to hypercalciuria, alteration of the rhythm in serum calcium and l,25(OH)2D levels, and impainnent of their bone microarchitecture. In conclusion, these data show that the circadian clock system is essential in calcium homeostasis and bone physiology.
Resumo:
Many audio watermarking schemes divide the audio signal into several blocks such that part of the watermark is embedded into each of them. One of the key issues in these block-oriented watermarking schemes is to preserve the synchronisation, i.e. to recover the exact position of each block in the mark recovery process. In this paper, a novel time domain synchronisation technique is presented together with a new blind watermarking scheme which works in the Discrete Fourier Transform (DFT or FFT) domain. The combined scheme provides excellent imperceptibility results whilst achieving robustness against typical attacks. Furthermore, the execution of the scheme is fast enough to be used in real-time applications. The excellent transparency of the embedding algorithm makes it particularly useful for professional applications, such as the embedding of monitoring information in broadcast signals. The scheme is also compared with some recent results of the literature.
Resumo:
This work is devoted to the problem of reconstructing the basis weight structure at paper web with black{box techniques. The data that is analyzed comes from a real paper machine and is collected by an o®-line scanner. The principal mathematical tool used in this work is Autoregressive Moving Average (ARMA) modelling. When coupled with the Discrete Fourier Transform (DFT), it gives a very flexible and interesting tool for analyzing properties of the paper web. Both ARMA and DFT are independently used to represent the given signal in a simplified version of our algorithm, but the final goal is to combine the two together. Ljung-Box Q-statistic lack-of-fit test combined with the Root Mean Squared Error coefficient gives a tool to separate significant signals from noise.
Resumo:
Additions of lactams, imides, (S)-4-benzyl-1,3-oxazolidin-2-one, 2-pyridone, pyrimidine-2,4-diones (AZT derivatives), or inosines to the electron-deficient triple bonds of methyl propynoate, tert-butyl propynoate, 3-butyn-2-one, N-propynoylmorpholine, or N-methoxy-N-methylpropynamide in the presence of many potential catalysts were examined. DABCO and, second, DMAP appeared to be the best (highest reaction rates and E/Z ratios), while RuCl3, RuClCp*(PPh3)2, AuCl, AuCl(PPh3), CuI, and Cu2(OTf)2 were incapable of catalyzing such additions. The groups incorporated (for example, the 2-(methoxycarbonyl)ethenyl group that we name MocVinyl) serve as protecting groups for the above-mentioned heterocyclic CONH or CONHCO moieties. Deprotections were accomplished via exchange with good nucleophiles: the 1-dodecanethiolate anion turned out to be the most general and efficient reagent, but in some particular cases other nucleophiles also worked (e.g., MocVinyl-inosines can be cleaved with succinimide anion). Some structural and mechanistic details have been accounted for with the help of DFT and MP2 calculations.
Resumo:
Résumé : La radiothérapie par modulation d'intensité (IMRT) est une technique de traitement qui utilise des faisceaux dont la fluence de rayonnement est modulée. L'IMRT, largement utilisée dans les pays industrialisés, permet d'atteindre une meilleure homogénéité de la dose à l'intérieur du volume cible et de réduire la dose aux organes à risque. Une méthode usuelle pour réaliser pratiquement la modulation des faisceaux est de sommer de petits faisceaux (segments) qui ont la même incidence. Cette technique est appelée IMRT step-and-shoot. Dans le contexte clinique, il est nécessaire de vérifier les plans de traitement des patients avant la première irradiation. Cette question n'est toujours pas résolue de manière satisfaisante. En effet, un calcul indépendant des unités moniteur (représentatif de la pondération des chaque segment) ne peut pas être réalisé pour les traitements IMRT step-and-shoot, car les poids des segments ne sont pas connus à priori, mais calculés au moment de la planification inverse. Par ailleurs, la vérification des plans de traitement par comparaison avec des mesures prend du temps et ne restitue pas la géométrie exacte du traitement. Dans ce travail, une méthode indépendante de calcul des plans de traitement IMRT step-and-shoot est décrite. Cette méthode est basée sur le code Monte Carlo EGSnrc/BEAMnrc, dont la modélisation de la tête de l'accélérateur linéaire a été validée dans une large gamme de situations. Les segments d'un plan de traitement IMRT sont simulés individuellement dans la géométrie exacte du traitement. Ensuite, les distributions de dose sont converties en dose absorbée dans l'eau par unité moniteur. La dose totale du traitement dans chaque élément de volume du patient (voxel) peut être exprimée comme une équation matricielle linéaire des unités moniteur et de la dose par unité moniteur de chacun des faisceaux. La résolution de cette équation est effectuée par l'inversion d'une matrice à l'aide de l'algorithme dit Non-Negative Least Square fit (NNLS). L'ensemble des voxels contenus dans le volume patient ne pouvant être utilisés dans le calcul pour des raisons de limitations informatiques, plusieurs possibilités de sélection ont été testées. Le meilleur choix consiste à utiliser les voxels contenus dans le Volume Cible de Planification (PTV). La méthode proposée dans ce travail a été testée avec huit cas cliniques représentatifs des traitements habituels de radiothérapie. Les unités moniteur obtenues conduisent à des distributions de dose globale cliniquement équivalentes à celles issues du logiciel de planification des traitements. Ainsi, cette méthode indépendante de calcul des unités moniteur pour l'IMRT step-andshootest validée pour une utilisation clinique. Par analogie, il serait possible d'envisager d'appliquer une méthode similaire pour d'autres modalités de traitement comme par exemple la tomothérapie. Abstract : Intensity Modulated RadioTherapy (IMRT) is a treatment technique that uses modulated beam fluence. IMRT is now widespread in more advanced countries, due to its improvement of dose conformation around target volume, and its ability to lower doses to organs at risk in complex clinical cases. One way to carry out beam modulation is to sum smaller beams (beamlets) with the same incidence. This technique is called step-and-shoot IMRT. In a clinical context, it is necessary to verify treatment plans before the first irradiation. IMRT Plan verification is still an issue for this technique. Independent monitor unit calculation (representative of the weight of each beamlet) can indeed not be performed for IMRT step-and-shoot, because beamlet weights are not known a priori, but calculated by inverse planning. Besides, treatment plan verification by comparison with measured data is time consuming and performed in a simple geometry, usually in a cubic water phantom with all machine angles set to zero. In this work, an independent method for monitor unit calculation for step-and-shoot IMRT is described. This method is based on the Monte Carlo code EGSnrc/BEAMnrc. The Monte Carlo model of the head of the linear accelerator is validated by comparison of simulated and measured dose distributions in a large range of situations. The beamlets of an IMRT treatment plan are calculated individually by Monte Carlo, in the exact geometry of the treatment. Then, the dose distributions of the beamlets are converted in absorbed dose to water per monitor unit. The dose of the whole treatment in each volume element (voxel) can be expressed through a linear matrix equation of the monitor units and dose per monitor unit of every beamlets. This equation is solved by a Non-Negative Least Sqvare fif algorithm (NNLS). However, not every voxels inside the patient volume can be used in order to solve this equation, because of computer limitations. Several ways of voxel selection have been tested and the best choice consists in using voxels inside the Planning Target Volume (PTV). The method presented in this work was tested with eight clinical cases, which were representative of usual radiotherapy treatments. The monitor units obtained lead to clinically equivalent global dose distributions. Thus, this independent monitor unit calculation method for step-and-shoot IMRT is validated and can therefore be used in a clinical routine. It would be possible to consider applying a similar method for other treatment modalities, such as for instance tomotherapy or volumetric modulated arc therapy.
Resumo:
Résumé: Le complexe du Mont Collon (nappe de la Dent Blanche, Austroalpin) est l'un des exemples les mieux préservés du magmatisme mafique permien des Alpes occidentales. Il est composé d'affleurements discontinus et d'une stratification magmatique en son centre (Dents de Bertol) et est composé à 95% de roches mafiques cumulatives (gabbros à olivine et/ou cpx, anorthositiques, troctolites, wehrlites et wehrlites à plagioclase) et localement de quelques gabbros pegmatitiques. Ces faciès sont recoupés par de nombreux filons acides (aphtes, pegmatites quartziques, microgranodiorites et filons anorthositiques) et mafiques tardifs (dikes mélanocrates riches en Fe et Ti). Les calculs thermométriques (équilibre olivine-augite) montrent des températures de 1070-1120 ± 6°C, tandis que le thermomètre amphibole-plagioclase indique une température de 740 ± 40°C à 0.5 GPa pour les amphiboles magmatiques tardives. La geobarométrie sur pyroxène donne des pressions moyennes de 0.3-0.6 GPa, indiquant un emplacement dans la croûte moyenne. De plus, les températures obtenues sur des amphiboles coronitiques indiquent des températures de l'ordre de 700 ± 40°C confirmant que les réactions coronitiques apparaissent dans des conditions subsolidus. Les âges concordants U/Pb sur zircons de 284.2 ± 0.6 et 282.9 ± 0.6 Ma obtenus sur un gabbro pegmatitique et une pegmatitique quartzique, sont interprétés comme des âges de cristallisation. Les datations 40Ar/39Ar sur amphiboles des filons mélanocrates donnent un âge plateau de 260.2 ± 0.7 Ma, qui est probablement très proche de l'âge de cristallisation. Ainsi, cet age 40Ar/39Ar indique un second évènement magmatique au sein du complexe. Les compositions des roches totales en éléments majeurs et traces montrent peu de variations, ainsi que le Mg# (75-80). Les éléments traces enregistrent le caractère cumulatif des roches (anomalie positive en Eu) et révèlent des anomalies négatives systématiques en Nb, Ta, Zr, Hf et Ti dans les faciès basiques. Le manque de corrélation entre éléments majeurs et traces est caractéristique d'un processus de cristallisation in situ impliquant une quantité variable de liquide interstitiel (L) entre les phases cumulus. Les distributions des éléments traces dans les minéraux sont homogènes, indiquant une rééquilibration .subsolidus entre cristaux et liquide interstitiel. Un modèle quantitatif basé sur les équations de cristallisation in situ de Langmuir reproduisent correctement les concentrations en terres rares légères des minéraux cumulatifs montrant la présence de 0 à 35% de liquide interstitiel L pour des degrés de différenciation F de 0 à 45%, par rapport au faciès les moins évolués du complexe. En outre, les valeurs de L sont bien corrélées avec les proportions modales d'amphibole interstitielle et les concentrations en éléments incompatibles des roches (Zr, Nb). Le liquide parental calculé des cumulats du Mont Collon est caractérisé par un enrichissement relatif en terres rares légères et Th, un appauvrissement en terres rares lourdes typique d'une affinité transitionnelle (T-MORB) et une forte anomalie négative en Nb-Ta. Les roches cumulatives montrent des compositions isotopiques en Nd-Sr proches de la terre globale silicatée (BSE), soit 0.6<εNdi<+3.2, 0.7045<87Sr/86Sri<0.7056. Les rapports initiaux en Pb indiquent une source dans le manteau enrichi subcontinental lithosphérique, préalablement contaminé par des sédiments océaniques. Les dikes mélanocrates Fe-Ti sont représentatifs de liquides et ont des spectres de terres rares enrichis, une anomalie positive en Nb-Ta et des εNdi de +7, des 87Sr/86Sri de 0.703 et des rapports initiaux en Pb, similaires à ceux des basaltes d'île océanique, indiquant une source asthénosphérique modérément appauvrie. Ainsi, la fusion partielle du manteau lithosphérique subcontinental est induite par l'amincissement post-orogénique et la remontée de l'asthénosphère. Les filons mélanocrates proviennent, après délamination du manteau lithosphérique, de la fusion de l'asthénosphère. Abstract The early Permian Mont Collon mafic complex (Dent Blanche nappe, Austroalpine nappe system) is one of the best preserved examples of the Permian mafic magmatism in the Western Alps. It is composed of discontinuous exposures and a well-preserved magmatic layering (the Dents de Bertol cliff) crops out in the center part of the complex. It mainly consists of cumulative mafic rocks, which represent 95 vol-% of the mafic complex (ol- and cpx-bearing gabbros and rare anorthositic layers, troctolites, wehrlites and plagioclase-wehrlites) and locally pegmatitic gabbros. All these facies are crosscut by widespread acidic (aplites, quartz-rich pegmatites, microgranodiorites) and late mafic Fe-Ti melanocratic dikes. Olivine-augite thermometric calculations yield a range of 1070-1120 ± 6°C, while amphibole-plagioclase thermometer yields a temperature of 740 ± 40°C at 0.5 GPa. Pyroxene geobarometry points to a pressure of 0.3-0.6 GPa, indicating a middle crustal level of emplacement. Moreover, temperature calculations on the Mont Conon coronitic amphiboles indicate temperatures of 700 ± 40°C, close to those calculated for magmatic amphiboles. These temperatures confirm that coronitic reactions occurred at subsolidus conditions. ID-TIMS U/Pb zircon ages of 284.2 ± 0.6 and 282.9 ± 0.6 Ma obtained on a pegmatitic gabbro and a quartz-pegmatitic dike, respectively, were interpreted as the crystallization ages of these rocks. 40Ar/39Ar dating on amphiboles from Fe-Ti melanocratic dikes yields a plateau age of 260.2 ± 0.7 Ma, which is probably very close to the crystallization age. Consequently, this 40Ar/P39Ar age indicates a second magmatic event. Whole-rock major- and trace-element compositions show little variation across the whole intrusion and Mg-number stays within a narrow range (75-80). Trace-element concentrations record the cumulative nature of the rocks (e.g. positive Eu anomaly) and reveal systematic Nb, Ta, Zr, Hf and Ti negative anomalies for all basic facies. The lack of correlation between major and trace elements is characteristic of an in situ crystallization process involving variable amounts of interstitial liquid (L) trapped between the cumulus mineral phases. LA-ICPMS measurements show that trace-element distributions in minerals are homogeneous, pointing to subsolidus re-equilibration between crystals and interstitial melts. A quantitative modeling based on Langmuir's in situ crystallization equation successfully reproduced the Rare Earth Element (REE) concentrations in cumulitic minerals. The calculated amounts of interstitial liquid L vary between 0 and 35% for degrees of differentiation F of 0 to 45%, relative to the least evolved facies of the intrusion. Furthermore, L values are well correlated with the modal proportions of interstitial amphibole and whole-rock incompatible trace-element concentrations (e.g. Zr, Nb) of the tested samples. The calculated parental melt of the Mont Collon cumulates is characterized by a relative enrichment in Light REE and Th, a depletion in Heavy REE, typical of a transitional affinity (T-MORB), and strong negative Nb-Ta anomaly. Cumulative rocks display Nd-Sr isotopic compositions close to the BSE (-0.6 < εNdi < +3.2, 0.7045 < 87Sr/86Sri < 0.7056). Initial Pb ratios point to an origin from the melting of an enriched subcontinental lithospheric mantle source, previously contaminated at the source by oceanic sediments. The contrasted alkaline Fe-Ti melanocratic dikes are representative of liquids. They display enriched fractionated REE patterns, a positive Nb-Ta anomaly and εNdi of +7, 87Sr/86Sri of 0.703 and initial Pb ratios, all reminiscent of Ocean Island Basalt-type rocks, pointing to a moderately
Resumo:
Depuis le séminaire H. Cartan de 1954-55, il est bien connu que l'on peut trouver des éléments de torsion arbitrairement grande dans l'homologie entière des espaces d'Eilenberg-MacLane K(G,n) où G est un groupe abélien non trivial et n>1. L'objectif majeur de ce travail est d'étendre ce résultat à des H-espaces possédant plus d'un groupe d'homotopie non trivial. Dans le but de contrôler précisément le résultat de H. Cartan, on commence par étudier la dualité entre l'homologie et la cohomologie des espaces d'Eilenberg-MacLane 2-locaux de type fini. On parvient ainsi à raffiner quelques résultats qui découlent des calculs de H. Cartan. Le résultat principal de ce travail peut être formulé comme suit. Soit X un H-espace ne possédant que deux groupes d'homotopie non triviaux, tous deux finis et de 2-torsion. Alors X n'admet pas d'exposant pour son groupe gradué d'homologie entière réduite. On construit une large classe d'espaces pour laquelle ce résultat n'est qu'une conséquence d'une caractéristique topologique, à savoir l'existence d'un rétract faible X K(G,n) pour un certain groupe abélien G et n>1. On généralise également notre résultat principal à des espaces plus compliqués en utilisant la suite spectrale d'Eilenberg-Moore ainsi que des méthodes analytiques faisant apparaître les nombres de Betti et leur comportement asymptotique. Finalement, on conjecture que les espaces qui ne possédent qu'un nombre fini de groupes d'homotopie non triviaux n'admettent pas d'exposant homologique. Ce travail contient par ailleurs la présentation de la « machine d'Eilenberg-MacLane », un programme C++ conçu pour calculer explicitement les groupes d'homologie entière des espaces d'Eilenberg-MacLane. <br/><br/>By the work of H. Cartan, it is well known that one can find elements of arbitrarilly high torsion in the integral (co)homology groups of an Eilenberg-MacLane space K(G,n), where G is a non-trivial abelian group and n>1. The main goal of this work is to extend this result to H-spaces having more than one non-trivial homotopy groups. In order to have an accurate hold on H. Cartan's result, we start by studying the duality between homology and cohomology of 2-local Eilenberg-MacLane spaces of finite type. This leads us to some improvements of H. Cartan's methods in this particular case. Our main result can be stated as follows. Let X be an H-space with two non-vanishing finite 2-torsion homotopy groups. Then X does not admit any exponent for its reduced integral graded (co)homology group. We construct a wide class of examples for which this result is a simple consequence of a topological feature, namely the existence of a weak retract X K(G,n) for some abelian group G and n>1. We also generalize our main result to more complicated stable two stage Postnikov systems, using the Eilenberg-Moore spectral sequence and analytic methods involving Betti numbers and their asymptotic behaviour. Finally, we investigate some guesses on the non-existence of homology exponents for finite Postnikov towers. We conjecture that Postnikov pieces do not admit any (co)homology exponent. This work also includes the presentation of the "Eilenberg-MacLane machine", a C++ program designed to compute explicitely all integral homology groups of Eilenberg-MacLane spaces. <br/><br/>Il est toujours difficile pour un mathématicien de parler de son travail. La difficulté réside dans le fait que les objets qu'il étudie sont abstraits. On rencontre assez rarement un espace vectoriel, une catégorie abélienne ou une transformée de Laplace au coin de la rue ! Cependant, même si les objets mathématiques sont difficiles à cerner pour un non-mathématicien, les méthodes pour les étudier sont essentiellement les mêmes que celles utilisées dans les autres disciplines scientifiques. On décortique les objets complexes en composantes plus simples à étudier. On dresse la liste des propriétés des objets mathématiques, puis on les classe en formant des familles d'objets partageant un caractère commun. On cherche des façons différentes, mais équivalentes, de formuler un problème. Etc. Mon travail concerne le domaine mathématique de la topologie algébrique. Le but ultime de cette discipline est de parvenir à classifier tous les espaces topologiques en faisant usage de l'algèbre. Cette activité est comparable à celle d'un ornithologue (topologue) qui étudierait les oiseaux (les espaces topologiques) par exemple à l'aide de jumelles (l'algèbre). S'il voit un oiseau de petite taille, arboricole, chanteur et bâtisseur de nids, pourvu de pattes à quatre doigts, dont trois en avant et un, muni d'une forte griffe, en arrière, alors il en déduira à coup sûr que c'est un passereau. Il lui restera encore à déterminer si c'est un moineau, un merle ou un rossignol. Considérons ci-dessous quelques exemples d'espaces topologiques: a) un cube creux, b) une sphère et c) un tore creux (c.-à-d. une chambre à air). a) b) c) Si toute personne normalement constituée perçoit ici trois figures différentes, le topologue, lui, n'en voit que deux ! De son point de vue, le cube et la sphère ne sont pas différents puisque ils sont homéomorphes: on peut transformer l'un en l'autre de façon continue (il suffirait de souffler dans le cube pour obtenir la sphère). Par contre, la sphère et le tore ne sont pas homéomorphes: triturez la sphère de toutes les façons (sans la déchirer), jamais vous n'obtiendrez le tore. Il existe un infinité d'espaces topologiques et, contrairement à ce que l'on serait naïvement tenté de croire, déterminer si deux d'entre eux sont homéomorphes est très difficile en général. Pour essayer de résoudre ce problème, les topologues ont eu l'idée de faire intervenir l'algèbre dans leurs raisonnements. Ce fut la naissance de la théorie de l'homotopie. Il s'agit, suivant une recette bien particulière, d'associer à tout espace topologique une infinité de ce que les algébristes appellent des groupes. Les groupes ainsi obtenus sont appelés groupes d'homotopie de l'espace topologique. Les mathématiciens ont commencé par montrer que deux espaces topologiques qui sont homéomorphes (par exemple le cube et la sphère) ont les même groupes d'homotopie. On parle alors d'invariants (les groupes d'homotopie sont bien invariants relativement à des espaces topologiques qui sont homéomorphes). Par conséquent, deux espaces topologiques qui n'ont pas les mêmes groupes d'homotopie ne peuvent en aucun cas être homéomorphes. C'est là un excellent moyen de classer les espaces topologiques (pensez à l'ornithologue qui observe les pattes des oiseaux pour déterminer s'il a affaire à un passereau ou non). Mon travail porte sur les espaces topologiques qui n'ont qu'un nombre fini de groupes d'homotopie non nuls. De tels espaces sont appelés des tours de Postnikov finies. On y étudie leurs groupes de cohomologie entière, une autre famille d'invariants, à l'instar des groupes d'homotopie. On mesure d'une certaine manière la taille d'un groupe de cohomologie à l'aide de la notion d'exposant; ainsi, un groupe de cohomologie possédant un exposant est relativement petit. L'un des résultats principaux de ce travail porte sur une étude de la taille des groupes de cohomologie des tours de Postnikov finies. Il s'agit du théorème suivant: un H-espace topologique 1-connexe 2-local et de type fini qui ne possède qu'un ou deux groupes d'homotopie non nuls n'a pas d'exposant pour son groupe gradué de cohomologie entière réduite. S'il fallait interpréter qualitativement ce résultat, on pourrait dire que plus un espace est petit du point de vue de la cohomologie (c.-à-d. s'il possède un exposant cohomologique), plus il est intéressant du point de vue de l'homotopie (c.-à-d. il aura plus de deux groupes d'homotopie non nuls). Il ressort de mon travail que de tels espaces sont très intéressants dans le sens où ils peuvent avoir une infinité de groupes d'homotopie non nuls. Jean-Pierre Serre, médaillé Fields en 1954, a montré que toutes les sphères de dimension >1 ont une infinité de groupes d'homotopie non nuls. Des espaces avec un exposant cohomologique aux sphères, il n'y a qu'un pas à franchir...
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.