124 resultados para low-dimensional system
Resumo:
The Northern Snake Range (Nevada) represents a spectacular example of a metamorphic core complex and exposes a complete section from the mylonitic footwall into the hanging wall of a fossil detachment system. Paired geochronological and stable isotopic data of mylonitic quartzite within the detachment footwall reveal that ductile deformation and infiltration of meteoric fluids occurred between 27 and 23 Ma. Ar-40/Ar-39 ages display complex recrystallization-cooling relationships but decrease systematically from 26.9 +/- 0.2 Ma at the top to 21.3 +/- 0.2 Ma at the bottom of footwall mylonite. Hydrogen isotope (delta D) values in white mica are very low (-150 to -145 %) within the top 80-90 m of detachment footwall, in contrast to values obtained from the deeper part of the section where values range from -77 to -64 %, suggesting that time-integrated interaction between rock and meteoric fluid was restricted to the uppermost part of the mylonitic footwall. Pervasive mica-water hydrogen isotope exchange is difficult to reconcile with models of Ar-40 loss during mylonitization solely by volume diffusion. Rather, we interpret the Ar-40/Ar-39 ages of white mica with low-delta D values to date syn-mylonitic hydrogen and argon isotope exchange, and we conclude that the hydrothermal system of the Northern Snake Range was active during late Oligocene (27-23 Ma) and has been exhumed by the combined effects of ductile strain, extensional detachment faulting, and erosion.
Resumo:
PURPOSE: To determine the diagnostic value of the intravascular contrast agent gadocoletic acid (B-22956) in three-dimensional, free breathing coronary magnetic resonance angiography (MRA) for stenosis detection in patients with suspected or known coronary artery disease. METHODS: Eighteen patients underwent three-dimensional, free breathing coronary MRA of the left and right coronary system before and after intravenous application of a single dose of gadocoletic acid (B-22956) using three different dose regimens (group A 0.050 mmol/kg; group B 0.075 mmol/kg; group C 0.100 mmol/kg). Precontrast scanning followed a coronary MRA standard non-contrast T2 preparation/turbo-gradient echo sequence (T2Prep); for postcontrast scanning an inversion-recovery gradient echo sequence was used (real-time navigator correction for both scans). In pre- and postcontrast scans quantitative analysis of coronary MRA data was performed to determine the number of visible side branches, vessel length and vessel sharpness of each of the three coronary arteries (LAD, LCX, RCA). The number of assessable coronary artery segments was determined to calculate sensitivity and specificity for detection of stenosis > or = 50% on a segment-to-segment basis (16-segment-model) in pre- and postcontrast scans with x-ray coronary angiography as the standard of reference. RESULTS: Dose group B (0.075 mmol/kg) was preferable with regard to improvement of MR angiographic parameters: in postcontrast scans all MR angiographic parameters increased significantly except for the number of visible side branches of the left circumflex artery. In addition, assessability of coronary artery segments significantly improved postcontrast in this dose group (67 versus 88%, p < 0.01). Diagnostic performance (sensitivity, specificity, accuracy) was 83, 77 and 78% for precontrast and 86, 95 and 94% for postcontrast scans. CONCLUSIONS: The use of gadocoletic acid (B-22956) results in an improvement of MR angiographic parameters, asssessability of coronary segments and detection of coronary stenoses > or = 50%.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
The greenhead ant Rhytidoponera metallica has long been recognized as posing a potential challenge to kin selection theory because it has large queenless colonies where apparently many of the morphological workers are mated and reproducing. However this species has never been studied genetically and important elements of its breeding system and kin structure remain uncertain. We used microsatellite markers to measure the relatedness among nestmates unravel the fine-scale population genetic structure and infer the breeding system of R. metallica. The genetic relatedness among worker nestmates is very low but significantly greater than zero (r = 0.082 +/- 0.015) which demonstrates that nests contain many distantly related breeders. The inbreeding coefficient is very close to and not significantly different from zero indicating random mating and lack of microgeographic genetic differentiation. On average. closely located nests are not more similar genetically than distant nests which is surprising as new colonies form by budding and female dispersal is restricted. Lack of inbreeding and absence of population viscosity indicates high gene flow mediated by males. Overall the genetic pattern detected in R. metallica suggests that a high number of moderately related workers mate with unrelated males from distant nests. This breeding system results in the lowest relatedness among nestmates reported for social insect species where breeders and helpers are not morphologically differentiated. [References: 69]
Resumo:
An increase of urokinase-type plasminogen activator (uPA) and a decrease of tissue-type PA (tPA) have been associated with the transition from normal to adenomatous colorectal mucosa. Serial sections from 25 adenomas were used to identify PA-related caseinolytic activities by in situ zymography, blocking selectively uPA or tPA. The distribution of uPA, tPA, and type 1 PA inhibitor mRNAs was investigated by nonradioactive in situ hybridization, and the receptor for uPA was detected by immunostaining. Low- and high-grade epithelial cell dysplasia was mapped histologically. Results show that 23 of 25 adenomas expressed uPA-related lytic activity located predominantly in the periphery whereas tPA-related activity was mainly in central areas of adenomas. In 15 of 25 adenomas, uPA mRNA was expressed in stromal cells clustered in foci that coincided with areas of uPA lytic activity. The probability of finding uPA mRNA-reactive cells was significantly higher in areas with high-grade epithelial dysplasia. uPA receptor was mainly stromal and expressed at the periphery. Type 1 PA inhibitor mRNA cellular expression was diffuse in the stroma, in endothelial cells, and in a subpopulation of alpha-smooth muscle cell actin-reactive cells. These results show that a stromal up-regulation of the uPA/plasmin system is associated with foci of severe dysplasia in a subset of colorectal adenomas.
Resumo:
To make a comprehensive evaluation of organ-specific out-of-field doses using Monte Carlo (MC) simulations for different breast cancer irradiation techniques and to compare results with a commercial treatment planning system (TPS). Three breast radiotherapy techniques using 6MV tangential photon beams were compared: (a) 2DRT (open rectangular fields), (b) 3DCRT (conformal wedged fields), and (c) hybrid IMRT (open conformal+modulated fields). Over 35 organs were contoured in a whole-body CT scan and organ-specific dose distributions were determined with MC and the TPS. Large differences in out-of-field doses were observed between MC and TPS calculations, even for organs close to the target volume such as the heart, the lungs and the contralateral breast (up to 70% difference). MC simulations showed that a large fraction of the out-of-field dose comes from the out-of-field head scatter fluence (>40%) which is not adequately modeled by the TPS. Based on MC simulations, the 3DCRT technique using external wedges yielded significantly higher doses (up to a factor 4-5 in the pelvis) than the 2DRT and the hybrid IMRT techniques which yielded similar out-of-field doses. In sharp contrast to popular belief, the IMRT technique investigated here does not increase the out-of-field dose compared to conventional techniques and may offer the most optimal plan. The 3DCRT technique with external wedges yields the largest out-of-field doses. For accurate out-of-field dose assessment, a commercial TPS should not be used, even for organs near the target volume (contralateral breast, lungs, heart).
Resumo:
The aim of the present study was to determine whether an increase in resting energy expenditure (REE) contributes to the impaired nutritional status of Gambian children infected by a low level of infection with pathogenic helminths. The REE of 24 children infected with hookworm, Ascaris, Strongyloides, or Trichuris (mean +/- SEM age = 11.9 +/- 0.1 years) and eight controls without infection (mean +/- SEM age = 11.8 +/- 0.1 years) were measured by indirect calorimetry with a hood system (test A). This measurement was repeated after treatment with 400 mg of albendazole (patients) or a placebo (controls) (test B). When normalized for fat free mass, REE in test A was not different in the patients (177 +/- 2 kJ/kg x day) and in the controls (164 +/- 7 kJ/kg x day); furthermore, REE did not change significantly after treatment in the patients (173 +/- 3 kJ/kg x day) or in the controls (160 +/- 8 kJ/kg x day). There was no significant difference in the respiratory quotient between patients and controls, nor between tests A and B. It is concluded that a low level of helminth infection does not affect significantly the energy metabolism of Gambian children.
Resumo:
OBJECTIVES: Mannan-binding lectin (MBL) acts as a pattern-recognition molecule directed against oligomannan, which is part of the cell wall of yeasts and various bacteria. We have previously shown an association between MBL deficiency and anti-Saccharomyces cerevisiae mannan antibody (ASCA) positivity. This study aims at evaluating whether MBL deficiency is associated with distinct Crohn's disease (CD) phenotypes. METHODS: Serum concentrations of MBL and ASCA were measured using ELISA (enzyme-linked immunosorbent assay) in 427 patients with CD, 70 with ulcerative colitis, and 76 healthy controls. CD phenotypes were grouped according to the Montreal Classification as follows: non-stricturing, non-penetrating (B1, n=182), stricturing (B2, n=113), penetrating (B3, n=67), and perianal disease (p, n=65). MBL was classified as deficient (<100 ng/ml), low (100-500 ng/ml), and normal (500 ng/ml). RESULTS: Mean MBL was lower in B2 and B3 CD patients (1,503+/-1,358 ng/ml) compared with that in B1 phenotypes (1,909+/-1,392 ng/ml, P=0.013). B2 and B3 patients more frequently had low or deficient MBL and ASCA positivity compared with B1 patients (P=0.004 and P<0.001). Mean MBL was lower in ASCA-positive CD patients (1,562+/-1,319 ng/ml) compared with that in ASCA-negative CD patients (1,871+/-1,320 ng/ml, P=0.038). In multivariate logistic regression modeling, low or deficient MBL was associated significantly with B1 (negative association), complicated disease (B2+B3), and ASCA. MBL levels did not correlate with disease duration. CONCLUSIONS: Low or deficient MBL serum levels are significantly associated with complicated (stricturing and penetrating) CD phenotypes but are negatively associated with the non-stricturing, non-penetrating group. Furthermore, CD patients with low or deficient MBL are significantly more often ASCA positive, possibly reflecting delayed clearance of oligomannan-containing microorganisms by the innate immune system in the absence of MBL.
Resumo:
Introduction: Ankle arthropathy is associated with a decreased motion of the ankle-hindfoot during ambulation. Ankle arthrodesis was shown to result in degeneration of the neighbour joints of the foot. Inversely, total ankle arthroplasty conceptually preserves the adjacent joints because of the residual mobility of the ankle but this has not been demonstrated yet in vivo. It has also been reported that degenerative ankle diseases, and even arthrodesis, do not result in alteration of the knee and hip joints. We present the preliminary results of a new approach of this problem based on ambulatory gait analysis. Patients and Methods: Motion analysis of the lower limbs was performed using a Physilog® (BioAGM, CH) system consisting of three-dimensional (3D) accelerometer and gyroscope, coupled to a magnetic system (Liberty©, Polhemus, USA). Both systems have been validated. Three groups of two patients were included into this pilot study and compared to healthy subjects (controls) during level walking: patients with ankle osteoarthritis (group 1), patients treated by ankle arthrodesis (group 2), patients treated by total ankle prosthesis (group 3). Results: Motion patterns of all analyzed joints over more than 20 gait cycles in each subject were highly repeatable. Motion amplitude of the ankle-hindfoot in control patients was similar to recently reported results. Ankle arthrodesis limited the motion of the ankle-hindfoot in the sagittal and horizontal planes. The prosthetic ankle allowed a more physiologic movement in the sagittal plane only. Ankle arthritis and its treatments did not influence the range of motion of the knee and hip joint during stance phase, excepted for a slight decrease of the hip flexion in groups 1 and 2. Conclusion: The reliability of the system was shown by the repeatability of the consecutive measurements. The results of this preliminary study were similar to those obtained through laboratory gait analysis. However, our system has the advantage to allow ambulatory analysis of 3D kinematics of the lower limbs outside of a gait laboratory and in real life conditions. To our knowledge this is a new concept in the analysis of ankle arthropathy and its treatments. Therefore, there is a potential to address specific questions like the difficult comparison of the benefits of ankle arthroplasty versus arthrodesis. The encouraging results of this pilot study offer the perspective to analyze the consequences of ankle arthropathy and its treatments on the biomechanics of the lower limbs ambulatory, in vivo and in daily life conditions.
Resumo:
A variety of behavioural traits have substantial effects on the gene dynamics and genetic structure of local populations. The mating system is a plastic trait that varies with environmental conditions in the domestic cat (Felis catus) allowing an intraspecific comparison of the impact of this feature on genetic characteristics of the population. To assess the potential effect of the heterogenity of males' contribution to the next generation on variance effective size, we applied the ecological approach of Nunney & Elam (1994) based upon a demographic and behavioural study, and the genetic 'temporal methods' of Waples (1989) and Berthier et al. (2002) using microsatellite markers. The two cat populations studied were nearly closed, similar in size and survival parameters, but differed in their mating system. Immigration appeared extremely restricted in both cases due to environmental and social constraints. As expected, the ratio of effective size to census number (Ne/N) was higher in the promiscuous cat population (harmonic mean = 42%) than in the polygynous one (33%), when Ne was calculated from the ecological method. Only the genetic results based on Waples' estimator were consistent with the ecological results, but failed to evidence an effect of the mating system. Results based on the estimation of Berthier et al. (2002) were extremely variable, with Ne sometimes exceeding census size. Such low reliability in the genetic results should retain attention for conservation purposes.
Resumo:
While adaptive adjustment of sex ratio in the function of colony kin structure and food availability commonly occurs in social Hymenoptera, long-term studies have revealed substantial unexplained between-year variation in sex ratio at the population level. In order to identify factors that contribute to increased between-year variation in population sex ratio, we conducted a comparative analysis across 47 Hymenoptera species differing in their breeding system. We found that between-year variation in population sex ratio steadily increased as one moved from solitary species, to primitively eusocial species, to single-queen eusocial species, to multiple-queen eusocial species. Specifically, between-year variation in population sex ratio was low (6.6% of total possible variation) in solitary species, which is consistent with the view that in solitary species, sex ratio can vary only in response to fluctuations in ecological factors such as food availability. In contrast, we found significantly higher (19.5%) between-year variation in population sex ratio in multiple-queen eusocial species, which supports the view that in these species, sex ratio can also fluctuate in response to temporal changes in social factors such as queen number and queen-worker control over sex ratio, as well as factors influencing caste determination. The simultaneous adjustment of sex ratio in response to temporal fluctuations in ecological and social factors seems to preclude the existence of a single sex ratio optimum. The absence of such an optimum may reflect an additional cost associated with the evolution of complex breeding systems in Hymenoptera societies.
Resumo:
L'endocardite infectieuse (EI) est une maladie potentiellement mortelle qui doit être prévenue dans toute la mesure du possible. Au cours de ces dernières 50 années, les recommandations Américaines et Européennes pour la prophylaxie de PEI proposaient aux patients à risques de prendre un antibiotique, préventif avant de subir une intervention médico-chirurgicale susceptible d'induire une bactériémie transitoire. Cependant, des études épidémiologiques récentes ont montré que la plupart des EI survenaient en dehors de tous actes médico-chirurgicaux, et indépendamment de la prise ou non de prophylaxie antibiotique . L'EI pourrait donc survenir suite à la cumulation de bactériémies spontanées de faibles intensités, associées à des activités de la vie courante telle que le brossage dentaire pour le streptocoques, ou à partir de tissus colonisés ou de cathéters infectés pour les staphylocoques. En conséquence, les recommandations internationales pour la prophylaxie de PEI ont été revues et proposent une diminution drastique de l'utilisation d'antibiotiques. Cependant, le risque d'EI représenté par le cumul de bactériémies de faibles intensités n'a pas été démontré expérimentalement. Nous avons développé un nouveau modèle d'EI expérimentale induite par une inoculation en continu d'une faible quantité de bactéries, simulant le cumul de bactériémies de faibles intensités chez l'homme, et comparé l'infection de Streptococcus gordonii et de Staphylococcus aureus dans ce modèle avec celle du modèle d'IE induite par une bactériémie brève, mais de forte intensité. Nous avons démontré, après injection d'une quantité égale de bactéries, que le nombre de végétations infectées était similaire dans les deux types d'inoculations. Ces résultats expérimentaux ont confirmé l'hypothèse qu'une exposition cumulée à des bactériémies de faibles intensités, en dehors d'une procédure médico-chirurgicale, représentait un risque pour le développement d'une El, comme le suggéraient les études épidémiologiques. En plus, ces résultats ont validé les nouvelles recommandations pour la prophylaxie de l'El, limitant drastiquement l'utilisation d'antibiotiques. Cependant, ces nouvelles recommandations laissent une grande partie (> 90%) de cas potentiels d'EI sans alternatives de préventions, et des nouvelles stratégies prophylactiques doivent être investiguées. Le nouveau modèle d'EI expérimentale représente un modèle réaliste pour étudier des nouvelles mesures prophylactiques potentielles appliquées à des expositions cumulées de bactériémies de faible nombre. Dans un contexte de bactériémies spontanées répétitives, les antibiotiques ne peuvent pas résoudre le problème de la prévention de l'EI. Nous avons donc étudié la une alternative de prévention par l'utilisation d'agents antiplaquettaires. La logique derrière cette approche était basée sur le fait que les plaquettes sont des composants clés dans la formation des végétations cardiaques, et le fait que les bactéries capables d'interagir avec les plaquettes sont plus enclines à induire une El. Les agents antiplaquettaires utilisés ont été l'aspirine (inhibiteur du COX1), la ticlopidine (inhibiteur du P2Y12, le récepteur de l'ADP), et l'eptifibatide et Pabciximab, deux inhibiteurs du GPIIb/IIIa, le récepteur plaquettaire pour le fibrinogène. Les anticoagulants étaient le dabigatran etexilate, inhibant lathrombine et l'acenocumarol, un antagoniste de la vitamine K. L'aspirine, la ticlopidine ou l'eptifibatide seuls n'ont pas permis de prévenir l'infection valvulaire (> 75% animaux infectés). En revanche, la combinaison d'aspirine et de ticlopidine, aussi bien que l'abciximab, ont protégé 45% - 88% des animaux de l'EI par S. gordonii et par S. aureus. L'antithrombotique dabigatran etexilate à protégé 75% des rats contre l'EI par S. aureus, mais pas (< 30% de protection) par S. gordonii. L'acenocoumarol n'a pas eu d'effet sur aucun des deux organismes. En général, ces résultats suggèrent un possible rôle pour les antiplaquettaires et du dabigatran etexilate dans la prophylaxie de l'EI dans un contexte de bactériémies récurrentes de faibles intensités. Cependant, l'effet bénéfique des antiplaquettaires doit être soupesé avec le risque d'hémorragie inhérent à ces molécules, et le fait que les plaquettes jouent un important rôle dans les défenses de l'hôte contre les infections endovasculaires. En plus, le double effet bénéfique du dabigatran etexilate devrait être revu chez les patients porteurs de valves prothétiques, qui ont besoin d'une anticoagulation à vie, et chez lesquels l'EI à S. aureus est associée avec une mortalité de près de 50%. Comme l'approche avec des antiplaquettaires et des antithrombotiques pourrait avoir des limites, une autre stratégie prophylactique pourrait être la vaccination contre des adhésines de surfaces des pathogènes. Chez S. aureus, la protéine de liaison au fibrinogène, ou dumping factor A (ClfA), et la protéine de liaison à la fibronectine (FnbpA) sont des facteurs de virulence nécessaires à l'initiation et l'évolution de PEI. Elles représentent donc des cibles potentielles pour le développement de vaccins contre cette infection. Récemment, des nombreuses publications ont décrit que la bactérie Lactococcus lactis pouvait être utilisée comme vecteur pour la diffusion d'antigènes bactériens in vivo, et que cette approche pourrait être une stratégie de vaccination contre les infections bactériennes. Nous avons exploré l'effet de l'immunisation par des recombinant de L. lactis exprimant le ClfA, la FnbpA, ou le ClfA ensemble avec et une forme tronquée de la FnbpA (Fnbp, comprenant seulement le domaine de liaison à la fibronectine mais sans le domaine A de liaison au fibrinogène [L. lactis ClfA/Fnbp]), dans la prophylaxie de PIE expérimentale à S. aureus. L. lactis ClfA a été utilisés comme agent d'immunisation contre la souche S. aureus Newman (qui a particularité de n'exprimer que le ClfA, mais pas la FnbpA). L. lactis ClfA, L. lactis FnbpA, et L. lactis ClfA/Fnbp, ont été utilisé comme agents d'immunisation contre une souche isolée d'une IE, S. aureus P8 (exprimant ClfA et FnbpA). L'immunisation avec L. lactis ClfA a généré des anticorps anti-ClfA fonctionnels, capables de bloquer la liaison de S. aureus Newman au fibrinogène in vitro et protéger 13/19 (69%) animaux d'une El due à S. aureus Newman (P < 0.05 comparée aux contrôles). L'immunisation avec L. lactis ClfA, L. lactis FnbpA, ou L. lactis ClfA/Fnbp, a généré des anticorps contre chacun de ces antigènes. Cependant, ils n'ont pas permis de bloquer l'adhésion de S. aureus P8 au fibrinogène et à la fibronectine in vitro. De plus, l'immunisation avec L. lactis ClfA ou L. lactis FnbpA s'est avérée inefficace in vivo (< 10% d'animaux protégés d'une El) et l'immunisation avec L. lactis ClfA/Fnbp a fourni une protection limitée de l'EI (8/23 animaux protégés; P < 0.05 comparée aux contrôles) après inoculation avec S. aureus P8. Dans l'ensemble, ces résultats indiquent que L. lactis est un système efficace pour la présentation d'antigènes in vivo et potentiellement utile pour la prévention de PEI à S. aureus. Cependant, le répertoire de protéines de surface de S. aureus capable d'évoquer une panoplie d'anticorps efficace reste à déterminer.. En résumé, notre étude a démontré expérimentalement, pour la première fois, qu'une bactériémie répétée de faible intensité, simulant la bactériémie ayant lieu, par exemple, lors des activités de la vie quotidienne, est induire un taux d'EI expérimentale similaire à celle induite par une bactériémie de haute intensité suite à une intervention médicale. Dans ce contexte, où l'utilisation d'antibiotiques est pas raisonnable, nous avons aussi montré que d'autres mesures prophylactiques, comme l'utilisation d'agents antiplaquettaires ou antithrombotiques, ou la vaccination utilisant L. lactis comme vecteur d'antigènes bactériens, sont des alternatives prometteuses qui méritent d'être étudiées plus avant. Thesis Summary Infective endocarditis (IE) is a life-threatening disease that should be prevented whenever possible. Over the last 50 years, guidelines for IE prophylaxis proposed the use of antibiotics in patients undergoing dental or medico-surgical procedures that might induce high, but transient bacteremia. However, recent epidemiological studies indicate that IE occurs independently of medico-surgical procedures and the fact that patients had taken antibiotic prophylaxis or not, i.e., by cumulative exposure to random low-grade bacteremia, associated with daily activities (e.g. tooth brushing) in the case of oral streptococci, or with a colonized site or infected device in the case of staphylococci. Accordingly, the most recent American and European guidelines for IE prophylaxis were revisited and updated to drastically restrain antibiotic use. Nevertheless, the relative risk of IE represented by such cumulative low-grade bacteremia had never been demonstrated experimentally. We developed a new model of experimental IE due to continuous inoculation of low-grade bacteremia, mimicking repeated low-grade bacteremia in humans, and compared the infectivity of Streptococcus gordonii and Staphylococcus aureus in this model to that in the model producing brief, high-level bacteremia. We demonstrated that, after injection of identical bacterial numbers, the rate of infected vegetations was similar in both types of challenge. These experimental results support the hypothesis that cumulative exposure to low-grade bacteremia, outside the context of procedure-related bacteremia, represents a genuine risk of IE, as suggested by human epidemiological studies. In addition, they validate the newer guidelines for IE prophylaxis, which drastic limit the procedures in which antibiotic prophylaxis is indicated. Nevertheless, these refreshed guidelines leave the vast majority (> 90%) of potential IE cases without alternative propositions of prevention, and novel strategies must be considered to propose effective alternative and "global" measures to prevent IE initiation. The more realistic experimental model of IE induced by low-grade bacteremia provides an accurate experimental setting to study new preventive measures applying to cumulative exposure to low bacterial numbers. Since in a context of spontaneous low-grade bacteremia antibiotics are unlikely to solve the problem of IE prevention, we addressed the role of antiplatelet and anticoagulant agents for the prophylaxis of experimental IE induced by S. gordonii and S. aureus. The logic of this approach was based on the fact that platelets are key players in vegetation formation and vegetation enlargement, and on the fact that bacteria capable of interacting with platelets are more prone to induce IE. Antiplatelet agents included the COX1 inhibitor aspirin, the inhibitor of the ADP receptor P2Y12 ticlopidine, and two inhibitors of the platelet fibrinogen receptor GPIIb/IIIa, eptifibatide and abciximab. Anticoagulants included the thrombin inhibitor dabigatran etexilate and the vitamin K antagonist acenocoumarol. Aspirin, ticlopidine or eptifibatide alone failed to prevent aortic infection (> 75% infected animals). In contrast, the combination of aspirin with ticlopidine, as well as abciximab, protected 45% to 88% of animals against IE due to S. gordonii and S. aureus. The antithrombin dabigatran etexilate protected 75% of rats against IE due to S. aureus, but failed (< 30% protection) against S. gordonii. Acenocoumarol had no effect against any bacteria. Overall, these results suggest a possible role for antiplatelet agents and dabigatran etexilate in the prophylaxis of IE in humans in a context of recurrent low- grade bacteremia. However, the potential beneficial effect of antiplatelet agents should be balanced against the risk of bleeding and the fact that platelets play an important role in the host defenses against intravascular infections. In addition, the potential dual benefit of dabigatran etexilate might be revisited in patients with prosthetic valves, who require life-long anticoagulation and in whom S. aureus IE is associated with high mortality rate. Because the antiplatelet and anticoagulant approach might be limited in the context of S. aureus bacteremia, other prophylactic strategies for the prevention of S. aureus IE, like vaccination with anti-adhesion proteins was tested. The S. aureus surface proteins fibrinogen-binding protein clumping-factor A (ClfA) and the fibronectin-binding protein A (FnbpA) are critical virulence factors for the initiation and development of IE. Thus, they represent key targets for vaccine development against this disease. Recently, numerous reports have described that the harmless bacteria Lactococcus lactis can be used as a bacterial vector for the efficient delivery of antigens in vivo, and that this approach is a promising vaccination strategy against bacterial infections. We therefore explored the immunization capacity of non- living recombinant L. lactis ClfA, L. lactis FnbpA, or L. lactis expressing ClfA together with Fnbp (a truncated form of FnbpA with only the fibronectin-binding domain but lacking the fibrinogen-binding domain A [L. lactis ClfA/Fnbp]), to protect against S. aureus experimental IE. L. lactis ClfA was used as immunization agent against the laboratory strain S. aureus Newman (expressing ClfA, but lacking FnbpA). L. lactis ClfA, L. lactis FnbpA, as well as L. lactis ClfA/Fnbp, were used as immunization agents against the endocarditis isolate S. aureus P8 (expressing both ClfA and FnbpA). Immunization with L. lactis ClfA produced anti-ClfA functional antibodies, which were able to block the binding of S. aureus Newman to fibrinogen in vitro and protect 13/19 (69%) animals from IE due to S. aureus Newman (P < 0.05 compared to controls). Immunization with L. lactis ClfA, L. lactis FnbpA or L. lactis ClfA/Fnbp, produced antibodies against each antigen. However, they were not sufficient to block S. aureus P8 binding to fibrinogen and fibronectin in vitro. Moreover, immunization with L. lactis ClfA or L. lactis FnbpA was ineffective (< 10% protected animals) and immunization with L. lactis ClfA/Fnbp conferred limited protection from IE (8/23 protected animals; P < 0.05 compared to controls) after challenge with S. aureus P8. Together, these results indicate that L. lactis is an efficient delivering antigen system potentially useful for preventing S. aureus IE. They also demonstrate that expressing multiple antigens in L. lactis, yet to be elucidated, will be necessary to prevent IE due to clinical S. aureus strains fully equipped with virulence determinants. In summary, our study has demonstrated experimentally, for the first time, the hypothesis that low-grade bacteremia, mimicking bacteremia occurring outside of a clinical intervention, is equally prone to induce experimental IE as high-grade bacteremia following medico-surgical procedures. In this context, where the use of antibiotics for the prophylaxis of IE is limited, we showed that other prophylactic measures, like the use of antiplatelets, anticoagulants, or vaccination employing L. lactis as delivery vector of bacterial antigens, are reasonable alternatives that warrant to be further investigated.
Resumo:
THESIS ABSTRACT : Low-temperature thermochronology relies on application of radioisotopic systems whose closure temperatures are below temperatures at which the dated phases are formed. In that sense, the results are interpreted as "cooling ages" in contrast to "formation ages". Owing to the low closure-temperatures, it is possible to reconstruct exhumation and cooling paths of rocks during their residence at shallow levels of the crust, i.e. within first ~10 km of depth. Processes occurring at these shallow depths such as final exhumation, faulting and relief formation are fundamental for evolution of the mountain belts. This thesis aims at reconstructing the tectono-thermal history of the Aar massif in the Central Swiss Alps by means of zircon (U-Th)/He, apatite (U-Th)/He and apatite fission track thermochronology. The strategy involved acquisition of a large number of samples from a wide range of elevations in the deeply incised Lötschen valley and a nearby NEAT tunnel. This unique location allowed to precisely constrain timing, amount and mechanisms of exhumation of the main orographic feature of the Central Alps, evaluate the role of topography on the thermochronological record and test the impact of hydrothermal activity. Samples were collected from altitudes ranging between 650 and 3930 m and were grouped into five vertical profiles on the surface and one horizontal in the tunnel. Where possible, all three radiometric systems were applied to each sample. Zircon (U-Th)/He ages range from 5.1 to 9.4 Ma and are generally positively correlated with altitude. Age-elevation plots reveal a distinct break in slope, which translates into exhumation rate increasing from ~0.4 to ~3 km/Ma at 6 Ma. This acceleration is independently confirmed by increased cooling rates on the order of 100°C/Ma constrained on the basis of age differences between the zircon (U-Th)/He and the remaining systems. Apatite fission track data also plot on a steep age-elevation curve indicating rapid exhumation until the end of the Miocene. The 6 Ma event is interpreted as reflecting tectonically driven uplift of the Aar massif. The late Miocene timing implies that the increase of precipitation in the Pliocene did not trigger rapid exhumation in the Aar massif. The Messinian salinity crisis in the Mediterranean could not directly intensify erosion of the Aar but associated erosional output from the entire Alps may have tapered the orogenic wedge and caused reactivation of thrusting in the Aar massif. The high exhumation rates in the Messinian were followed by a decrease to ~1.3 km/Ma as evidenced by ~8 km of exhumation during last 6 Ma. The slowing of exhumation is also apparent from apatite (U-Th)1He age-elevation data in the northern part of the Lötschen valley where they plot on a ~0.5km/Ma line and range from 2.4 to 6.4 Ma However, from the apatite (U-Th)/He and fission track data from the NEAT tunnel, there is an indication of a perturbation of the record. The apatite ages are youngest under the axis of the valley, in contrast to an expected pattern where they would be youngest in the deepest sections of the tunnel due to heat advection into ridges. The valley however, developed in relatively soft schists while the ridges are built of solid granitoids. In line with hydrological observations from the tunnel, we suggest that the relatively permeable rocks under the valley floor, served as conduits of geothermal fluids that caused reheating leading to partial Helium loss and fission track annealing in apatites. In consequence, apatite ages from the lowermost samples are too young and the calculated exhumation rates may underestimate true values. This study demonstrated that high-density sampling is indispensable to provide meaningful thermochronological data in the Alpine setting. The multi-system approach allows verifying plausibility of the data and highlighting sources of perturbation. RÉSUMÉ DE THÈSE : La thermochronologie de basse température dépend de l'utilisation de systèmes radiométriques dont la température de fermeture est nettement inférieure à la température de cristallisation du minéral. Les résultats obtenus sont par conséquent interprétés comme des âges de refroidissement qui diffèrent des âges de formation obtenus par le biais d'autres systèmes de datation. Grâce aux températures de refroidissement basses, il est aisé de reconstruire les chemins de refroidissement et d'exhumation des roches lors de leur résidence dans la croute superficielle (jusqu'à 10 km). Les processus qui entrent en jeu à ces faibles profondeurs tels que l'exhumation finale, la fracturation et le faillage ainsi que la formation du relief sont fondamentaux dans l'évolution des chaînes de montagne. Ces dernières années, il est devenu clair que l'enregistrement thermochronologique dans les orogènes peut être influencé par le relief et réinitialisé par l'advection de la chaleur liée à la circulation de fluides géothermaux après le refroidissement initial. L'objectif de cette thèse est de reconstruire l'histoire tectono-thermique du massif de l'Aar dans les Alpes suisses Centrales à l'aide de trois thermochronomètres; (U-Th)/He sur zircon, (U-Th)/He sur apatite et les traces de fission sur apatite. Afin d'atteindre cet objectif, nous avons récolté un grand nombre d'échantillons provenant de différentes altitudes dans la vallée fortement incisée de Lötschental ainsi que du tunnel de NEAT. Cette stratégie d'échantillonnage nous a permis de contraindre de manière précise la chronologie, les quantités et les mécanismes d'exhumation de cette zone des Alpes Centrales, d'évaluer le rôle de la topographie sur l'enregistrement thermochronologique et de tester l'impact de l'hydrothermalisme sur les géochronomètres. Les échantillons ont été prélevés à des altitudes comprises entre 650 et 3930m selon 5 profils verticaux en surface et un dans le tunnel. Quand cela à été possible, les trois systèmes radiométriques ont été appliqués aux échantillons. Les âges (U-Th)\He obtenus sur zircons sont compris entre 5.l et 9.4 Ma et sont corrélés de manière positive avec l'altitude. Les graphiques représentant l'âge et l'élévation montrent une nette rupture de la pente qui traduisent un accroissement de la vitesse d'exhumation de 0.4 à 3 km\Ma il y a 6 Ma. Cette accélération de l'exhumation est confirmée par les vitesses de refroidissement de l'ordre de 100°C\Ma obtenus à partir des différents âges sur zircons et à partir des autres systèmes géochronologiques. Les données obtenues par traces de fission sur apatite nous indiquent également une exhumation rapide jusqu'à la fin du Miocène. Nous interprétons cet évènement à 6 Ma comme étant lié à l'uplift tectonique du massif de l'Aar. Le fait que cet évènement soit tardi-miocène implique qu'une augmentation des précipitations au Pliocène n'a pas engendré cette exhumation rapide du massif de l'Aar. La crise Messinienne de la mer méditerranée n'a pas pu avoir une incidence directe sur l'érosion du massif de l'Aar mais l'érosion associée à ce phénomène à pu réduire le coin orogénique alpin et causer la réactivation des chevauchements du massif de l'Aar. L'exhumation rapide Miocène a été suivie pas une diminution des taux d'exhumation lors des derniers 6 Ma (jusqu'à 1.3 km\Ma). Cependant, les âges (U-Th)\He sur apatite ainsi que les traces de fission sur apatite des échantillons du tunnel enregistrent une perturbation de l'enregistrement décrit ci-dessus. Les âges obtenus sur les apatites sont sensiblement plus jeunes sous l'axe de la vallée en comparaison du profil d'âges attendus. En effet, on attendrait des âges plus jeunes sous les parties les plus profondes du tunnel à cause de l'advection de la chaleur dans les flancs de la vallée. La vallée est creusée dans des schistes alors que les flancs de celle-ci sont constitués de granitoïdes plus durs. En accord avec les observations hydrologiques du tunnel, nous suggérons que la perméabilité élevée des roches sous l'axe de la vallée à permi l'infiltration de fluides géothermaux qui a généré un réchauffement des roches. Ce réchauffement aurait donc induit une perte d'Hélium et un recuit des traces de fission dans les apatites. Ceci résulterait en un rajeunissement des âges apatite et en une sous-estimation des vitesses d'exhumation sous l'axe de la vallée. Cette étude à servi à démontrer la nécessité d'un échantillonnage fin et précis afin d'apporter des données thermochronologiques de qualité dans le contexte alpin. Cette approche multi-système nous a permi de contrôler la pertinence des données acquises ainsi que d'identifier les sources possibles d'erreurs lors d'études thermochronologiques. RÉSUMÉ LARGE PUBLIC Lors d'une orogenèse, les roches subissent un cycle comprenant une subduction, de la déformation, du métamorphisme et, finalement, un retour à la surface (ou exhumation). L'exhumation résulte de la déformation au sein de la zone de collision, menant à un raccourcissement et un apaissessement de l'édifice rocheux, qui se traduit par une remontée des roches, création d'une topographie et érosion. Puisque l'érosion agit comme un racloir sur la partie supérieure de l'édifice, des tentatives de corrélation entre les épisodes d'exhumation rapide et les périodes d'érosion intensive, dues aux changements climatiques, ont été effectuées. La connaissance de la chronologie et du lieu précis est d'une importance capitale pour une quelconque reconstruction de l'évolution d'une chaîne de montagne. Ces critères sont donnés par un retraçage des changements de la température de la roche en fonction du temps, nous donnant le taux de refroidissement. L'instant auquel les roches ont refroidit, passant une certaine température, est contraint par l'application de techniques de datation par radiométrie. Ces méthodes reposent sur la désintégration des isotopes radiogéniques, tels que l'uranium et le potassium, tous deux abondants dans les roches de la croûte terrestre. Les produits de cette désintégration ne sont pas retenus dans les minéraux hôtes jusqu'au moment du refroidissement de la roche sous une température appelée 'de fermeture' , spécifique à chaque système de datation. Par exemple, la désintégration radioactive des atomes d'uranium et de thorium produit des atomes d'hélium qui s'échappent d'un cristal de zircon à des températures supérieures à 200°C. En mesurant la teneur en uranium-parent, l'hélium accumulé et en connaissant le taux de désintégration, il est possible de calculer à quel moment la roche échantillonnée est passée sous la température de 200°C. Si le gradient géothermal est connu, les températures de fermeture peuvent être converties en profondeurs actuelles (p. ex. 200°C ≈ 7km), et le taux de refroidissement en taux d'exhumation. De plus, en datant par système radiométrique des échantillons espacés verticalement, il est possible de contraindre directement le taux d'exhumation de la section échantillonnée en observant les différences d'âges entre des échantillons voisins. Dans les Alpes suisses, le massif de l'Aar forme une structure orographique majeure. Avec des altitudes supérieures à 4000m et un relief spectaculaire de plus de 2000m, le massif domine la partie centrale de la chaîne de montagne. Les roches aujourd'hui exposées à la surface ont été enfouies à plus de 10 km de profond il y a 20 Ma, mais la topographie actuelle du massif de l'Aar semble surtout s'être développée par un soulèvement actif depuis quelques millions d'années, c'est-à-dire depuis le Néogène supérieur. Cette période comprend un changement climatique soudain ayant touché l'Europe il y a environ 5 Ma et qui a occasionné de fortes précipitations, entraînant certainement une augmentation de l'érosion et accélérant l'exhumation des Alpes. Dans cette étude, nous avons employé le système de datation (U-TH)/He sur zircon, dont la température de fermeture de 200°C est suffisamment basse pour caractériser l'exhumation du Néogène sup. /Pliocène. Les échantillons proviennent du Lötschental et du tunnel ferroviaire le plus profond du monde (NEAT) situé dans la partie ouest du massif de l'Aar. Considérés dans l'ensemble, ces échantillons se répartissent sur un dénivelé de 3000m et des âges de 5.1 à 9.4 Ma. Les échantillons d'altitude supérieure (et donc plus vieux) documentent un taux d'exhumation de 0.4 km/Ma jusqu'à il y a 6 Ma, alors que les échantillons situés les plus bas ont des âges similaires allant de 6 à 5.4 Ma, donnant un taux jusqu'à 3km /Ma. Ces données montrent une accélération dramatique de l'exhumation du massif de l'Aar il y a 6 Ma. L'exhumation miocène sup. du massif prédate donc le changement climatique Pliocène. Cependant, lors de la crise de salinité d'il y a 6-5.3 Ma (Messinien), le niveau de la mer Méditerranée est descendu de 3km. Un tel abaissement de la surface d'érosion peut avoir accéléré l'exhumation des Alpes, mais le bassin sud alpin était trop loin du massif de l'Aar pour influencer son érosion. Nous arrivons à la conclusion que la datation (U-Th)/He permet de contraindre précisément la chronologie et l'exhumation du massif de l'Aar. Concernant la dualité tectonique-érosion, nous suggérons que, dans le cas du massif de l'Aar, la tectonique prédomine.
Resumo:
Biochemical systems are commonly modelled by systems of ordinary differential equations (ODEs). A particular class of such models called S-systems have recently gained popularity in biochemical system modelling. The parameters of an S-system are usually estimated from time-course profiles. However, finding these estimates is a difficult computational problem. Moreover, although several methods have been recently proposed to solve this problem for ideal profiles, relatively little progress has been reported for noisy profiles. We describe a special feature of a Newton-flow optimisation problem associated with S-system parameter estimation. This enables us to significantly reduce the search space, and also lends itself to parameter estimation for noisy data. We illustrate the applicability of our method by applying it to noisy time-course data synthetically produced from previously published 4- and 30-dimensional S-systems. In addition, we propose an extension of our method that allows the detection of network topologies for small S-systems. We introduce a new method for estimating S-system parameters from time-course profiles. We show that the performance of this method compares favorably with competing methods for ideal profiles, and that it also allows the determination of parameters for noisy profiles.