1000 resultados para Paramètres atmosphériques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction et objectif: Lors d'essais cliniques, le pharmacien est responsable de la préparation et de la dispensation des médicaments à évaluer. Un article récent a toutefois montré que les aspects pharmaceutiques liés au contrôle de la dose administrée in fine étaient souvent mal contrôlés. Il peut exister une différence entre la dose nominale fournie par le certificat d'analyse du fabricant et la dose réellement administrée au sujet, biais qui se reporte en cascade sur l'estimation des paramètres pharmacocinétiques (PK), comme la clairance ou le volume de distribution. Ce travail visait à évaluer les biais entachant la quantité de médicament réellement injectée (iv/sc) aux volontaires d'un essai clinique étudiant la PK et la relation dose-réponse d'un nouveau produit biotechnologique. Méthode: La dose de médicament administrée lors de l'essai clinique (D) a été calculée de la manière suivante: D = C * V - pertes. La concentration du produit (C; titre nominal du fabricant) a été vérifiée par immuno-essai. Le volume de médicament injecté (V) a été déterminé pour chaque injection par pesée (n=72), en utilisant la masse de la seringue avant et après injection et la densité du produit. Enfin, une analyse in vitro a permis d'évaluer les pertes liées à l'adsorption du produit dans les lignes de perfusion et de choisir le dispositif adéquat in vivo. Résultats: La concentration du médicament s'est révélée proche du titre nominal (96 ± 7%), et a été utilisée comme référence. Le volume injecté était quant à lui entaché d'un biais systématique par rapport à la valeur théorique correspondant à 0.03 mL pour la dose minimale (i.e. 75% du volume à injecter à cette dose). Une analyse complémentaire a montré que cela s'expliquait par une réaspiration partielle de la solution médica-menteuse avant le retrait de la seringue après injection sc, due à l'élasticité du piston. En iv, le biais était par contre provoqué par une réaspiration du soluté de perfusion co-administré. Enfin, la mesure des quantités de médicament récupérées après injection dans le dispositif de perfusion a démontré des pertes minimales par adsorption. Discussion-conclusion: Cette étude confirme l'existence de biais inversement corrélés au volume et à la concentration du médicament administré, pouvant provoquer des erreurs importantes sur les paramètres PK. Ce problème est négligé ou insuffisamment considéré dans les protocoles de Phase I et nécessiterait une planification rigoureuse. Les procédures opératoires devraient attirer l'attention sur ce point crucial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'hypertension artérielle touche 5 à 10 % des femmes enceintes. Afin de prévenir les¦complications d'une pression sanguine trop élevée, des médicaments antihypertenseurs tel¦que le labétalol (bétabloquant) peuvent être administrés en cours de grossesse. Ces¦médicaments traversent tous, sans exception, la barrière foeto-placentaire. En ce qui¦concerne le labétalol, 30 à 50% de la concentration dans le sang maternel se retrouve dans¦le sang du cordon ombilical.¦Le principal objectif de cette étude rétrospective consiste à déterminer s'il existe une¦corrélation entre une éventuelle imprégnation du nouveau-né par du labétalol administré en¦prénatal et son adaptation à la naissance et durant les 96 premières heures de vie.¦Pour ce faire, une liste de 268 patientes, suivies par le service de gynécologie-obstétrique du¦CHUV sur une période allant du 01.01.2008 au 31.12.2009, a été établie à partir des motsclés¦hypertension artérielle et/ou pré-éclampsie comme diagnostic.¦Parmi ces 268 patientes, ont été retenues pour l'étude uniquement celles ayant reçu du¦labétalol durant les 4 derniers jours de leur grossesse. Cela concerne 38 patientes (14.2%)¦dont 3 d'entre elles ont eu une grossesse gémellaire. Par conséquent, cela représente un¦collectif de 41 nouveau-nés. Afin d'évaluer l'adaptation du nouveau-né à la naissance et¦durant les 96 premières heures de vie, différents paramètres ont été retenus parmi lesquels¦le besoin d'une hospitalisation dans le service de néonatologie, la fréquence cardiaque, la¦fréquence respiratoire, la tension artérielle ainsi que la glycémie. Pour écarter toute influence¦de la prématurité ou d'un poids de naissance trop bas sur l'adaptation néonatale, quatre¦groupes ont été constitués.¦Finalement, une analyse relative à la dose de labétalol a été abordée dans le but de¦déterminer une dose seuil à partir de laquelle l'adaptation du nouveau-né, imprégné par le¦labétalol serait plus difficile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de l'article Le carcinome hépatocellulaire reste une tumeur maligne de mauvais pronostic. Le but de cette étude rétrospective est d'étudier l'expression immunohistochimique semi-quantitative d'Hep Par 1 (hepatocyte paraffin 1) et de CD 10 (CALLA ou neprilysin) et leur valeur pronostique sur un collectif de 97 patients avec un carcinome hépatocellulaire traité à visée curative. Hep Par 1 réagit avec un épitope spécifique de l'hépatocyte au niveau de la membrane mitochondriale et se présente sous forme d'un marquage cytoplasmique diffus d'intensité variable, le foie non tumoral exprimant un marquage granulaire servant de contrôle interne positif. Le CD 10 correspond ä une metallopeptidase de la membrane cellulaire participant au processus de sécrétion hormonale et l'immunoréaction colore spécifiquement la portion luminale des canalicules biliaires du foie non tumoral, qui sert ainsi de contrôle interne positif. Le foie tumoral exprime ou non un marquage canaliculaire (CD 10 can), similaire au foie non tumoral, ou cytoplasmique (CD 10 cyt). Le marquage immunohistochimique est quantifié pour les 3 différents marqueurs (Hep Par 1, CD10 can et CD10 cyt) en fonction du pourcentage de cellules tumorales positives (score de 0 à 3 établi pour chaque marqueur immunohistochimique). L'élaboration d'un score combiné immunohistochimique (CIS) est obtenu en additionnant les scores d'Hep Par 1 et de CD10 con et en soustrayant le score de CD10 cyt. Dans l'analyse univariée, la survie globale des patients est prolongée de manière significative en cas de forte expression tumorale par Hep Par 1 (p=0,0005) et CD10 can (p=0,02). Dans l'analyse multivariée, la combinaison du CIS avec les autres paramètres histopathologiques pronostiques classiques du carcinome hépatocellulaire comme la taille tumorale, l'invasion vasculaire, la multifocalité de la tumeur et le grade tumoral montre que le score immunohistochimique combiné (CIS) reste le facteur pronostique le plus important (p=0,001). Les patients avec un CIS bas (<4) avec une survie moyenne de 17 mois ont 3,5 fois plus de risque de décès comparés à ceux avec un CIS élevé (>4) avec une survie moyenne de plus de 80 mois. En conclusion, une expression immunohistochimique élevée d'Hep Par 1 et de CD10 can en l'absence d'expression de CD10 cyt sont des facteurs pronostiques favorables pour les patients présentant un carcinome hépatocellulaire. La combinaison des marqueurs immunohistochimiques dans un score combiné pourrait être utilisé dans la prise en charge des patients avec un hépatocarcinome àvisée curative. Toutefois des études prospectives restent nécessaires pour confirmer l'utilité pronostique du CIS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une fois déposé, un sédiment est affecté au cours de son enfouissement par un ensemble de processus, regroupé sous le terme diagenèse, le transformant parfois légèrement ou bien suffisamment pour le rendre méconnaissable. Ces modifications ont des conséquences sur les propriétés pétrophysiques qui peuvent être positives ou négatives, c'est-à-dire les améliorer ou bien les détériorer. Une voie alternative de représentation numérique des processus, affranchie de l'utilisation des réactions physico-chimiques, a été adoptée et développée en mimant le déplacement du ou des fluides diagénétiques. Cette méthode s'appuie sur le principe d'un automate cellulaire et permet de simplifier les phénomènes sans sacrifier le résultat et permet de représenter les phénomènes diagénétiques à une échelle fine. Les paramètres sont essentiellement numériques ou mathématiques et nécessitent d'être mieux compris et renseignés à partir de données réelles issues d'études d'affleurements et du travail analytique effectué. La représentation des phénomènes de dolomitisation de faible profondeur suivie d'une phase de dédolomitisation a été dans un premier temps effectuée. Le secteur concerne une portion de la série carbonatée de l'Urgonien (Barrémien-Aptien), localisée dans le massif du Vercors en France. Ce travail a été réalisé à l'échelle de la section afin de reproduire les géométries complexes associées aux phénomènes diagénétiques et de respecter les proportions mesurées en dolomite. De plus, la dolomitisation a été simulée selon trois modèles d'écoulement. En effet, la dédolomitisation étant omniprésente, plusieurs hypothèses sur le mécanisme de dolomitisation ont été énoncées et testées. Plusieurs phases de dolomitisation per ascensum ont été également simulées sur des séries du Lias appartenant aux formations du groupe des Calcaire Gris, localisées au nord-est de l'Italie. Ces fluides diagénétiques empruntent le réseau de fracturation comme vecteur et affectent préférentiellement les lithologies les plus micritisées. Cette étude a permis de mettre en évidence la propagation des phénomènes à l'échelle de l'affleurement. - Once deposited, sediment is affected by diagenetic processes during their burial history. These diagenetic processes are able to affect the petrophysical properties of the sedimentary rocks and also improve as such their reservoir capacity. The modelling of diagenetic processes in carbonate reservoirs is still a challenge as far as neither stochastic nor physicochemical simulations can correctly reproduce the complexity of features and the reservoir heterogeneity generated by these processes. An alternative way to reach this objective deals with process-like methods, which simplify the algorithms while preserving all geological concepts in the modelling process. The aim of the methodology is to conceive a consistent and realistic 3D model of diagenetic overprints on initial facies resulting in petrophysical properties at a reservoir scale. The principle of the method used here is related to a lattice gas automata used to mimic diagenetic fluid flows and to reproduce the diagenetic effects through the evolution of mineralogical composition and petrophysical properties. This method developed in a research group is well adapted to handle dolomite reservoirs through the propagation of dolomitising fluids and has been applied on two case studies. The first study concerns a mid-Cretaceous rudist and granular platform of carbonate succession (Urgonian Fm., Les Gorges du Nan, Vercors, SE France), in which several main diagenetic stages have been identified. The modelling in 2D is focused on dolomitisation followed by a dédolomitisation stage. For the second study, data collected from outcrops on the Venetian platform (Lias, Mont Compomolon NE Italy), in which several diagenetic stages have been identified. The main one is related to per ascensum dolomitisation along fractures. In both examples, the evolution of the effects of the mimetic diagenetic fluid on mineralogical composition can be followed through space and numerical time and help to understand the heterogeneity in reservoir properties. Carbonates, dolomitisation, dédolomitisation, process-like modelling, lattice gas automata, random walk, memory effect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME POUR UN LARGE PUBLIC Parmi les globules blancs, les lymphocytes T 004 jouent un rôle primordial dans la coordination de la réponse immunitaire contre les pathogènes et les lymphocytes T CD8 dans leur élimination. Lors d'une infection par le virus de l'immunodéficience humaine (VIH-1), non seulement les cellules T CD4 sont les principales cibles d'infections, mais aussi elles disparaissent progressivement tout au long de la maladie. Ce phénomène, appelé aussi épuisement des lymphocytes T CD4, est la principale cause provoquant le Syndrome d'Immunodéficience Acquise (SIDA). Malgré de grands efforts de recherche, nous ne sommes toujours pas en mesure de dire si ce phénomène est dû à un défaut dans la production de nouvelles cellules ou à une destruction massive de cellules en circulation. Dans cette étude, nous nous proposions, dans un premier temps, de comparer la production de nouvelles cellules T CD4 et CD8 chez des individus VIH-négatifs et positifs. Les cellules nouvellement produites portent un marqueur commun que l'on appelle TREC et qui est facilement mesurable. En considérant des paramètres cliniques, nous étions en mesure de déterminer le niveau de TRECs de cellules T CD4 et CD8 dans différentes phases de la maladie. De là, nous avons pu déterminer que le niveau de TREC est toujours plus bas dans les cellules T CD8 de patients VIH-positifs comparativement à notre groupe contrôle. Nous avons pu déterminer par une analyse ultérieure que cette différence est due à une forte prolifération de ces cellules chez les patients VIH-positifs, ce qui a pour effet de diluer ce marqueur. En revanche, la production de nouvelles cellules T CD4 chez des patients VIH-positifs est accentuée lors de la phase précoce de la maladie et largement réprimée lors de la phase tardive. Dans un second temps, nous avons effectué une analyse à grande échelle de l'expression de gènes associés à la division cellulaire sur des lymphocytes T CD4 et CD8 d'individus VIH-¬positifs et négatifs, avec comme contrôle des cellules proliférant in vitro. De cette étude, nous avons pu conclure que les cellules T CD8 de patients VIH-positifs étaient en état de prolifération, alors que les lymphocytes T CD4 présentaient des défauts majeurs conduisant à un arrêt de la division cellulaire. Nos résultats montrent que la capacité à produire de nouvelles cellules chez des patients VIH¬positifs reste active longtemps pendant la maladie, mais que l'incapacité des cellules T CD4 à proliférer peut enrayer la reconstitution immunitaire chez ces individus. ABSTRACT The hallmark of HIV-1 infection is the depletion of CD4 T cells. Despite extensive investigation, the mechanisms responsible for the loss of CD4 T cells have been elucidated only partially. In particular, it remains controversial whether CD4 T cell depletion results from a defect in T cell production or from a massive peripheral destruction. In this study, de novo T cell generation has been investigated by measuring T cell receptor rearrangement excision circles (TRECs) on large cohorts of HIV-negative (N=120) and HIV-1 infected (N=298) individuals. Analysis of TREC levels was performed in HIV-infected subjects stratified by the stage of HIV disease based on CD4 T cell counts (early: >500 CD4 T cells/µl; intermediate: <500>200; late: <200) and by age (20 to 60 years, n = 259). Our data show that TREC levels in CD8 T cells were significantly lower in HIV-infected subjects at any stage of disease compared to the control group. In contrast, TREC levels in CD4 T cells were significantly higher in HIV-infected subjects at early stages disease while no significant differences were observed at intermediate stages of the disease and were severely reduced only at late stages of disease. To investigate further the status of cell cycle in peripheral CD4 and CD8 T cells in HIV-1 infections, we determined the pattern of gene expression with the microarray technology. In particular, CD4 and CD8 T cells of HIV-1 infected and HIV-negative subjects were analysed by Cell Cycle cDNA expression array. The patterns of gene expression were compared to in vitro stimulated CD4 and CD8 T cells and this analysis showed that CD8 T cells of HIV-1 infected subjects had a pattern of gene expression very similar to that of in vitro stimulated CD8 T cells thus indicating ongoing cell cycling. In contrast, CD4 T cells of HIV-1 infected subjects displayed a complex pattern of gene expression. In fact, CD4 T cells expressed high levels of genes typically associated with cell activation, but low levels of cell cycle genes. Therefore, these results indicated that activated CD4 T cells of HIV-1 infected subjects were in cell cycle arrest. Taking together these results indicate that thymus function is preserved for long time during HIV- 1 infection and the increase observed in early stage disease may represent a compensatory mechanism to the depletion of CD4 T cells. However, we provide evidence for a cell cycle arrest of peripheral CD4 T cells that may prevent potentially the replenishment of CD4 T cells. RESUME Les mécanismes responsables de la perte des lymphocytes T CD4 lors de l'infection pas VIH n'ont été élucidés que partiellement. Nous ne savons toujours pas si l'épuisement des lymphocytes T CD4 résulte d'un défaut dans la production de cellules ou d'une destruction périphérique massive. Dans cette étude, la production de cellules T a été étudiée en mesurant les cercles d'excision générés lors du réarrangement du récepteur au cellules T (TRECs) chez des individus VIH-négatifs (N=120) et VIH-1 positifs (N=298). L'analyse des niveaux de TREC a été faite chez sujets HIV-infectés en considérant les phases de la maladie sur la base des comptes CD4 (phase précoce: > 500 cellules CD4/µl; intermédiaire: < 500>200; tardive: < 200) et par âge. Nos données démontrent que les niveaux de TRECs des cellules T CD8 étaient significativement plus bas chez les sujets VIH-1 infectés, à tous les stades de la maladie comparativement au groupe contrôle. En revanche, les niveaux de TRECs des cellules T CD4 étaient significativement plus élevés chez les sujets VIH-1 infectés durant la phase précoce de la maladie, tandis qu'aucune différence significative n'était observée durant la phase intermédiaire et étaient très réduits dans la phase tardive. Dans une deuxième partie, nous avons utilisé la technique des biopuces à d'ADN complémentaire pour analyser la régulation du cycle cellulaire chez les lymphocytes T CD4 et CD8 périphériques lors d'une infection au VIH-1. Des profils d'expression ont été déterminés et comparés à ceux de cellules T CD4 et CD8 stimulées in vitro, démontrant que les cellules T CD8 des sujets VIH-positifs avaient un profil d'expression très semblable à celui des cellules stimulées in vitro en prolifération. En revanche, les lymphocytes T CD4 des sujets VIH-1 positifs avaient un profil d'expression de gène plus complexe. En fait, leur profil montrait une sur- expression de gènes associés à une activation cellulaire, mais une sous-expression de ceux induisant une division. Ainsi, ces résultats indiquent que les lymphocytes T CD4 d'individus VIH-positifs présentent des dérégulations qui conduisent à un arrêt du cycle cellulaire. Ces résultats montrent que la fonction thymique est préservée longtemps pendant l'infection au VIH-1 et que l'augmentation de la quantité de TRECs dans la phase précoce de la maladie peut représenter un mécanisme compensatoire à l'épuisement des cellules T CD4. Cependant, nous démontrons aussi un clair dysfonctionnement du cycle cellulaire chez les cellules T CD4 d'individus infectés par VIH-1 ce qui peut enrayer la reconstitution du système immunitaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles hydrologiques développés pour les pluies extrêmes de type PMP sont difficiles à paramétrer en raison du manque de données disponibles pour ces évènements et de la complexité du terrain. Cet article présente les processus et les résultats de l'ajustement des paramètres pour un modèle hydrologique distribué. Ce modèle à une échelle fine a été développé pour l'estimation des crues maximales probables dans le cas d'une PMP. Le calcul effectué pour deux bassins versants test suisses et pour deux épisodes d'orages d'été concerne l'estimation des paramètres du modèle, divisé en deux groupes. La première concerne le calcul des vitesses des écoulements et l'autre la détermination de la capacité d'infiltration initiale et finale pour chaque type de sol. Les résultats validés avec l'équation de Nash montrent une bonne corrélation entre les débits simulés et ceux observés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé :Il existe peu d'études dans la littérature comparant les caractéristiques anatomo-cliniques et évolutives des principales formes histologiques de carcinome rénal. Dans nombre de ces études, les carcinomes rénaux étudiés étaient de grades et de stades différents.Buts de l'étude :L'objet de notre étude était d'examiner les caractéristiques anatomo-cliniques d'une série de carcinome rénaux à cellules chromophobes (CRCCh) et de les comparer à celles des carcinomes rénaux conventionnels (CRC) et des carcinomes rénaux papillaires de type 1 (CRP1), à grade et stade équivalents.Matériel et méthodes :41 CRCCh, 40 CRP1 et 153 CRC ont été examinés en se concentrant sur les paramètres suivants : âge et sexe du patient, taille de la tumeur, stade, grade et caractéristiques histologiques. Les survies globales, survies sans récidive et survies sans métastase de chaque groupe tumoral ont été comparées, à grade et stade équivalents (méthode de Kaplan Meier). Les facteurs pronostiques les plus importants ont été recherchés (modèle de Cox).Résultats :En analyse univariée, le CRCCh est celui qui a le meilleur pronostic en terme de survie globale et de survie sans métastase parmi les tumeurs de grade et de stade équivalents. En analyse multivariée, l'histologie CRC est le facteur pronostique le plus important et le plus défavorable.Conclusion A grade et stade équivalents, le pronostic du CRCCh est sensiblement le même que celui du CRP 1 mais significativement meilleur que celui du CRC, avec lequel il ne doit pas être confondu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lorsque des poètes comme Ausone, Paulin de Noie et Claudien s'expriment en leur propre nom, une telle prise de parole n'est pas anodine et vise à générer certains effets sur le public. De manière générale, la première personne autobiographique ne doit pas être considérée comme un miroir de la personnalité du poète, mais comme une stratégie rhétorique destinée à soutenir la diffusion d'un message. Pour comprendre comment l'auteur se met en scène dans son oeuvre, il faut tenir compte d'au moins quatre paramètres : les influences génériques, la mise en scène de l'énonciation, les jeux intertextuels contribuant à façonner cette représentation auctoriale et les liens de celle- ci avec d'autres images que le poète donne de lui-même à l'intérieur d'un plus large corpus de textes. En comparant les personae mises en scène par ces trois écrivains de l'Antiquité tardive dans différentes formes littéraires (lettres versifiées, discours à visée didactique, exordes, éloges d'autrui), cette thèse de doctorat démontre que l'emploi du « je » est généralement lié à la recherche de persuasion et que ces figures littéraires ont en commun plusieurs traits caractéristiques qui offrent un point de départ à des développements variés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les approches multimodales dans l'imagerie cérébrale non invasive sont de plus en plus considérées comme un outil indispensable pour la compréhension des différents aspects de la structure et de la fonction cérébrale. Grâce aux progrès des techniques d'acquisition des images de Resonance Magnetique et aux nouveaux outils pour le traitement des données, il est désormais possible de mesurer plusieurs paramètres sensibles aux différentes caractéristiques des tissues cérébraux. Ces progrès permettent, par exemple, d'étudier les substrats anatomiques qui sont à la base des processus cognitifs ou de discerner au niveau purement structurel les phénomènes dégénératifs et développementaux. Cette thèse met en évidence l'importance de l'utilisation d'une approche multimodale pour étudier les différents aspects de la dynamique cérébrale grâce à l'application de cette approche à deux études cliniques: l'évaluation structurelle et fonctionnelle des effets aigus du cannabis fumé chez des consommateurs réguliers et occasionnels, et l'évaluation de l'intégrité de la substance grise et blanche chez des jeunes porteurs de la prémutations du gène FMR1 à risque de développer le FXTAS (Fragile-X Tremor Ataxia Syndrome). Nous avons montré que chez les fumeurs occasionnels de cannabis, même à faible concentration du principal composant psychoactif (THC) dans le sang, la performance lors d'une tâche visuo-motrice est fortement diminuée, et qu'il y a des changements dans l'activité des trois réseaux cérébraux impliqués dans les processus cognitifs: le réseau de saillance, le réseau du contrôle exécutif, et le réseau actif par défaut (Default Mode). Les sujets ne sont pas en mesure de saisir les saillances dans l'environnement et de focaliser leur attention sur la tâche. L'augmentation de la réponse hémodynamique dans le cortex cingulaire antérieur suggère une augmentation de l'activité introspective. Une investigation des ef¬fets au niveau cérébral d'une exposition prolongée au cannabis, montre des changements persistants de la substance grise dans les régions associées à la mémoire et au traitement des émotions. Le niveau d'atrophie dans ces structures corrèle avec la consommation de cannabis au cours des trois mois précédant l'étude. Dans la deuxième étude, nous démontrons des altérations structurelles des décennies avant l'apparition du syndrome FXTAS chez des sujets jeunes, asymptomatiques, et porteurs de la prémutation du gène FMR1. Les modifications trouvées peuvent être liées à deux mécanismes différents. Les altérations dans le réseau moteur du cervelet et dans la fimbria de l'hippocampe, suggèrent un effet développemental de la prémutation. Elles incluent aussi une atrophie de la substance grise du lobule VI du cervelet et l'altération des propriétés tissulaires de la substance blanche des projections afférentes correspondantes aux pédoncules cérébelleux moyens. Les lésions diffuses de la substance blanche cérébrale peu¬vent être un marquer précoce du développement de la maladie, car elles sont liées à un phénomène dégénératif qui précède l'apparition des symptômes du FXTAS. - Multimodal brain imaging is becoming a leading tool for understanding different aspects of brain structure and function. Thanks to the advances in Magnetic Resonance imaging (MRI) acquisition schemes and data processing techniques, it is now possible to measure different parameters sensitive to different tissue characteristics. This allows for example to investigate anatomical substrates underlying cognitive processing, or to disentangle, at a pure structural level degeneration and developmental processes. This thesis highlights the importance of using a multimodal approach for investigating different aspects of brain dynamics by applying this approach to two clinical studies: functional and structural assessment of the acute effects of cannabis smoking in regular and occasional users, and grey and white matter assessment in young FMR1 premutation carriers at risk of developing FXTAS. We demonstrate that in occasional smokers cannabis smoking, even at low concentration of the main psychoactive component (THC) in the blood, strongly decrease subjects' performance on a visuo-motor tracking task, and globally alters the activity of the three brain networks involved in cognitive processing: the Salience, the Control Executive, and the Default Mode networks. Subjects are unable to capture saliences in the environment and to orient attention to the task; the increase in Hemodynamic Response in the Anterior Cingulate Cortex suggests an increase in self-oriented mental activity. A further investigation on long term exposure to cannabis, shows a persistent grey matter modification in brain regions associated with memory and affective processing. The degree of atrophy in these structures also correlates with the estimation of drug use in the three months prior the participation to the study. In the second study we demonstrate structural changes in young asymptomatic premutation carriers decades before the onset of FXTAS that might be related to two different mechanisms. Alteration of the cerebellar motor network and of the hippocampal fimbria/ fornix, may reflect a potential neurodevelopmental effect of the premutation. These include grey matter atrophy in lobule VI and modification of white matter tissue property in the corresponding afferent projections through the Middle Cerebellar Peduncles. Diffuse hemispheric white matter lesions that seem to appear closer to the onset of FXTAS and be related to a neurodegenerative phenomenon may mark the imminent onset of FXTAS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Etude de la valeur pronostique de la biopsie du ganglion sentinelle dans une étude prospective monocentrique de 327 patients atteints de mélanome malin But II s'agit de confirmer la validité de la biopsie du ganglion sentinelle, d'en définir la morbidité, d'investiguer les facteurs prédictifs pour le statut du ganglion sentinelle ainsi que de déterminer les facteurs pronostiques pour la survie sans récidive et la survie spécifique liée à la maladie. Matériel et méthode D'octobre 1997 à décembre 2004, 327 patients consécutifs présentant un mélanome cutané primaire des membres, du tronc et de la tête, sans adénopathie clinique ni métastase à distance ont été inclus. La biopsie du ganglion sentinelle a été réalisée selon la triple technique (lymphoscintigraphie, colorant bleu vital et sonde de détection gamma). Les paramètres et la survie ont été évalués par différentes analyses de régression logistique multiple selon Cox et la survie évaluée selon Kaplan Meier. Résultats Vingt-trois pour cent des patients présentaient au moins un ganglion sentinelle métastatique, ce qui était associé de façon significative à l'épaisseur selon Breslow (p<0.001). Le taux de succès de la biopsie du ganglion sentinelle était de 99.1% et sa morbidité de 7.6%. Avec une durée médiane de suivi de 33 mois, la survie sans récidive à 5 ans était de 43% pour les patients avec un ganglion sentinelle positif et de 83.5% pour ceux avec un ganglion sentinelle négatif. La survie spécifique liée à la maladie à 5 ans était de 49% pour les patients avec un ganglion sentinelle positif et de 87.4% pour ceux avec un ganglion sentinelle négatif. Le taux de faux négatif de la biopsie du ganglion sentinelle était de 8.6%. L'analyse multivariée a démontré que la survie sans récidive était significativement péjorée par :l'épaisseur selon Breslow (RR=5.6, p<0.001), un ganglion sentinelle positif (RR=5.0, p<0.001), et le sexe masculin (RR=2.9, p=0.001). La survie spécifique liée à la maladie était significativement diminuée par : un ganglion sentinelle métastatique (RR=8.4, p<O.OOI), le sexe masculin (RR=6.1, p<0.001), l'épaisseur selon Breslow (RR=3.2, p=0.013), et la présence d'une ulcération (RR=2.6, p=0.015). Conclusion La biopsie du ganglion sentinelle est une procédure fiable avec une haute sensibilité (91.4%) et une faible morbidité (7.6%). L'épaisseur selon Breslow était le seul facteur prédictif significatif pour le statut du ganglion sentinelle. La survie sans récidive était péjorée selon un ordre décroissant par :l'épaisseur selon Breslow, un ganglion sentinelle métastatique, et le sexe masculin. De façon similaire la survie spécifique liée à la maladie était péjorée par : un ganglion sentinelle métastatique, le sexe masculin, l'épaisseur selon Breslow, et une ulcération. Ces données renforcent le statut du ganglion sentinelle en tant que puissant moyen pour évaluer le stade tumoral ainsi que le pronostic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Le Grand tétras est un galliforme de montagne apparenté au faisan et au tétras lyre. Il est distribué de manière continue à travers la toundra et les montagnes de moyenne altitude en Europe de l'ouest. Toutefois, les populations d'Europe de l'ouest ont subi un déclin constant au cours des derniers siècles. Les causes de ce déclin sont probablement liées à l'activité humaine, telle .que l'élevage ou le tourisme, qui ont engendré une modification et une fragmentation de l'habitat de l'espèce. Malheureusement, les populations soumises à de forts déclins démographiques peuvent subir des effets génétiques (augmentation de la consanguinité et perte de diversité génétique) pouvant diminuer leur potentiel de reproduction et conduire irrémédiablement à l'extinction. Cette thèse présente les analyses conduites dans le but d'estimer l'impact du déclin démographique des populations de Grand tétras sur l'étendue et la distribution de leur variabilité génétique dans le Jura et dans les Pyrénées. Du fait de la législation locale protégeant les tétraonidés en général, mais également en raison de la biologie très cryptique du Grand tétras, l'ensemble des analyses de cette étude a été réalisé à partir de matériel génétique extrait des fientes (ou échantillonnage génétique non invasif). Dans la première partie de l'étude, je détaille les protocoles d'extraction. d'ADN et d'amplification par PCR modifiés à partir des protocoles classiques utilisant des échantillons conventionnels, riches en ADN. L'utilisation d'ADN fécal impose des contraintes dues à la mauvaise qualité et à la faible quantité du matériel génétique à disposition dans les fientes. Ces contraintes ont pu être partiellement contournées en réalisant des répétitions multiples du génotypage afin d'obtenir un degré de fiabilité suffisante. J'ai également analysé les causes de la dégradation de l'ADN dans les excréments. Parmi les causes les plus communes, telles que l'activité bactérienne, l'hydrolyse spontanée et la dégradation enzymatique par les DNases libres, c'est ce dernier facteur qui apparaît comme étant la cause majeure et la plus rapide responsable de la dégradation de la qualité des échantillons. La rapidité de l'action enzymatique suggère que les plans d'échantillonnages de excréments sur le terrain pourraient être optimisés en les réalisant dans des conditions climatiques froides et sèches, favorisant ainsi l'inhibition des DNases. La seconde partie de la thèse est une étude par simulation visant à déterminer la capacité du logiciel Structure à identifier les structures génétiques complexes et hiérarchiques fréquemment rencontrées dans les populations naturelles, et ce en utilisant différents types de marqueurs génétiques. Les troisième et quatrième parties de cette thèse décrivent le statut génétique des populations résiduelles du Jura et des Pyrénées à partir de l'analyse de 11 loci microsatellites. Nous n'avons pas pu mettre en évidence dans les deux populations des effets liés à la consanguinité ou à la réduction de la diversité génétique. De plus, la différenciation génétique entre les patches d'habitats favorables reste modérée et corrélée à la distance géographique, ce qui suggère que la dispersion d'individus entre les patches a été importante au moins pendant ces dernières générations. La comparaison des paramètres de la diversité génétique avec ceux d'autres populations de Grand tétras, ou d'autres espèces proches, indique que la population du Jura a retenu une proportion importante de sa diversité originelle. Ces résultats suggèrent que le déclin récent des populations a jusqu'ici eu un impact modéré sur les facteurs génétiques et que ces populations semblent avoir conservé le potentiel génétique nécessaire à leur survie à long terme. Finalement, en cinquième partie, l'analyse de l'apparentement entre les mâles qui participent à la parade sur les places de chant (leks) indique que ces derniers sont distribués en agrégats de manière non aléatoire, préférentiellement entre individus apparentés. De plus, la corrélation entre les distances génétique et géographique entre les leks est en accord avec les motifs d'isolement par la distance mis en évidence à d'autres niveaux hiérarchiques (entre patches d'habitat et populations), ainsi qu'avec les études menées sur d'autres espèces ayant choisi ce même système de reproduction. En conclusion, cette première étude basée uniquement sur de l'ADN nucléaire aviaire extrait à partir de fèces a fourni des informations nouvelles qui n'auraient pas pu être obtenues par une méthode d'observation sur le terrain ou d'échantillonnage génétique classique. Aucun oiseau n'a été dérangé ou capturé, et les résultats sont comparables à d'autres études concernant des espèces proches. Néanmoins, la taille de ces populations approche des niveaux au-dessous desquels la survie à long terme est fortement incertaine. La persistance de la diversité génétique pour les prochaines générations reste en conséquence liée à la survie des adultes et à une reprise du succès de la reproduction. ABSTRACT Capercaillie (Tetrao urogallus) is a large grouse that is continuously distributed across the tundra and the mid-high mountains of Western Europe. However, the populations in Western Europe have been showing a constant decline during the last decades. The causes for this decline are possibly related to human activities, such as cattle breeding and tourism that have both led to habitat modification and fragmentation. Unfortunately, populations that have undergone drastic demographic bottlenecks often go through genetic processes of inbreeding and loss of diversity that decrease their fitness and eventually lead to extinction. This thesis presents the investigations conducted to estimate the impact of the demographic decline of capercaillie populations on the extent and distribution of their genetic variability in the Jura and in the Pyrenees mountains. Because grouse are protected by wildlife legislation, and also because of the cryptic behaviour of capercaillie, all DNA material used in this study was extracted from faeces (non-invasive genetic sampling). In the first part of my thesis, I detail the protocols of DNA extraction and PCR amplification adapted from classical methods using conventional DNA-rich samples. The use of faecal DNA imposes specific constraints due to the low quantity and the highly degraded genetic material available. These constraints are partially overcome by performing multiple genotyping repetitions to obtain sufficient reliability. I also investigate the causes of DNA degradation in faeces. Among the main degraders, namely bacterial activity, spontaneous hydrolysis, and free-¬DNase activities, the latter was pointed out as the most important according to our experiments. These enzymes degrade DNA very rapidly, and, as a consequence, faeces sampling schemes must be planned preferably in cold and dry weather conditions, allowing for enzyme activity inhibition. The second part of the thesis is a simulation study aiming to assess the capacity of the software Structure to detect population structure in hierarchical models relevant to situations encountered in wild populations, using several genetic markers. The methods implemented in Structure appear efficient in detecting the highest hierarchical structure. The third and fourth parts of the thesis describe the population genetics status of the remaining Jura and Pyrenees populations using 11 microsatellite loci. In either of these populations, no inbreeding nor reduced genetic diversity was detected. Furthermore, the genetic differentiation between patches defined by habitat suitability remains moderate and correlated with geographical distance, suggesting that significant dispersion between patches was at work at least until the last generations. The comparison of diversity indicators with other species or other populations of capercaillie indicate that population in the Jura has retained a large part of its original genetic diversity. These results suggest that the recent decline has had so forth a moderate impact on• genetic factors and that these populations might have retained the potential for long term survival, if the decline is stopped. Finally, in the fifth part, the analysis of relatedness between males participating in the reproduction parade, or lek, indicate that capercaillie males, like has been shown for some other grouse species, gather on leks• among individuals that are more related than the average of the population. This pattern appears to be due to both population structure and kin-association. As a conclusion, this first study relying exclusively on nuclear DNA extracted from faeces has provided novel information that was not available through field observation or classical genetic sampling. No bird has been captured or disturbed, and the results are consistent with other studies of closely related species. However, the size of these populations is approaching thresholds below which long-term survival is unlikely. The persistence of genetic diversity for the forthcoming generations remains therefore bond to adult survival and to the increase of reproduction success.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de ce travail est le développement d'une méthode de caractérisation objective de la qualité d'image s'appliquant à des systèmes de mammographie analogique, utilisant un couple écran-film comme détecteur, et numérique, basé sur une technologie semi-conductrice, ceci en vue de la comparaison de leurs performances. La méthode développée tient compte de la gamme dynamique du détecteur, de la détectabilité de structures de haut contraste, simulant des microcalcifications, et de structures de bas contraste, simulant des opacités (nodules tumoraux). La méthode prend également en considération le processus de visualisation de l'image, ainsi que la réponse de l'observateur. Pour réaliser ceci, un objet-test ayant des propriétés proches de celles d'un sein comprimé, composé de différents matériaux équivalents aux tissus, allant du glandulaire à l'adipeux, et comprenant des zones permettant la simulation de structures de haut et bas contraste, ainsi que la mesure de la résolution et celle du bruit, a été développé et testé. L'intégration du processus de visualisation a été réalisée en utilisant une caméra CCD mesurant directement les paramètres de qualité d'image, à partir de l'image de l'objet-test, dans une grandeur physique commune au système numérique et analogique, à savoir la luminance arrivant sur l'oeil de l'observateur. L'utilisation d'une grandeur synthétique intégrant dans un même temps, le contraste, le bruit et la résolution rend possible une comparaison objective entre les deux systèmes de mammographie. Un modèle mathématique, simulant la réponse d'un observateur et intégrant les paramètres de base de qualité d'image, a été utilisé pour calculer la détectabilité de structures de haut et bas contraste en fonction du type de tissu sur lequel celles-ci se trouvent. Les résultats obtenus montrent qu'à dose égale la détectabilité des structures est significativement plus élevée avec le système de mammographie numérique qu'avec le système analogique. Ceci est principalement lié au fait que le bruit du système numérique est plus faible que celui du système analogique. Les résultats montrent également que la méthodologie, visant à comparer des systèmes d'imagerie numérique et analogique en utilisant un objet-test à large gamme dynamique ainsi qu'une caméra, peut être appliquée à d'autres modalités radiologiques, ainsi qu'à une démarche d'optimisation des conditions de lecture des images.<br/><br/>The goal of this work was to develop a method to objectively compare the performance of a digital and a screen-film mammography system in terms of image quality and patient dose. We propose a method that takes into account the dynamic range of the image detector and the detection of high contrast (for microcalcifications) and low contrast (for masses or tumoral nodules) structures. The method also addresses the problems of image visualization and the observer response. A test object, designed to represent a compressed breast, was constructed from various tissue equivalent materials ranging from purely adipose to purely glandular composition. Different areas within the test object permitted the evaluation of low and high contrast detection, spatial resolution, and image noise. All the images (digital and conventional) were captured using a CCD camera to include the visualization process in the image quality assessment. In this way the luminance reaching the viewer?s eyes can be controlled for both kinds of images. A global quantity describing image contrast, spatial resolution and noise, and expressed in terms of luminance at the camera, can then be used to compare the two technologies objectively. The quantity used was a mathematical model observer that calculates the detectability of high and low contrast structures as a function of the background tissue. Our results show that for a given patient dose, the detection of high and low contrast structures is significantly better for the digital system than for the conventional screen-film system studied. This is mainly because the image noise is lower for the digital system than for the screen-film detector. The method of using a test object with a large dynamic range combined with a camera to compare conventional and digital imaging modalities can be applied to other radiological imaging techniques. In particular it could be used to optimize the process of radiographic film reading.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV dans le centre de masse) et haute luminosité (1034 cm-2s-1), pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haute intensité, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. Cette expérience, qui a été réalisée avec succès au CERN au cours de l'année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positron), est le sujet central de ce rapport. L'expérience de combinaison des paquets d'électrons consiste à accélérer cinq impulsions dont les paquets d'électrons sont espacés de 10 cm, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dont les paquets d'électrons sont espacés de 2 cm, multipliant ainsi la fréquence des paquets d'électrons, ainsi que la charge par impulsion, par cinq. Cette combinaison est réalisée au moyen de structures RF résonnantes sur un mode déflecteur, qui créent dans l'anneau une déformation locale et dépendante du temps de l'orbite du faisceau. Ce mécanisme impose plusieurs contraintes de dynamique de faisceau comme l'isochronicité, ainsi que des tolérances spécifiques sur les paquets d'électrons, qui sont définies dans ce rapport. Les études pour la conception de la Phase Préliminaire du CTF3 sont détaillées, en particulier le nouveau procédé d'injection avec les déflecteurs RF. Les tests de haute puissance réalisés sur ces cavités déflectrices avant leur installation dans l'anneau sont également décrits. L'activité de mise en fonctionnement de l'expérience est présentée en comparant les mesures faites avec le faisceau aux simulations et calculs théoriques. Finalement, les expériences de multiplication de fréquence des paquets d'électrons sont décrites et analysées. On montre qu'une très bonne efficacité de combinaison est possible après optimisation des paramètres de l'injection et des déflecteurs RF. En plus de l'expérience acquise sur l'utilisation de ces déflecteurs, des conclusions importantes pour les futures activités CTF3 et CLIC sont tirées de cette première démonstration de la multiplication de fréquence des paquets d'électrons par injection RF dans un anneau isochrone.<br/><br/>The Compact LInear Collider (CLIC) collaboration studies the possibility of building a multi-TeV (3 TeV centre-of-mass), high-luminosity (1034 cm-2s-1) electron-positron collider for particle physics. The CLIC scheme is based on high-frequency (30 GHz) linear accelerators powered by a low-energy, high-intensity drive beam running parallel to the main linear accelerators (Two-Beam Acceleration concept). One of the main challenges to realize this scheme is to generate the drive beam in a low-frequency accelerator and to achieve the required high-frequency bunch structure needed for the final acceleration. In order to provide bunch frequency multiplication, the main manipulation consists in sending the beam through an isochronous combiner ring using radio-frequency (RF) deflectors to inject and combine electron bunches. However, such a scheme has never been used before, and the first stage of the CLIC Test Facility 3 (CTF3) project aims at a low-charge demonstration of the bunch frequency multiplication by RF injection into an isochronous ring. This proof-of-principle experiment, which was successfully performed at CERN in 2002 using a modified version of the LEP (Large Electron Positron) pre-injector complex, is the central subject of this report. The bunch combination experiment consists in accelerating in a linear accelerator five pulses in which the electron bunches are spaced by 10 cm, and combining them in an isochronous ring to obtain one pulse in which the electron bunches are spaced by 2 cm, thus achieving a bunch frequency multiplication of a factor five, and increasing the charge per pulse by a factor five. The combination is done by means of RF deflecting cavities that create a time-dependent bump inside the ring, thus allowing the interleaving of the bunches of the five pulses. This process imposes several beam dynamics constraints, such as isochronicity, and specific tolerances on the electron bunches that are defined in this report. The design studies of the CTF3 Preliminary Phase are detailed, with emphasis on the novel injection process using RF deflectors. The high power tests performed on the RF deflectors prior to their installation in the ring are also reported. The commissioning activity is presented by comparing beam measurements to model simulations and theoretical expectations. Eventually, the bunch frequency multiplication experiments are described and analysed. It is shown that the process of bunch frequency multiplication is feasible with a very good efficiency after a careful optimisation of the injection and RF deflector parameters. In addition to the experience acquired in the operation of these RF deflectors, important conclusions for future CTF3 and CLIC activities are drawn from this first demonstration of the bunch frequency multiplication by RF injection into an isochronous ring.<br/><br/>La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV) pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haut courant, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. L'expérience consiste à accélérer cinq impulsions, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dans laquelle la fréquence des paquets d'électrons et le courant sont multipliés par cinq. Cette combinaison est réalisée au moyen de structures déflectrices RF qui créent dans l'anneau une déformation locale et dépendante du temps de la trajectoire du faisceau. Les résultats de cette expérience, qui a été réalisée avec succès au CERN au cours de l?année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positon), sont présentés en détail.