996 resultados para taille de particule


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMESuite à un accident vasculaire cérébral (AVC) ischémique, les cellules gliales ducerveau deviennent activées, de nombreuses cellules inflammatoires pénètrent dans letissu lésé et sécrètent une grande variété de cytokines et chémokines. Aujourd'hui, ilexiste des interrogations sur les effets bénéfiques ou délétères de cette inflammation surla taille de la lésion et le pronostic neurologique.Ce projet vise à évaluer l'effet d'un peptide neuroprotecteur, D-JNKI1, inhibiteur de lavoie pro-apoptotique de signalisation intracellulaire c-Jun N-terminal kinase (JNK), surl'inflammation post-ischémique.Nous montrons d'abord que la microglie est largement activée dans toute la région lésée48 h après l'induction d'une ischémie chez la souris. Cependant, malgré l'inhibition dela mort neuronale par D-JNKI1 évaluée à 48 h, nous n'observons de modification ni del'activation de la microglie, ni de son nombre. Ensuite, nous montrons que le cerveaupeut être protégé même s'il y a une augmentation massive de la sécrétion de médiateursinflammatoires dans la circulation systémique très tôt après induction d'un AVCischémique. De plus, nous notons que la sécrétion de molécules inflammatoires dans lecerveau n'est pas différente entre les animaux traités par D-JNKI1 ou une solutionsaline, bien que nous ayons obtenu une neuroprotection significative chez les animauxtraités.En conclusion, nous montrons que l'inhibition de la voie de JNK par D-JNKI1n'influence pas directement l'inflammation post-ischémique. Ceci suggère quel'inhibition de l'inflammation n'est pas forcément nécessaire pour obtenir en hautdegré de neuroprotection du parenchyme lésé après ischémie cérébrale, et que lesmécanismes inflammatoires déclenchés lors d'une ischémie cérébrale ne sont pasforcément délétères pour la récupération du tissu endommagé.SUMMARYAfter cerebral ischemia, glial cells become activated and numerous inflammatory cellsinfiltrate the site of the lesion, secreting a large variety of cytokines and chemokines. Itis controversial whether this brain inflammation is detrimental or beneficial and how itinfluences lesion size and neurological outcome.This project was aimed at critically evaluating whether the neuroprotective peptide DJNKI,an inhibitor of the pro-apopotic c-Jun N-terminal kinase (JNK) pathway,modulates post-ischemic inflammation in animal models of stroke. Specifically, it wasasked whether JNK inhibition prevents microglial activation and the release ofinflammatory mediators.In the first part of this study, we showed that microglia was activated throughout thelesion 48 h after experimental stroke. However, the activation and accumulation ofmicroglia was not reduced by D-JNKI1, despite a significant reduction of the lesionsize. In the second part of this project, we demonstrated that neuroprotection measuredat 48 h occurs even though inflammatory mediators are released in the plasma veryearly after the onset of cerebral ischemia. Furthermore, we found that secretion ofinflammatory mediators in the brain was not different in groups treated with D-JNKI1or not, despite a significant reduction of the lesion size in the treated group.Altogether, we show that inhibition of the JNK pathway using D-JNKI1 does notinfluence directly post-stroke inflammation. Inhibition of inflammation is therefore notnecessarily required for neuroprotection after cerebral ischemia. Thus, post-strokeinflammation might not be detrimental for the tissue recovery.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-dede l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

CONTEXTE Les vasculites représentent un groupe de maladies inflammatoires touchant tous les vaisseaux, des grosses artères aux artères de plus petit calibre, en passant par les capillaires et les veines, de toutes tailles également. La taille des vaisseaux atteints est d'une importance cruciale pour le diagnostic puisque la classification actuelle en dépend. Sur le plan histopathologique, la vasculite est une réaction inflammatoire qui atteint la paroi de vaisseaux, et qui va entraîner alors une ischémie, puis une nécrose du vaisseau lui-­‐ même voire des structures environnantes ; les caractéristiques microscopiques de ces lésions permettent souvent d'aider à préciser le groupe auquel appartient la vasculite. Cependant, il n'est pas toujours facile ni possible d'obtenir un échantillon de tissu, une biopsie, selon l'endroit concerné (cerveau, régions profondes et difficilement accessibles...). OBJECTIFS Dans les atteintes de type « vasculite », la peau est fréquemment un organe cible. Le grand avantage est son accès direct et aisé, notamment dans le but de pratiquer un examen histopathologique par le biais d'une biopsie, qui peut se pratiquer de manière superficielle ou profonde, révélant alors des vaisseaux de différents calibres. Face à un tableau clinique parfois complexe et menaçant, il est important de pouvoir orienter le diagnostic rapidement. L'objectif de ce travail est donc de déterminer quelles sont l'utilité et l'apport de la biopsie cutanée dans le diagnostic des vasculites, et autrement dit de déterminer s'il vaut la peine de pratiquer ce genre d'examen, ou s'il vaut mieux privilégier d'autres approches plus rentables sur ce plan-­‐là. METHODES Grâce à l'aide des dermatologues et à la base de données du Service de dermatopathologie du CHUV, nous nous proposons de faire une étude rétrospective et systématique, sur les 5 années passées, de toutes les biopsies cutanées compatibles avec le diagnostic de vasculite. RESULTATS ESCOMPTES Ils sont de deux ordres : déterminer d'une part si le résultat de la biopsie était compatible avec le diagnostic clinique retenu chez les patients ayant subi ce type d'examen. Cela nous permettra alors d'établir des recommandations pour la réalisation éventuelle d'une biopsie cutanée dans ce type de situation. Il sera en effet capital de savoir si ce geste est utile et, le cas échéant, s'il faut demander une biopsie profonde ou si une biopsie superficielle est suffisante. Ce travail nous permettra d'autre part de revoir les caractéristiques cutanées -­‐ sur le plan histopathologique -­‐ des vasculites, et de déterminer aussi leur fréquence. Dans l'idéal, ce travail devrait permettre de faire la revue et la mise à jour des connaissances dans le domaine des vasculites cutanées, utiles aux praticiens notamment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A gradual increase in Earth's surface temperatures marking the transition from the late Paleocene to early Eocene (55.8±0.2Ma), represents an extraordinary warming event known as Paleocene-Eocene Thermal Maximum (PETM). Both marine and continental sedimentary records during this period reveal evidences for the massive injection of isotopically light carbon. The carbon dioxide injection from multiple potential sources may have triggered the global warming. The importance of the PETM studies is due to the fact that the PETM bears some striking resemblances to the human-caused climate change unfolding today. Most notably, the culprit behind it was a massive injection of heat-trapping greenhouse gases into the atmosphere and oceans, comparable in volume to what our persistent burning of fossil fuels could deliver in coming centuries. The exact knowledge of what went on during the PETM could help us to foresee the future climate change. The response of the oceanic and continental environments to the PETM is different. Many factors might control the response of the environments to the PETM such as paleogeography, paleotopography, paleoenvironment, and paleodepth. To better understand the mechanisms triggering PETM events, two different environments were studied: 1) shallow marine to inner shelf environment (Wadi Nukhul, Sinai; and the Dababiya GSSP, Luxor, Egypt), and 2) terrestrial environments (northwestern India lignite mines) representing wetland, and fluvial environments (Esplugafreda, Spain) both highlighting the climatic changes observed in continental conditions. In the marine realm, the PETM is characterized by negative ö13Ccar and ô13Corg excursions and shifts in Ô15N to ~0%o values above the P/E boundary and persisting along the interval suggesting a bloom and high production of atmospheric N2-fixers. Decrease in carbonate contents could be due to dissolution and/or dilution by increasing detrital input. High Ti, K and Zr and decreased Si contents at the P/E boundary indicate high weathering index (CIA), which coincides with significant kaolinite input and suggests intense chemical weathering under humid conditions at the beginning of the PETM. Two anoxic intervals are observed along the PETM. The lower one may be linked to methane released from the continental shelf with no change in the redox proxies, where the upper anoxic to euxinic conditions are revealed by increasing U, Mo, V, Fe and the presence of small size pyrite framboids (2-5fim). Productivity sensitive elements (Cu, Ni, and Cd) show their maximum concentrated within the upper anoxic interval suggesting high productivity in surface water. The obtained data highlight that intense weathering and subsequent nutrient inputs are crucial parameters in the chain of the PETM events, triggering productivity during the recovery phase. In the terrestrial environments, the establishment of wetland conditions and consequence continental climatic shift towards more humid conditions led to migration of modern mammals northward following the extension of the tropical belts. Relative ages of this mammal event based on bio-chemo- and paleomagnetic stratigraphy support a migration path originating from Asia into Europe and North America, followed by later migration from Asia into India and suggests a barrier to migration that is likely linked to the timing of the India-Asia collision. In contrast, at Esplugafereda, northeastern Spain, the terrestrial environment reacted differently. Two significant S13C shifts with the lower one linked to the PETM and the upper corresponding to the Early Eocene Thermal Maximum (ETM2); 180/160 paleothermometry performed on two different soil carbonate nodule reveal a temperature increase of around 8°C during the PETM. The prominent increase in kaolinite content within the PETM is linked to increased runoff and/or weathering of adjacent and coeval soils. These results demonstrate that the PETM coincides globally with extreme climatic fluctuations and that terrestrial environments are very likely to record such climatic changes. - La transition Paléocène-Eocène (55,8±0,2 Ma) est marquée par un réchauffement extraordinaire communément appelé « Paleocene-Eocene Thermal Maximum » (PETM). Les données géochimiques caractérisant les sédiments marins et continentaux de cette période indiquent que ce réchauffement a été déclenché par une augmentation massive de CO2 lié à la déstabilisation des hydrates de méthane stockés le long des marges océaniques. L'étude des événements PETM constitue donc un bon analogue avec le réchauffement actuel. Le volume de CO2 émis durant le PETM est comparable avec le CO2 lié à l'activité actuelle humaine. La compréhension des causes du réchauffement du PETM peut être cruciale pour prévoir et évaluer les conséquences du réchauffement anthropogénique, en particulier les répercussions d'un tel réchauffement sur les domaines continentaux et océaniques. De nombreux facteurs entrent en ligne de compte dans le cas du PETM, tels que la paléogéographie, la paléotopographie et les paléoenvironnement. Pour mieux comprendre les réponses environnementales aux événements du PETM, 2 types d'environnements ont été choisis : (1) le domaine marin ouvert mais relativement peu profond (Wadi Nukhul. Sinai, Dababiya, Luxor, Egypte), (2) le milieu continental marécageux humide (mines de lignite, Inde) et fluviatile, semi-aride (Esplugafreda, Pyrénées espagnoles). Dans le domaine marin, le PETM est caractérisé par des excursions négatives du ô13Ccar et ô13Corg et un shift persistant des valeurs de 815N à ~ 0 %o indiquant une forte activité des organismes (bactéries) fixant l'azote. La diminution des carbonates observée durant le PETM peut-être due à des phénomènes de dissolution ou une augmentation des apports terrigènes. Des taux élevés en Ti, K et Zr et une diminution des montants de Si, reflétés par des valeurs des indices d'altération (CIA) qui coïncident avec une augmentation significative des apports de kaolinite impliquent une altération chimique accrue, du fait de conditions plus humides au début du PETM. Deux événements anoxiques globaux ont été mis en évidence durant le PETM. Le premier, situé dans la partie inférieur du PETM, serait lié à la libération des hydrates de méthane stockés le long des talus continentaux et ne correspond pas à des variations significatives des éléments sensibles aux changements de conditions redox. Le second est caractérisé par une augmentation des éléments U, Mo, V et Fe et la présence de petit framboids de pyrite dont la taille varie entre 2 et 5pm. Le second épisode anoxique est caractérisé par une forte augmentation des éléments sensibles aux changements de la productivité (Cu, Ni et Co), indiquant une augmentation de la productivité dans les eaux de surface. Les données obtenues mettent en évidence le rôle crucial joué par l'altération et les apports en nutriments qui en découlent. Ces paramètres sont cruciaux pour la succession des événements qui ont conduit au PETM, et plus particulièrement l'augmentation de la productivité dans la phase de récupération. Durant le PETM, le milieu continental est caractérisé par l'établissement de conditions humides qui ont facilité voir provoqué la migration des mammifères modernes qui ont suivi le déplacement de ces ceintures climatiques. L'âge de cette migration est basé sur des arguments chimiostratigraphiques (isotopes stables), biostratigraphiques et paléomagnétiques. Les données bibliographiques ainsi que celles que nous avons récoltées en Inde, montrent que les mammifères modernes ont d'abord migré depuis l'Asie vers l'Europe, puis dans le continent Nord américain. Ces derniers ne sont arrivés en Inde que plus tardivement, suggérant que le temps de leur migration est lié à la collision Inde-Asie. Dans le Nord-Est de l'Espagne (Esplugafreda), la réponse du milieu continental aux événements PETM est assez différente. Comme en Inde, deux excursions signicatives en ô13C ont été observées. La première correspond au PETM et la seconde est corrélée avec l'optimum thermique de l'Eocène précoce (ETM2). Les isotopes stables de l'oxygène mesurés 2 différents types de nodules calcaires provenant de paléosols suggère une augmentation de 10°C pendant le PETM. Une augmentation simultanée des taux de kaolinite indique une intensification de l'altération chimique et/ou de l'érosion de sols adjacents. Ces résultats démontrent que le PETM coïncide globalement avec des variations climatiques extrêmes qui sont très aisément reconnaissables dans les dépôts continentaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : En Suisse, près de 5300 nouveaux cas de cancer du sein chez la femme et 30 à 40 chez l'homme sont diagnostiqués chaque année. Une femme sur huit sera touchée par la maladie au cours de sa vie (1-2). Malgré l'avancée de la médecine dans le traitement de cette maladie, il arrive encore que des situations dramatiques se présentent suite à une tumeur localement avancée ou récidivante. Une plaie chronique douloureuse et nécrotique parfois surinfectée ne répondant pas aux traitements de chimio- et de radiothérapie nécessite alors d'effectuer une résection large de la zone atteinte afin d'améliorer la qualité de vie de ces patients. Cette opération entraîne un vaste défect de la paroi thoracique antérieure qui demande une chirurgie de couverture complexe. Le lambeau épiploïque proposé par Kiricuta en 1963 est encore utilisé de nos jours pour ce genre d'intervention (3). L'évolution des techniques chirurgicales fait que nous disposons actuellement d'autres lambeaux myocutanés performants pour de telles situations oncologiques. Ce travail s'intéresse à l'évaluation de l'épiplooplastie proposée il y a maintenant près de 50 ans, afin de s'interroger sur la place qu'elle occupe aujourd'hui parmi ces autres techniques. Objectifs : Comprendre la technique du lambeau de Kiricuta et évaluer sa place parmi les techniques de reconstruction dans la chirurgie du cancer du sein localement avancé ou récidivant. Méthodes : Une revue de la littérature des articles s'intéressant au lambeau de Kiricuta depuis 1963 a permis d'évaluer ses qualités et ses inconvénients. Cette technique a été illustrée par l'analyse rétrospective des dossiers de 4 patients ayant bénéficié d'une reconstruction à partir du grand épiploon au CHUV suite à un cancer du sein récidivant ou localement avancé. La présentation des autres techniques de reconstructions de la paroi thoracique antérieure s'est également basée sur la récolte d'articles d'études comparant ces différentes opérations. Résultats: Le grand épiploon est un organe doté de capacités étonnantes, immunologiques et angiogéniques. Sa taille souvent généreuse convient à de grands défects de la paroi thoracique, particulièrement lors d'atteinte bilatérale ou de la région axillaire. Son utilisation ne convient toutefois pas lors d'exérèse de plus de 3 côtes par manque de stabilité de la cage thoracique. Apprécié en milieu infecté et/ou radique, il convient aux situations où les lambeaux myocutanés sont inadéquats. En effet, comme sa taille n'est pas prédictible et que l'opération demande souvent une laparotomie, cette technique est envisagée en seconde intention ou suivant des situations particulières. Conclusion : L'amélioration des symptômes locaux lors de cancer du sein localement avancé ou récidivant a pu être obtenue en excisant la lésion et en la recouvrant par le lambeau de Kiricuta. Le bénéfice sur la qualité de vie ainsi apporté à ces patients fait de l'épiplooplastie un choix à considérer dans le traitement chirurgical du cancer du sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Le syndrome de Brugada, décrit en 1992 par Pedro et Josep Brugada, est un syndrome cardiaque caractérisé par un sus-décalage particulier du segment ST associé à un bloc de branche droit atypique au niveau des dérivations ECG V1 à V3. Les altérations ECG du syndrome de Brugada sont classifiées en 3 types dont seul le type 1 est diagnostique. Les mécanismes physiopathologiques exacts de ce syndrome sont pour le moment encore controversés. Plusieurs hypothèses sont proposées dans la littérature dont deux principales retiennent l'attention : 1) le modèle du trouble de repolarisation stipule des potentiels d'action réduits en durée et en amplitude liés à un changement de répartition de canaux potassiques 2) le modèle du trouble de dépolarisation spécifie un retard de conduction se traduisant par une dépolarisation retardée. Dans le STEMI, un sus-décalage ST ressemblant à celui du syndrome de Brugada est expliqué par deux théories : 1) le courant de lésion diastolique suggère une élévation du potentiel diastolique transformé artificiellement en sus-décalage ST par les filtres utilisés dans tous les appareils ECG.¦Objectif : Recréer les manifestations ECG du syndrome de Brugada en appliquant les modifications du potentiel d'action des cardiomyocytes rapportées dans la littérature.¦Méthode : Pour ce travail, nous avons utilisé "ECGsim", un simulateur informatique réaliste d'ECG disponible gratuitement sur www.ecgsim.org. Ce programme est basé sur une reconstruction de l'ECG de surface à l'aide de 1500 noeuds représentant chacun les potentiels d'action des ventricules droit et gauche, épicardiques et endocardiques. L'ECG simulé peut être donc vu comme l'intégration de l'ensemble de ces potentiels d'action en tenant compte des propriétés de conductivité des tissus s'interposant entre les électrodes de surface et le coeur. Dans ce programme, nous avons définit trois zones, de taille différente, comprenant la chambre de chasse du ventricule droit. Pour chaque zone, nous avons reproduit les modifications des potentiels d'action citées dans les modèles du trouble de repolarisation et de dépolarisation et des théories de courant de lésion systolique et diastolique. Nous avons utilisé, en plus des douze dérivations habituelles, une électrode positionnée en V2IC3 (i.e. 3ème espace intercostal) sur le thorax virtuel du programme ECGsim.¦Résultats : Pour des raisons techniques, le modèle du trouble de repolarisation n'a pas pu être entièrement réalisée dans ce travail. Le modèle du trouble de dépolarisation ne reproduit pas d'altération de type Brugada mais un bloc de branche droit plus ou moins complet. Le courant de lésion diastolique permet d'obtenir un sus-décalage ST en augmentant le potentiel diastolique épicardique des cardiomyocytes de la chambre de chasse du ventricule droit. Une inversion de l'onde T apparaît lorsque la durée du potentiel d'action est prolongée. L'amplitude du sus-décalage ST dépend de la valeur du potentiel diastolique, de la taille de la lésion et de sa localisation épicardique ou transmurale. Le courant de lésion systolique n'entraîne pas de sus-décalage ST mais accentue l'amplitude de l'onde T.¦Discussion et conclusion : Dans ce travail, l'élévation du potentiel diastolique avec un prolongement de la durée du potentiel d'action est la combinaison qui reproduit le mieux les altérations ECG du Brugada. Une persistance de cellules de type nodal au niveau de la chambre de chasse du ventricule droit pourrait être une explication à ces modifications particulières du potentiel d'action. Le risque d'arythmie dans la Brugada pourrait également être expliqué par une automaticité anormale des cellules de type nodal. Ainsi, des altérations des mécanismes cellulaires impliqués dans le maintien du potentiel diastolique pourraient être présentes dans le syndrome de Brugada, ce qui, à notre connaissance, n'a jamais été rapporté dans la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : Bien que les propriétés physiques de la structure de l'ADN aient été intensivement étudiées pendant plus de 50 ans il y a encore beaucoup de questions importantes qui attendent des réponses. Par exemple, qu'arrive-t-il à la structure de la double hélice d'ADN nue (sans protéines liées) lorsqu'elle est fortement courbée, de la même manière que dans les nucléosomes? Cet ADN nu est-il facilement plié (il reste dans le régime élastique) ou réduit-il la contrainte de flexion en formant des sites hyperflexibles «kinks» (il sort du régime élastique en cassant l'empilement des paires de bases à certains endroits) ? La microscopie électronique peut fournir une réponse à cette question par visualisation directe des minicercles d'ADN de la longueur d'un tour de nucléosome (environ 90 paires de bases). Pour que la réponse soit scientifiquement valide, on doit observer les molécules d'ADN lorsqu'elles sont en suspension dans la solution d'intérêt et sans que des colorations, produits chimiques ou fixatifs n'aient été ajoutés, étant donné que ceux-ci peuvent changer les propriétés de l'ADN. La technique de la cryo-microscopie électronique (cryo-EM) développée par le groupe de Jacques Dubochet au début des années 80, permet la visualisation directe des molécules d'ADN suspendues dans des couche minces vitrifiées de solutions aqueuses. Toutefois, le faible contraste qui caractérise la cryo-EM combinée avec la très petite taille des minicercles d'ADN rendent nécessaire l'optimisation de plusieurs étapes, aussi bien dans la préparation des échantillons que dans le processus d'acquisition d'images afin d'obtenir deux clichés stéréo qui permettent la reconstruction 3-D des minicercles d'ADN. Dans la première partie de ma thèse, je décris l'optimisation de certains paramètres pour la cryoEM et des processus d'acquisition d'image utilisant comme objets de test des plasmides et d'autres molécules d'ADN. Dans la deuxième partie, je .décris comment j'ai construit les minicercles d'ADN de 94 bp et comment j'ai introduit des modifications structurelles comme des coupures ou des lacunes. Dans la troisième partie, je décris l'analyse des reconstructions des rninicercles d'ADN. Cette analyse, appuyée par des tests biochimiques, indique fortement que des molécules d'ADN sont capables de former de petites molécules circulaires de 94 bp sans dépasser les limites d'élasticité, indiquant que les minicercles adoptent une forme circulaire régulière où la flexion est redistribuée le long la molécule. ABSTRACT : Although physical properties of DNA structure have been intensively studied for over 50 years there are still many important questions that need to be answered. For example, what happens to protein-free double-stranded DNA when it is strongly bent, as in DNA forming nucleosomes? Is such protein-free DNA smoothly bent (i.e. it remains within elastic limits of DNA rigidity) or does it release its bending stress by forming sharp kinks (i.e. it exits the elastic regime and breaks the stacking between neighbouring base-pairs in localized regions)? Electron microscopy can provide an answer to this question by directly visualizing DNA minicircles that have the size of nucleosome gyres (ca 90 bp). For the answer to be scientifically valid, one needs to observe DNA molecules while they are still suspended in the solution of interest and no staining chemicals or fixatives have been added since these can change the properties of the DNA. CryoEM techniques developed by Jacques Dubochet's group beginning in the 1980's permit direct visualization of DNA molecules suspended in cryo-vitrified layers of aqueous solutions. However, a relatively weak contrast of cryo-EM preparations combined with the very small size of the DNA minicircles made it necessary to optimize many of the steps and parameters of the cryo-EM specimen preparation and image acquisition processes in order to obtain stereo-pairs of images that permit the 3-D reconstruction of the observed DNA minicircles. In the first part of my thesis I describe the optimization of the cryo-EM preparation and the image acquisition processes using plasmid size DNA molecules as a test object. In the second part, I describe how I formed the 94 by DNA minicircles and how I introduced structural modifications like nicks or gaps. In the third part, I describe the cryo-EM analysis of the constructed DNA minicircles. That analysis, supported by biochemical tests, strongly indicates that DNA minicircles as small as 94 by remain within the elastic limits of DNA structure, i.e. the minicircles adopt a regular circular shape where bending is redistributed along the molecules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèseLe syndrome métabolique (défini par les critères ATP III par la présence au minimum de 3 des facteurs suivants : taux plasmatiques d'HDL-cholestérol < 1,04 mmol/1 chez l'homme et < 1.29 mmol/1 chez la femme, taux plasmatiques de triglycérides > 1,69 mmol/1, tension artérielle > 130/85 mmHg, glycémie >6,1 mmol/1, tour de taille > 108 cm chez l'homme et > 88 cm chez la femme) représente une constellation de facteurs de risque majeurs pour le développement de maladies cardiovascu-laires. Il n'est pas encore établi actuellement quelle composante de ce syndrome contribue de manière plus marquée au risque de développer une athérosclérose. Dans le but d'éclaircir la pathogenèse de ce syndrome, une étude multicentrique intitulée GEMS (« Genetic Epidemiology of Metabolic Syndrome ») a été initiée afin de déterminer si la constellation d'une dyslipidémie avec HDL-C bas et TG élevé est un marqueur sensible de l'homogénéité génétique chez les individus atteints de syndrome métabolique.Dans l'étude menée à Lausanne (multicentrique), la contribution de la dyslipidémie avec HDL-C bas et TG élevé dans la pathogenèse de l'athérosclérose a été évaluée par 2 examens, reconnus comme marqueurs fiables de la vasculopathie : la mesure de l'épaisseur intima média carotidienne par ultrasonographic et l'évaluation de la dysfonction endothéliale de la microcirculation cutanée. Deux groupes de sujets comparables en terme d'âge et de sexe et souffrant d'un excès pondéral (BMI > 25 kg/m2) mais normoglycémiques ont été comparés. Ces deux groupes (étude cas-témoins) étaient uniquement discordants quant à leurs profils lipidiques. Ainsi, 120 cas, définis comme ayant un HDL-cholestérol bas (< 25 percentile pour l'âge et le sexe dans la population générale) et des TG élevés (> 75 percentile) ont été comparés à 120 contrôles avec un HDL-cholestérol haut (> 50 percentile) et des TG bas (< 50 percentile). Un doppler des artères carotides et fémorales a été effectué pour déterminer l'épaisseur de l'intima média et la présence ou non de plaques d'athérome. La fonction endothéliale a été évaluée par un laser doppler sur la micro-circulation cutanée (réponse hyperémique à une occlusion transitoire de la circulation de l'avant-bras par une manchette à pression et mesure de la vasodilatation induite par un échauffement local de la peau avec de l'eau). Un enregistrement de la pression artérielle ambulatoire sur la journée (Remler) a été pratiqué chez tous les sujets.Les résultats obtenus montrent que les cas ont une prévalence plus élevée de plaques d'athérome (médiane 1,5 ± 0,15 vs 0,8 > 0,15, p<.001), une épaisseur intima média plus importante (médiane 0,66 ± 0,15 vs 0,61 ± 0,15, p<.01), ainsi qu'une réduction significative de la vasodilatation endothéliale induite par la chaleur et post-ischémique comparativement aux contrôles.En conclusion, le profil lipidique associant un HDL-cholestérol bas et des triglycérides élevés représente un risque majeur de développer une maladie athéromateuse périphérique et est associée à une augmentation de l'épaisseur intima média et une altération de la fonction endothéliale chez les individus en surcharge pondérale. Bien qu'un HDL-cholestérol bas soit fréquemment associé à une hypertriglycéridémie, les résultats de notre étude peuvent suggérer un rôle potentiel de la fraction HDL-cholestérol comme un puissant agent anti-athérogénique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SummaryGene duplication and neofunctidnalization are important processes in the evolution of phenotypic complexity. They account for important evolutionary novelties that confer ecological adaptation, such as the major histocompatibility complex (MHC), a multigene family with a central role in vertebrates' adaptive immune system. Multigene families, which evolved in large part through duplication, represent promising systems to study the still strongly depbated relative roles of neutral and adaptive processes in the evolution of phenotypic complexity. Detailed knowledge on ecological function and a well-characterized evolutionary history place the mammals' MHC amongst ideal study systems. However mammalian MHCs usually encompass several million base pairs and hold a large number of functional and non-functional duplicate genes, which makes their study complex. Avian MHCs on the other hand are usually way more compact, but the reconstruction of. their evolutionary history has proven notoriously difficult. However, no focused attempt has been undertaken so far to study the avian MHC evolutionary history in a broad phylogenetic context and using adequate gene regions.In the present PhD, we were able to make important contributions to the understanding of the long-term evolution of the avian MHC class II Β (MHCI1B). First, we isolated and characterized MHCIIB genes in barn owl (Tyto alba?, Strigiformes, Tytonidae), a species from an avian lineage in which MHC has not been studied so far. Our results revealed that with only two functional MHCIIB genes the MHC organization of barn owl may be similar to the 'minimal essential' MHC of chicken (Gallus gallus), indicating that simple MHC organization may be ancestral to birds. Taking advantage of the sequence information from barn owl, we studied the evolution of MHCIIB genes in 13 additional species of 'typical' owls (Strigiformes, Strigidae). Phylogenetic analyses revealed that according to their function, in owls the peptide-binding region (PBR) encoding exon 2 and the non-PBR encoding exon 3 evolve by different patterns. Exon 2 exhibited an evolutionary history of positive selection and recombination, while exon 3 traced duplication history and revealed two paralogs evolving divergently from each other in owls, and in a shorebird, the great snipe {Gallinago media). The results from exon 3 were the first ever from birds to demonstrate gene orthology in species that diverged tens of millions of years ago, and strongly questioned whether the taxa studied before provided an adequate picture of avian MHC evolution. In a follow-up study, we aimed at explaining a striking pattern revealed by phylogenetic trees analyzing the owl sequences along with MHCIIB sequences from other birds: One owl paralog (termed DAB1) grouped with sequences of passerines and falcons, while the other (DAB2) grouped with wildfowl, penguins and birds of prey. This could be explained by either a duplication event preceding the evolution of these bird orders, or by convergent evolution of similar sequences in a number of orders. With extensive phylogenetic analyses we were able to show, that indeed a duplication event preceeded the major avian radiation -100 my ago, and that following this duplication, the paralogs evolved under positive selection. Furthermore, we showed that the divergently evolving amino acid residues in the MHCIIB-encoded β-chain potentially interact with the MHCI I α-chain, and that molecular coevolution of the interacting residues may have been involved in the divergent evolution of the MHCIIB paralogs.The findings of this PhD are of particular interest to the understanding of the evolutionary history of the avian MHC and, by providing essential information on long-term gene history in the avian MHC, open promising perspectives for advances in the understanding of the evolution of multigene families in general, and for avian MHC organization in particular. Amongst others I discuss the importance of including protein structure in the phylogenetic study of multigene families, and the roles of ecological versus molecular selection pressures. I conclude by providing a population genomic perspective on avian MHC, which may serve as a basis for future research to investigate the relative roles of neutral processes involving effective population size effects and of adaptation in the evolution of avian MHC diversity and organization.RésuméLa duplication de gènes et leur néo-fonctionnalisation sont des processus importants dans l'évolution de la complexité phénotypique. Ils sont impliqués dans l'apparition d'importantes nouveautés évolutives favorisant l'adaptation écologique, comme c'est le cas pour le complexe majeur d'histocompatibilité de gènes jouant un rôle central dans le système immunitaire adaptatif des vertébrés. Les familles multigéniques représentent des systèmes prometteurs pour l'étude controversée des rôles relatifs des processus neutres et adaptatifs dans l'évolution de la complexité phénotypique. La connaissance détaillée de sa fonction écologique, ainsi que de son histoire évolutive, placent le CMH des mammifères parmi les candidats idéaux. Toutefois, les CMHs des mammifères comprennent habituellement plusieurs millions de paires de bases et sont formés par un grand nombre de gènes dupliqués, fonctionnels et non-fonctionnels, ce qui rend leur étude complexe. Au contraire, les CMHs des oiseaux sont généralement plus compacts, mais la reconstruction de leur histoire évolutive s'est révélée difficile. Aucune analyse spécifique n'a cependant été entreprise jusqu'à présent pour étudier l'histoire évolutive du CMH aviaire dans un large contexte phylogénétique et en utilisant des régions géniques adéquates.Ce travail de thèse a contribué à la compréhension de l'évolution à long-terme du CMH aviaire classe II Β (CMH II Β). Nous avons isolé et caractérisé les gènes CMH I IB de la chouette effraie (Tyto alba; Strigiformes, Tytonidae), une espèce appartenant à une lignée aviaire dont le CMH n'avait pas été étudié jusqu'ici. Avec uniquement deux gènes CMHIIB fonctionnels, l'organisation CMH de la chouette effraie semble être comparable à celle "minimale" du poulet (Gallus gallus), ce qui suggère qu'une organisation simple du CMH pourrait être ancestrale chez les oiseaux. En se basant sur l'information obtenue pour cette espèce, nous avons ensuite étudié l'évolution des gènes CMHIIB chez 13 espèces de chouettes "typiques" (Strigiformes, Strigidae). Les analyses phylogénétiques ont révélé que chez les chouettes, selon leur fonction, l'exon 2 codant pour la 'peptide-binding region' (PBR) et l'exon 3 ne codant pas pour la région PBR évoluent de manière distincte. L'exon 2 montre une histoire évolutive de sélection positive et recombinaison, tandis que l'exon 3 retrace l'histoire de duplication et révèle deux paralogues évoluant de façon divergente chez les chouettes, ainsi que chez un limicole, la bécassine double (Gallinago media). Les résultats découlant de l'analyse de l'exon 3 ont montré pour la première fois chez les oiseaux une orthologie de gènes chez des espèces ayant divergé il y a des dizaines de millions d'années. Dans une deuxième étude, nous avons voulu expliquer le pattern surprenant révélé par les arbres phylogénétiques lorsque les séquences CMHIIB des chouettes sont analysées avec les séquences d'autres oiseaux: un paralogue de chouette (appelé DABI) forme un groupe avec les séquences de passereaux et faucons, tandis que l'autre (DAB2) se regroupe avec les gallo-ansériformes, les manchots et les rapaces diurnes. Ceci pourrait être expliqué soit par une duplication qui a précédé l'évolution de ces ordres aviaires soit par évolution convergente dans un certain nombre d'ordres. Grâce à des analyses phylogénétiques approfondies, nous avons pu montrer qu'un événement de duplication a effectivement précédé la radiation aviaire principale d'il y a environ 100 millions d'années, et qu'après cette duplication les paralogues ont évolué sous sélection positive. De plus, les résidus d'acides aminés évoluant de façon divergente dans la chaîne β codée par le CMHIIB interagissent potentiellement avec la chaîne α codée par le CMHII, et que la coévolution moléculaire de ces résidus pourrait être à la base de l'évolution divergente des paralogues CMHIIB.Dans cette thèse sont discutés entre autres l'importance d'inclure la structure des protéines dans l'étude phylogénétique des familles multigéniques, ainsi que les rôles respectifs des pressions sélectives écologique et moléculaire. La conclusion comporte une perspective sur la génomique des populations du CMH aviaire, qui pourrait servir de base pour de futures recherches sur les rôles relatifs joués par Îes processus neutres comprenant les effets de la taille efficace des populations et l'adaptation dans l'évolution de la diversité et l'organisation du MHC aviaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Le système rénine-angiotensine joue un rôle prépondérant dans la régulation de la pression sanguine et de la balance des sels ainsi que dans d'autres processus physiologiques et pathologiques. Lorsque la pression sanguine est trop basse, les cellules juxtaglomérulaires sécrètent la rénine, qui clivera l'angiotensinogène circulant (sécrété majoritairement par le foie) pour libérer l'angiotensine I, qui sera alors transformée en angiotensine II par l'enzyme de conversion de l'angiotensine. Ce système est régulé au niveau de la sécrétion de la rénine par le rein. La rénine est une enzyme de type protéase aspartique. Elle est produite sous la forme d'un précurseur inactif de haut poids moléculaire appelé prorénine, qui peut être transformé en rénine active. Si le rôle de la prorégion de la rénine n'est pas encore connu, plusieurs études ont montré qu'elle pourrait être un auto-inhibiteur. Des travaux menés sur d'autres enzymes protéolytique ont mis en évidence un rôle de chaperon de leurs prorégions. Dans la circulation, la prorénine est majoritaire (90%) et la rénine active ne représente que 10% de la rénine circulante. L'enzyme qui transforme, in vivo, la prorénine en rénine active n'est pas connue. De même, l'endroit précis du clivage n'est pas élucidé. Dans ce travail, nous avons généré plusieurs mutants de la prorénine et les avons exprimés dans deux types cellulaires : les CV1 (modèle constitutif) et AtT-20 (modèle régulé). Nous avons montré que la prorégion joue un rôle important aussi bien dans l'acquisition de l'activité enzymatique que dans la sécrétion de la rénine, mais fonctionne différemment d'un type cellulaire à l'autre. Nous avons montré pour la première fois que la prorégion interagit de façon intermoléculaire à l'intérieur de la cellule. Les expériences de complémentation montre que l'interaction favorable de la rénine avec la prorégion dépend de la taille de cette dernière : prorénine (383 acides aminés) > pro62 (62 acides aminés) > pro43 (43 acides aminés). Par ailleurs nos résultats montrent qu'une faible partie de la rénine est dirigée vers la voie de sécrétion régulée classique tandis que la majorité est dirigée vers les lysosomes. Ceci suggère qu'une internalisation de la rénine circulante via le récepteur mannose-6-phosphate est possible. Cette dernière concernerait essentiellement la prorénine (dont les taux circulants sont 10 fois plus élevés que la rénine active). La suite de ce travail porterait sur la confirmation de cette hypothèse et l'identification de son possible rôle physiologique. SUMMARY The renin-angiotensin system is critical for the control of blood pressure and salt balance and other physiological and pathological processes. When blood pressure is too low, renin is secreted by the juxtaglomerular cells. It will cleave the N-terminus of circulating angiotensinogen (mostly secreted by the liver) to angiotensin-1, which is then transformed in angiotensin-II by the angiotensin-converting-enzyme (ACE). This system is regulated at the level of renin release. Renin, an aspartyl protease, is produced from a larger precursor (called prorenin) which is matured into active renin. Although the role of the renin proregion remains unknown, it has been reported that it could act as an autoinhibitor. Works on other proteolytic enzymes showed that their prorégion can act as chaperones. prorenin is the major circulating form of renin, while active renin represents only 10%. The enzyme which transforms, in vivo, the prorenin into active renin is unknown and the exact cleavage site remains to be elucidated. In this study, we generated some prorenin mutants, which were expressed in CV1 cells (constitutive pathway model) or AtT-20 cells (regulated pathway model). We showed that the proregion plays a pivotal role in the enzymatic activity and secretion of renin in a different manner in the two cell types. For the first time, it has been demonstrated that the proregion acts in an intermolecular way into the cell. Complementation assays showed that interaction between renin and proregion depends on the size of the proregion: prorenin (383 amino acids) > pro62 (62 amino acids) > pro43 (43 amino acids). Furthermore, our results showed that only a small amount of the cellular renin pool is targeted to the "canonical" regulated pathway and that the remaining is targeted to the lysosomes. Those results suggest a possible internalizátion of the circulating renin through the mannose-6-phosphate receptor pathway. This would mostly concern the prorenin (whose levels are ten times higher than active renin). Further studies would confirm or infirm this hypothesis and elucidate a potential physiological role.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La majorité des organelles d'une cellule adaptent leur nombre et leur taille pendant les processus de division cellulaire, de trafic vésiculaire ou suite à des changements environnementaux par des processus de fusion et de fragmentation membranaires. Ceci est valable notamment pour le golgi, les mitochondries, les péroxisomes et les lysosomes. La vacuole est le compartiment terminal de la voie endocytaire dans la levure Saccharomyces cerevisiae\ elle correspond aux lysosomes des cellules mammifères. Suite à un choc hyperosmotique, la vacuole se fragmente en plusieurs petites vésicules. Durant ce projet, cette fragmentation a été étudiée en utilisant la technique de microscopie confocale in vivo. J'ai observé que la division de la vacuole se produit d'une façon asymétrique. La première minute après le choc osmotique, les vacuoles rétrécissent et forment des longues invaginations tubulaires. Cette phase est dépendante de la protéine Vps1, un membre de la famille des protéines apparentées à la dynamine, ainsi que d'un gradient transmembranaire de protons. Pendant les 10-15 minutes qui suivent, des vésicules se détachent dans les régions où l'on observe les invaginations pendant la phase initiale. Cette deuxième phase qui mène à la fission des nouveaux compartiments vacuolaires dépend de la production du lipide PI(3,5)P2 par la protéine Fab1. J'ai établi la suite des événements du processus de fragmentation des vacuoles et propose la possibilité d'un rôle régulateur de la protéine kinase cycline-dépendante Pho85.¦En outre, j'ai tenté d'éclaircir plus spécifiquement le rôle de Vps1 pendant la fusion et fission des vacuoles. J'ai trouvé que tous les deux processus sont dépendants de l'activité GTPase de cette protéine. De plus l'association avec la membrane vacuolaire paraît régulée par le cycle d'hydrolyse du GTP. Vps1 peut lier la membrane sans la présence d'un autre facteur protéinique, ce qui permet de conclure à une interaction directe avec des lipides de la membrane. Cette interaction est au moins partiellement effectuée par le domaine GTPase, ce qui est une nouveauté pour un membre de cette famille de protéines. Une deuxième partie de Vps1, nommée insert B, est impliquée dans la liaison à la vacuole, soit par interaction directe avec la membrane, soit par régulation du domaine GTPase. En assumant que Vps1 détienne deux régions capables de liaison aux membranes, je conclus qu'elle pourrait fonctionner comme facteur de « tethering » lors de la fusion des vacuoles.¦-¦La cellule contient plusieurs sous-unités, appelées organelles, possédant chacune une fonction spécifique. Dépendant des processus qui s'y déroulent à l'intérieur, un environnement chimique spécifique est requis. Pour maintenir ces différentes conditions, les organelles sont séparées par des membranes. Lors de la division cellulaire ou en adaptation à des changements de milieu, les organelles doivent être capables de modifier leur morphologie. Cette adaptation a souvent lieu par fusion ou division des organelles. Le même principe est valable pour la vacuole dans la levure. La vacuole est une organelle qui sert principalement au stockage des aliments et à la dégradation des différents composants cellulaires. Alors que la fusion des vacuoles est un processus déjà bien décrit, la fragmentation des vacuoles a jusqu'ici été peu étudiée. Elle peut être induit par un choc osmotique: à cause de la concentration de sel élevé dans le milieu, le cytosol de la levure perd de l'eau. Par un flux d'eau de la vacuole au cytosol, la cellule est capable d'équilibrer celui-ci. Quand la vacuole perd du volume, elle doit réadapter le rapport entre surface membranaire et volume, ce qui se fait efficacement par une fragmentation d'une grande vacuole en plusieurs petites vésicules. Comment ce processus se déroule d'un point de vue morphologique n'a pas été décrit jusqu'à présent. En analysant la fragmentation vacuolaire par microscopie, j'ai trouvé que celle-ci se déroule en deux phases. Pendant la première minute suivant le choc osmotique, les vacuoles rétrécissent et forment des longues invaginations tubulaires. Cette phase dépend de la protéine Vps1, un membre de la famille des protéines apparentées à la dynamine, ainsi que du gradient transmembranaire de protons. Ce gradient s'établit par une pompe membranaire, la V-ATPase, qui transporte des protons dans la vacuole en utilisant l'énergie libérée par hydrolyse d'ATP. Après cette phase initiale, la formation de nouvelles vésicules vacuolaires dépend de la synthèse du lipide PI(3,5)P2.¦Dans la deuxième partie de l'étude, j'ai tenté de décrire comment Vps1 lie la membrane pour effectuer un remodelage de la vacuole. Vps1 est nécessaire pour la fusion et la fragmentation des vacuoles. J'ai découvert que tous les deux processus dépendent de sa capacité d'hydrolyser du GTP. Ainsi l'association avec la membrane est couplée au cycle d'hydrolyse du GTP. Vps1 peut lier la membrane sans la présence d'une autre protéine, et interagit donc très probablement avec les lipides de la membrane. Deux parties différentes de la protéine sont impliquées dans la liaison, dont une, inattendue, le domaine GTPase.¦-¦Numerous organelles undergo membrane fission and fusion events during cell division, vesicular traffic, or in response to changes in environmental conditions. Examples include Golgi (Acharya et al., 1998) mitochondria (Bleazard et al., 1999) peroxisomes (Kuravi et al., 2006) and lysosomes (Ward et al., 1997). In the yeast Saccharomyces cerevisiae the vacuole is the terminal component of the endocytic pathway and corresponds to lysosomes in mammalian cells. Yeast vacuoles fragment into multiple small vesicles in response to a hypertonic shock. This rapid and homogeneous reaction can serve as a model to study the requirements of the fragmentation process. Here, I investigated osmotically induced fragmentation by time-lapse microscopy. I observe that the small fragmentation products originate directly from the large central vacuole by asymmetric scission rather than by consecutive equal divisions and that fragmentation occurs in two distinct phases. During the first minute, vacuoles shrink and generate deep invaginations, leaving behind tubular structures. This phase requires the dynamin-like GTPase Vps1 and the vacuolar proton gradient. In the subsequent 10-15 minutes, vesicles pinch off from the tubular structures in a polarized fashion, directly generating fragmentation products of the final size. This phase depends on the production of phosphatidylinositol- 3,5-bisphosphate by the Fab1 complex. I suggest a possible regulation of vacuole fragmentation by the CDK Pho85. Based on my microscopy study I established a sequential involvement of the different fission factors.¦In addition to the morphological description of vacuole fragmentation I more specifically aimed to shed some light on the role of Vps1 in vacuole fragmentation and fusion. I find that both functions are dependent on the GTPase activity of the protein and that also the membrane association of the dynamin-like protein is coupled to the GTPase cycle. I found that Vps1 has the capacity for direct lipid binding on the vacuole and that this lipid binding is at least partially mediated through residues in the GTPase domain, a complete novelty for a dynamin family member. A second stretch located in the region of insert Β has also membrane-binding activity or regulates the association with the vacuole through the GTPase domain. Under the assumption of two membrane-binding regions I speculate on Vps1 as a possible tethering factor for vacuole fusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les communes vaudoises ne sont pas épargnées par les profonds changements que subissent les communes suisses depuis les années 90. Le nombre de réformes a augmenté de manière considérable et les causes de ces changements sont multiples: une complexité croissante des prestations à fournir, la recherche de formes organisationnelles plus efficaces, la difficulté de trouver des personnes s'engageant en politique. Vu ces défis, la fusion de communes a été fréquente dans certains cantons. Quant à lui, le canton de Vaud reste un canton avec un grand nombre de communes de petite taille. C'est entre autre sous l'aspect de la différente taille des communes que cette étude aborde des thèmes concernant les communes vaudoises, comme par exemple les limites de performances des communes, la politique et l'administration communale, les relations et la répartition des tâches entre les communes et le canton, la collaboration intercommunale où encore les fusions de communes. L'analyse se base sur les données de l'enquête auprès des secrétaires communaux suisses qui a lieu régulièrement depuis 1988.