1000 resultados para Élève à risque


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Objectifs: Cette étude relève la prévalence des principaux facteurs de risque cardiovasculaire dans les coronaropathies précoces (P-CAD) familiales, survenant chez au moins deux frères et/ou soeurs d'une même fratrie. Méthodes: Nous avons recruté 213 survivants atteints de P-CAD, issus de 103 fratries, diagnostiqués avant l'âge de 50 ans chez les hommes et 55 ans chez les femmes. La présence ou non d'hypertension, d'hypercholestérolémie, d'obésité et de tabagisme a été documentée au moment de l'événement chez 163 de ces patients (145 hommes et 18 femmes). Chaque patient a été comparé à deux individus de même âge et sexe, chez qui un diagnostic de P-CAD «sporadique» (non familiale) était posé, et à trois individus choisis au hasard parmi la population générale. Résultats: En comparaison de la population générale, les patients atteints de P-CAD sporadique avaient une prévalence supérieure pour 1 'hypertension (29% vs. 14%, p<0.001), le cholestérol (54% vs. 33%, p<0.001), l'obésité (20% vs. 13%, p<0.001) et le tabagisme (76% vs. 39%, p<0.001). Ces facteurs de risque étaient de prévalences similaires, voire supérieures chez les patients atteints de P-CAD familiale (43% [p<0.05 vs. P-CAD sporadiques], 58% [p=0.07], 21% et 72%) respectivement). Seulement 7 (4%) des 163 patients atteints de P-CAD familiale et 22 (7%) des 326 patients atteints de P-CAD sporadique, ne présentaient aucun facteur de risque cardiovasculaire, comparés à 167 (34%) des 489 patients issus de la population générale. Conclusions: Les facteurs de risque cardiovasculaire classiques et réversibles ont une haute prévalence chez les patients atteints de P-CAD familiale. Ce fait rend improbable une contribution génétique prédominante, agissant en l'absence de facteurs de risque. Abstract: Objectives: This study was designed to assess the prevalence of major cardiovascular risk factors in familial premature coronary artery disease (P-CAD), affecting two or more siblings within one sibship. Background: Premature CAD has a genetic component. It remains to be established whether familial P-CAD is due to genes acting independently from major cardiovascular risk factors. Methods: We recruited 213 P-CAD survivors from 103 sibships diagnosed before age ?50 (men) or ?55 (women) years old. Hypertension, hypercholesterolemia, obesity, and smoking were documented at the time of the event in 163 patients (145 men and 18 women). Each patient was compared with two individuals of the same age and gender, diagnosed with sporadic (nonfamilial) P-CAD, and three individuals randomly sampled from the general population. Results: Compared with the general population, patients with sporadic P-CAD had a higher prevalence of hypertension (29% vs. 14%, p < 0.001), hypercholesterolemia (54% vs. 33%, p < 0.001), obesity (20% vs. 13%, p < 0.001), and smoking (76% vs. 39%, p < 0.001). These risk factors were equally or even more prevalent in patients with familial P-CAD (43% [p < 0.05 vs. sporadic P-CAD], 58% [p = 0.07], 21% and 72%, respectively). Overall, only 7 (4%) of 163 of patients with familial P-CAD and 22 (7%) of 326 of patients with sporadic P-CAD had none of these conditions, as compared with 167 (34%) of 489 patients in the general population. Conclusions: Classic, remediable risk factors are highly prevalent in patients with familial P-CAD. Accordingly, a major contribution of genes acting in the absence of these risk factors is unlikely

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Risk theory has been a very active research area over the last decades. The main objectives of the theory are to find adequate stochastic processes which can model the surplus of a (non-life) insurance company and to analyze the risk related quantities such as ruin time, ruin probability, expected discounted penalty function and expected discounted dividend/tax payments. The study of these ruin related quantities provides crucial information for actuaries and decision makers. This thesis consists of the study of four different insurance risk models which are essentially related. The ruin and related quantities are investigated by using different techniques, resulting in explicit or asymptotic expressions for the ruin time, the ruin probability, the expected discounted penalty function and the expected discounted tax payments. - La recherche en théorie du risque a été très dynamique au cours des dernières décennies. D'un point de vue théorique, les principaux objectifs sont de trouver des processus stochastiques adéquats permettant de modéliser le surplus d'une compagnie d'assurance non vie et d'analyser les mesures de risque, notamment le temps de ruine, la probabilité de ruine, l'espérance de la valeur actuelle de la fonction de pénalité et l'espérance de la valeur actuelle des dividendes et taxes. L'étude de ces mesures associées à la ruine fournit des informations cruciales pour les actuaires et les décideurs. Cette thèse consiste en l'étude des quatre différents modèles de risque d'assurance qui sont essentiellement liés. La ruine et les mesures qui y sont associées sont examinées à l'aide de différentes techniques, ce qui permet d'induire des expressions explicites ou asymptotiques du temps de ruine, de la probabilité de ruine, de l'espérance de la valeur actuelle de la fonction de pénalité et l'espérance de la valeur actuelle des dividendes et taxes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le tabac non fumé (smokeless tobacco) comprend les formes de tabac qui ne sont pas consommées par combustion. Les deux principaux types de consommation sont le snus, par application sur la muqueuse orale, et le tabac à sniffer. Le premier se consomme surtout en Suède et les pays scandinaves ; la consommation du second a récemment fait son apparition en Suisse malgré son interdiction. Méthodes Nous avons utilisé la base de données de la Cohort on substance use risk factors (C-surf), une cohorte de jeunes hommes suisses se présentant à 3 centres de recrutement de l'Armée Suisse (Lausanne, Windisch et Mels). Un total de 13 245 jeunes hommes ont été invités à participer à cette enquête sur la consommation de substances. Le taux de réponses a été de 45.2%. Nous avons inclu 5720 participants pour cette analyse et utilisé une approche statistique par régression logistique pour identifier les déterminants de consommation de tabac non fumé. Résultats L'âge moyen des participants était de 19.5 ans. 8% des participants ont déclaré consommer régulièrement du tabac à sniffer et 3% consommer du snus au moins une fois par mois. La consommation de tabac à sniffer était associée à la consommation non quotidienne de cigarettes [odds ratio (OR) 2.41, 95% confidence interval (Cl) 1.90-3.05], ainsi qu'à celle d'alcool à risque (OR 3.93, 95% Cl 1.86-8.32) etépisodique (OR 7.41, 95% Cl 4.11-13.38). Un BMI élevé, un revenu familial au-dessus de la moyenne et un faible niveau de formation étaient également associés à la consommation de tabac à sniffer, alors que la consommation occasionnelle de cannabis l'était négativement. Les facteurs associés à la consommation de snus étaient similaires à ceux du tabac à sniffer. Conclusions Un jeune homme suisse sur 12 consomme du tabac à sniffer et 3% consomment du snus. La consommation de tabac non fumé est associée à d'autres comportements à risque, en particulier la consommation d'alcool à risque. Les résultats de la régression logistique multivariée montrent une association de la consommation de tabac non fumé à la consommation d'alcool à risque. Le rôle du tabac non fumé dans l'induction de la dépendance à la nicotine et dans l'initiation à d'autres comportements à risque, ainsi que ses effets sur la santé devront être analysés sur la base d'études longitudinales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le déficit en vitamine D est un facteur de risque de fracture par ses effets osseux et extra osseux. En Suisse, 49,7% des patientes ostéoporotiques ont un déficit en vitamine D. L'objectif de ce travail était d'analyser le statut vitaminique D des patients hospitalisés pour fracture en fonction de la saison, du type de fracture et des caractéristiques individuelles. Méthode: Nous avons dosé la vitamine D des patients hospitalisés au CHUV pour une fracture entre le 1er novembre 2008 et le 31 juillet 2009 et vus dans le cadre de la filière de la fracture. Définition: insuffisance (10 et 30 μg/l) et carence (<10 μg/l) en vitamine D. Résultats: Le taux moyen de vitamine D était de 16,2 μg/l chez les 184 patients (femmes 86%, âge moyen 76ans). 167 patients (91%) avaient une insuffisance et 70 (38%) une carence. 59 patients bénéficiaient d'une supplémentation vitamino-calcique. Leur taux moyen était significativement plus élevé que ceux ne bénéficiant pas de supplémentation (22,9 vs 13,1 μg/l; p <0,05). Les proportions d'insuffisance (74,6% vs 94,4%) et de carence (3,4% vs 54,4%) étaient significativement plus basses. Le taux de vitamine D n'était pas différent entre les fractures traumatiques et non traumatiques (13,9 vs 16,4 μg/l; p = 0,4). Les patients avec une fracture de l'humérus avaient un taux plus bas que lors d'une autre fracture (9,0 vs 16,7 μg/l; p = 0,032). En distinguant les périodes hivernale et estivale, il n'existait pas de différence (16,13 vs 16,34; p = 0,90), ni en terme de carence (38% vs 37,9%; p = 0,99) ou d'insuffisance (86,7% vs 89,9%; p = 0,51). Aucune différence n'a été mise en évidence en fonction des classes d'âge (de 40 à >90 ans) ou du sexe. Les taux moyens de vitamine D étaient significativement plus bas lors d'IMC <18,5 ou >35. Conclusion: Cette analyse souligne l'importance du déficit en vitamine D dans une population de patients fracturés. Elle met en lumière le risque particulier couru par les patients aux deux extrêmes de l'IMC. Par ailleurs, les patients avec une supplémentation ont des taux sanguins de vitamine D insuffisants traduisant ou une compliance insuffisante ou la nécessité de prescrire des doses plus élevées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Differences in efficacy and safety of drugs among patients are a recognized problem in pharmacotherapy. The reasons are multifactorial and, therefore, the choice of a drug and its dosage for a particular patient based on different clinical and genetic factors is suggested to improve the clinical outcome. Four drugs are currently used for the treatment of Alzheimer's disease: three acetylcholinesterase inhibitors (donepezil, galantamine, rivastigmine) and the N-methyl-D-aspartate-antagonist memantine. For these drugs, a high interindividual variability in plasma levels was observed, which might influence the response to treatment. The main objective of this thesis was to provide a better understanding of clinical and genetic factors affecting the plasma levels of antidementia drugs. Furthermore, the relationship between plasma levels, genetic variations and side effects was assessed. For this purpose, a pharmacogenetic study was conducted including 300 patients from a naturalistic clinical setting. Analytical methods for the simultaneous measurement of antidementia drugs in plasma have been developed and validated using liquid chromatography methods coupled with mass spectrometry detection. Presently, these methods are used in the therapeutic drug monitoring service of our laboratory. The routine use of therapeutic drug monitoring for antidementia drugs cannot yet be recommended with the available data, but it may be beneficial for some patients in special clinical cases such as insufficient treatment response, side effects or drug interactions. Donepezil and galantamine are extensively metabolized by the liver enzymes cytochromes P450 (CYP) 2D6 and 3A and are substrates of the drug transporter P-glycoprotein. The relationship of variations in genes affecting the activity of these metabolic enzymes and drug transporter (CYP2D6, CYP3A, POR, NR1I2, ABCB1) with donepezil and galantamine plasma levels was investigated. The CYP2D6 genotype appeared to be the major genetic factor involved in the pharmacokinetics of these two drugs. Thus, CYP2D6 poor metabolizers demonstrated significantly higher drug plasma levels than extensive metabolizers. Additionally, in the donepezil study population, the frequency of side effects was significantly increased in poor metabolizers. Lower donepezil plasma levels were observed in ultra rapid metabolizers, which might expose those patients to the risk of non-response. Memantine is mainly eliminated unchanged by the kidney, with implication of tubular secretion by renal transporters. A population pharmacokinetic model was developed to quantify the effects of clinical factors and genetic variations in renal cation transporters (SLC22A1/2/5, SLC47A1, ABCB1), and nuclear receptors (NR1I2, NR1I3, PPARG) involved in transporter expression, on memantine plasma levels. In addition to the renal function and gender, a genetic variation in the nuclear receptor Pregnane-X-Receptor (NR1I2) significantly affected memantine elimination. These findings suggest that an individualized therapy approach for antidementia drugs, taking into account clinical characteristics and genetic background of a patient, might increase efficacy and safety of the treatment. - Les différences interindividuelles dans l'efficacité et la tolérance des médicaments sont un problème connu en pharmacothérapie. Les raisons sont multiples, et le choix du médicament et de la dose, basé sur des facteurs cliniques et génétiques spécifiques au patient, peut contribuer à améliorer la réponse clinique. Quatre médicaments sont couramment utilisés dans le traitement de la maladie d'Alzheimer : trois inhibiteurs de l'acétylcholinestérase (donépézil, galantamine, rivastigmine) et un antagoniste du récepteur N-méthyl-D-aspartate, la mémantine. Une forte variabilité interindividuelle dans les taux plasmatiques de ces quatre composés a été observée, ce qui pourrait influencer la réponse au traitement. L'objectif principal de ce travail de thèse est de mieux comprendre les facteurs cliniques et génétiques influençant les taux des médicaments pro-cognitifs. En outre, des associations entre les taux, la variabilité génétique et les effets secondaires ont été recherchées. Dans ce but, 300 patients sous traitement avec un médicament pro-cognitif ont été recrutés pour une étude pharmacogénétique. Des méthodes de dosage simultané de médicaments pro-cognitifs par chromatographie liquide couplée à la spectrométrie de masse ont été développées et validées. Ces méthodes sont actuellement utilisées dans le service de suivi thérapeutique de notre unité. Malgré le fait qu'un suivi des taux sanguins des pro-cognitifs ne puisse pas encore être recommandé en routine, un dosage peut être utile dans des cas cliniques spécifiques, comme une réponse insuffisante, une intolérance ou une interaction médicamenteuse. Le donépézil et la galantamine sont fortement métabolisés par les cytochromes P450 (CYP) 2D6 et 3A, et sont également substrats du transporteur P-glycoprotéine. Les associations entre les polymorphismes génétiques de ces enzymes, cofacteur, récepteur nucléaire et transporteur (CYP2D6, CYP3A, POR, NR1I2, ABCB1) et les taux de donépézil et de galantamine ont été étudiées. Le génotype du CYP2D6 a été montré comme le facteur génétique majeur impliqué dans la pharmacocinétique de ces deux médicaments. Ainsi, les métaboliseurs déficients du CYP2D6 ont démontré des taux plasmatiques significativement plus élevés comparé aux bons métaboliseurs. De plus, dans la population traitée avec le donépézil, la fréquence des effets secondaires était plus élevée chez les métaboliseurs déficients. Des taux plasmatiques bas ont été mesurés chez les métaboliseurs ultra-rapides traités avec le donépézil, ce qui pourrait être un facteur de risque à une non-réponse au traitement. La mémantine est principalement éliminée sous forme inchangée par les reins, et partiellement par sécrétion tubulaire grâce à des transporteurs rénaux. Un modèle de cinétique de population a été développé pour quantifier les effets des différents facteurs cliniques et de la variabilité génétique des transporteurs rénaux (SLC22A1/2/5, SLC47A1, ABCB1) et des récepteurs nucléaires (NR1I2, NR1I3, PPARG, impliqués dans l'expression des transporteurs) sur les taux plasmatiques de mémantine. En plus de la fonction rénale et du genre, une variation génétique dans le récepteur nucléaire Pregnane-X-Receptor (NR1I2) a montré une influence significative sur l'élimination de la mémantine. Ces résultats suggèrent qu'une approche thérapeutique individualisée, prenant en compte des facteurs cliniques et génétiques du patient, pourrait améliorer l'efficacité et la sécurité du traitement pro-cognitif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Description : Ce travail de thèse évalue l'impact de la consommation importante d'alcool sur les facteurs de risque cardiovasculaire et l'estimation du risque cardiovasculaire à 10 ans (risque de développer une maladie coronarienne}, dans une population avec une consommation moyenne élevée d'alcool. La consommation modérée d'alcool a été liée à un risque plus faible de développer une maladie coronarienne. Cependant, les données concernant la consommation importante d'alcool et le risque de développer une maladie coronarienne sont conflictuelles. Il y a également peu d'études dans lesquelles les consommations importantes d'alcool ont pu être évaluées en raison du petit nombre de sujets présentant une telle consommation. Résultats: Nous avons utilisé les données de l'étude CoLaus, une étude populationnelle qui inclut des adultes, âgés de 35 à 75 ans, de la ville de Lausanne. Nous avons inclus 5'769 participants, sans maladie cardiovasculaire, pour lesquels la consommation d'alcool d'une semaine a été catégorisée en 0, 1 à 6, 7 à 13, 14 à 20, 21 à 27, 28 à 34 et >=35 verres/semaine et en non-consommateur (0 verre/semaine), consommateur modéré (1 à 13 verres/semaine), important (14 à 34 verres/semaine) et très important (>= 35). La tension artérielle et les lipides ont été mesurés et le risque de développer une maladie coronarienne à 10 ans a été calculé en utilisant le score de Framingham. 73% des participants consommaient de l'alcool; 16% étaient des consommateurs importants et 2% des consommateurs très importants. L'analyse rnultivariée a montré une augmentation du cholestérol HDL avec la consommation d'alcool (de 1.570.01 [moyenne +- erreur standard] chez les non consommateurs à 1.880.03 mmol/L chez les consommateurs très importants), des triglycérides (1.17+-1.01 à 1.32+-1.05 mmol/L) et des valeurs de tension artérielle systolique (127.4+-0.4 à 132.2+-.4 mm Hg) et diastolique (78.7+-0.3 à 81.7+-0.9 mm Hg, toutes les valeurs de p pour trend<0.001). Quant au risque de développer une maladie coronarienne à 10 ans, il a augmenté de 4.31%+-0.10 à 4.90%+-0.37 (p=0.03) avec la consommation d'alcool, en décrivant une courbe en J. En examinant le type de consommation, on a vu que la consommation de vin a plus d'effet sur l'augmentation des valeurs de cholestérol HDL, alors que la consommation de bière ou de spiritueux a plus d'effet sur l'augmentation des valeurs de triglycérides. Conclusions et perspectives: Nos résultats montrent qu'en ce qui concerne l'estimation du risque cardiovasculaire à 10 ans, l'effet protecteur de la consommation d'alcool disparaît pour des consommations très importantes, car l'effet bénéfique des valeurs augmentées de cholestérol HDL est contrecarré par l'augmentation des valeurs de tension artérielle. Quant aux différents types d'alcool, d'autres études sont nécessaires pour mieux évaluer leur effet spécifique sur les facteurs de risque cardiovasculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Les lésions malpighiennes intraépithéliales de bas grade (LSIL) sont un diagnostic rencontré fréquemment lors des frottis de dépistage du cancer du col utérin. Leur prise en charge reste controversée. Au CHUV, avant 2009, un test HPV était effectué chez toutes les femmes avec un diagnostic de L-SIL et seules les patientes avec un test HPV positif pour les hauts risques (HR) étaient adressées en colposcopie. Actuellement, suivant les guidelines européennes de 2006, l'attitude est de faire une colposcopie à toutes les patientes avec un diagnostic initial de L-SIL, sans faire préalablement un test HPV. Cette démarche semble efficiente chez les jeunes patientes, mais pas chez les plus de 30 ans chez qui la prévalence de tests HPV HR positifs est inférieure. Plus de 40% des femmes de plus de 30 ans seraient référées inutilement en colposcopie car elles ne seraient pas infectées par un HPV HR et n'auraient pas de risque d'évolution de leur L-SIL vers une lésion de haut grade. Buts : Comparer les deux différentes prises en charge des femmes de plus de 30 ans présentant un diagnostic de L-SIL, soit celle qui était en vigueur au CHUV avant 2009 et la prise en charge actuelle. Etudier le rôle et l'utilité du test HPV et de la colposcopie dans le suivi de ces femmes. Méthode : Il s'agit d'une étude rétrospective, monocentrique. Nous avons étudié le dossier de toutes les femmes de plus de 30 ans ayant eu une cytologie avec un diagnostic initial de L-SIL du col de l'utérus au CHUV entre le 01.01.09 et le 31.12.10, soit 61 patientes. Résultats : Parmi les 61 femmes inclues dans notre étude 60 ont eu un test HPV effectué lors du diagnostic de L-SIL, dont seuls 29 (48,33%) étaient positifs pour les hauts risques. Comparé aux femmes avec test HPV négatif pour HR, les femmes positives pour HPV HR ont eu un taux inférieur d'évolution spontanément résolutive de leur lésion et un taux supérieur de conisation ou vaporisation du col. Cinq des femmes inclues dans l'étude ont eu une évolution de leurs lésions vers une pathologie plus avancée, dont 4 vers un CIN2 et 1 vers un CIN3. Ces cinq cas étaient positifs pour HPV HR. Conclusion : Les nouvelles guidelines en vigueur au CHUV concernant la prise en charge des femmes avec diagnostic de L-SIL n'étaient pas encore appliquées en 2010, en effet le test HPV a été effectué chez presque la totalité de ces patientes. Ces nouvelles guidelines ne semblent pas être applicables aux femmes de plus de 30 ans, chez qui la prévalence du HPV HR est inférieure, et qui risquent alors de subir des examens complémentaires invasifs, sans qu'il y ait de réel bénéfice sur le pronostic de leur pathologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Prevalence of type 2 diabetes is increasing worldwide at alarming rates, probably secondarily to that of obesity. As type 2 diabetes is characterized by blood hyperglycemia, controlling glucose entry into tissues from the bloodstream is key to maintain glycemia within acceptable ranges. In this context, several glucose transporter isoforms have been cloned recently and some of them have appeared to play important regulatory roles. Better characterizing two of them (GLUT8 and GLUT9) was the purpose of my work. The first part of my work was focused on GLUT8, which is mainly expressed in the brain and is able to transport glucose with high affinity. GLUT8 is retained intracellularly at basal state depending on an N-terminal dileucine motif, thus implying that cell surface expression may be induced by extracellular triggers. In this regard, I was interested in better defining GLUT8 subcellular localization at basal state and in finding signals promoting its translocation, using an adenoviral vector expressing a myc epitope-tagged version of the transporter, thus allowing expression and detection of cell-surface GLUT8 in primary hippocampal neurons and PC 12 cells. This tool enabled me to found out that GLUT8 resides in a unique compartment different from lysosomes, endoplasmic reticulum, endosomes and the Golgi. In addition, absence of GLUT8 translocation following pharmacological activation of several signalling pathways suggests that GLUT8 does not ever translocate to the cell surface, but would rather fulfill its role in its unique intracellular compartment. The second part of my work was focused on GLUT9, which -contrarily to GLUT8 - is unable to transport glucose, but retains the ability to bind glucose-derived cross-linker molecules, thereby suggesting that it may be a glucose sensor rather than a true glucose transporter. The aim of the project was thus to define if GLUT9 triggers intracellular signals when activated. Therefore, adenoviral vectors expressing GLUTS were used to infect both ßpancreatic and liver-derived cell lines, as GLUTS is endogenously expressed in the liver. Comparison of gene expression between cells infected with the GLUTS-expressing adenovirus and cells infected with a GFP-expressing control adenovirus ended up in the identification of the transcription factor HNF4α as being upregulated in aGLUT9-dependent manner. Résumé La prévalence du diabète de type 2 augmente de façon alarmante dans le monde entier, probablement secondairement à celle de l'obésité. Le diabète de type 2 étant caractérisé par une glycémie sanguine élevée, l'entrée du glucose dans les tissus depuis la circulation sanguine constitue un point de contrôle important pour maintenir la glycémie à des valeurs acceptables. Dans ce contexte, plusieurs isoformes de transporteurs au glucose ont été clonées récemment et certaines d'entre elles sont apparues comme jouant d'importants rôles régulateurs. Mieux caractériser deux d'entre elles (GLUT8 et GLUT9) était le but de mon travail. La première partie de mon travail a été centrée sur GLUT8, qui est exprimé principalement dans le cerveau et qui peut transporter le glucose avec une haute affinité. GLUT8 est retenu intracellulairement à l'état basal de façon dépendante d'un motif dileucine N-terminal, ce qui implique que son expression à la surface cellulaire pourrait être induite par des stimuli extracellulaires. Dans cette optique, je me suis intéressé à mieux définir la localisation subcellulaire de GLUT8 à l'état basal et à trouver des signaux activant sa translocation, en utilisant comme outil un vecteur adénoviral exprimant une version marquée (tag myc) du transporteur, me permettant ainsi d'exprimer et de détecter GLUT8 à la surface cellulaire dans des neurones hippocampiques primaires et des cellules PC12. Cet outil m'a permis de montrer que GLUT8 réside dans un compartiment unique différent des lysosomes, du réticulum endoplasmique, des endosomes, ainsi que du Golgi. De plus, l'absence de translocation de GLUT8 à la suite de l'activation pharmacologique de plusieurs voies de signalisation suggère que GLUT8 ne transloque jamais à la membrane plasmique, mais jouerait plutôt un rôle au sein même de son compartiment intracellulaire unique. La seconde partie de mon travail a été centrée sur GLUT9, lequel -contrairement à GLUT8 -est incapable de transporter le glucose, mais conserve la capacité de se lier à des molécules dérivées du glucose, suggérant que ce pourrait être un senseur de glucose plutôt qu'un vrai transporteur. Le but du projet a donc été de définir si GLUT9 active des signaux intracellulaires quand il est lui-même activé. Pour ce faire, des vecteurs adénoviraux exprimant GLUT9 ont été utilisés pour infecter des lignées cellulaires dérivées de cellules ßpancréatiques et d'hépatocytes, GLUT9 étant exprimé de façon endogène dans le foie. La comparaison de l'expression des gènes entre des cellules infectées avec l'adénovirus exprimant GLUT9 et un adénovirus contrôle exprimant la GFP a permis d'identifier le facteur de transcription HNF4α comme étant régulé de façon GLUT9-dépendante. Résumé tout public Il existe deux types bien distincts de diabète. Le diabète de type 1 constitue environ 10 des cas de diabète et se déclare généralement à l'enfance. Il est caractérisé par une incapacité du pancréas à sécréter une hormone, l'insuline, qui régule la concentration sanguine du glucose (glycémie). Il en résulte une hyperglycémie sévère qui, si le patient n'est pas traité à l'insuline, conduit à de graves dommages à divers organes, ce qui peut mener à la cécité, à la perte des membres inférieurs, ainsi qu'à l'insuffisance rénale. Le diabète de type 2 se déclare plus tard dans la vie. Il n'est pas causé par une déficience en insuline, mais plutôt par une incapacité de l'insuline à agir sur ses tissus cibles. Le nombre de cas de diabète de type 2 augmente de façon dramatique, probablement à la suite de l'augmentation des cas d'obésité, le surpoids chronique étant le principal facteur de risque de diabète. Chez l'individu sain, le glucose sanguin est transporté dans différents organes (foie, muscles, tissu adipeux,...) où il est utilisé comme source d'énergie. Chez le patient diabétique, le captage de glucose est altéré, expliquant ainsi l'hyperglycémie. Il est ainsi crucial d'étudier les mécanismes permettant ce captage. Ainsi, des protéines permettant l'entrée de glucose dans la cellule depuis le milieu extracellulaire ont été découvertes depuis une vingtaine d'années. La plupart d'entre elles appartiennent à une sous-famille de protéines nommée GLUT (pour "GLUcose Transporters") dont cinq membres ont été caractérisés et nommés selon l'ordre de leur découverte (GLUT1-5). Néanmoins, la suppression de ces protéines chez la souris par des techniques moléculaires n'affecte pas totalement le captage de glucose, suggérant ainsi que des transporteurs de glucose encore inconnus pourraient exister. De telles protéines ont été isolées ces dernières années et nommées selon l'ordre de leur découverte (GLUT6-14). Durant mon travail de thèse, je me suis intéressé à deux d'entre elles, GLUT8 et GLUT9, qui ont été découvertes précédemment dans le laboratoire. GLUT8 est exprimé principalement dans le cerveau. La protéine n'est pas exprimée à la surface de la cellule, mais est retenue à l'intérieur. Des mécanismes complexes doivent donc exister pour déplacer le transporteur à la surface cellulaire, afin qu'il puisse permettre l'entrée du glucose dans la cellule. Mon travail a consisté d'une part à définir où se trouve le transporteur à l'intérieur de la cellule, et d'autre part à comprendre les mécanismes capables de déplacer GLUT8 vers la surface cellulaire, en utilisant des neurones exprimant une version marquée du transporteur, permettant ainsi sa détection par des méthodes biochimiques. Cela m'a permis de montrer que GLUT8 est localisé dans une partie de la cellule encore non décrite à ce jour et qu'il n'est jamais déplacé à la surface cellulaire, ce qui suggère que le transporteur doit jouer un rôle à l'intérieur de la cellule et non à sa surface. GLUT9 est exprimé dans le foie et dans les reins. Il ressemble beaucoup à GLUT8, mais ne transporte pas le glucose, ce qui suggère que ce pourrait être un récepteur au glucose plutôt qu'un transporteur à proprement parler. Le but de mon travail a été de tester cette hypothèse, en comparant des cellules du foie exprimant GLUT9 avec d'autres n'exprimant pas la protéine. Par des méthodes d'analyses moléculaires, j'ai pu montrer que la présence de GLUT9 dans les cellules du foie augmente l'expression de HNF4α, une protéine connue pour réguler la sécrétion d'insuline dans le pancréas ainsi que la production de glucose dans le foie. Des expériences complémentaires seront nécessaires afin de mieux comprendre par quels mécanismes GLUT9 influence l'expression de HNF4α dans le foie, ainsi que de définir l'importance de GLUT9 dans la régulation de la glycémie chez l'animal entier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Description : ce travail de thèse évalue de façon systématique les études sur l'association entre les dysfonctions thyroïdiennes infracliniques d'une part, et la maladie coronarienne et la mortalité d'autre part. Les hypothyroïdies infracliniques affectent environ 4-5% de la population adulte alors que la prévalence de l'hyperthyroïdie infraclinique est inférieure (environ 1%). L'éventuelle association entre elles pourrait justifier un dépistage systématique des dysfonctions thyroïdiennes infracliniques. Les précédentes études sur l'association entre l'hypothyroïdie infraclinique et la maladie coronarienne ont donné des résultats conflictuels. La parution de nouveaux articles récents basés sur de grandes cohortes prospectives nous a permis d'effectuer une méta-analyse basée uniquement sur des études de cohorte prospectives, augmentant ainsi la validité des résultats. Résultats: 10 des 12 études identifiées pour notre revue systématique sont basées sur des cohortes issues de la population générale («population-based »), regroupant en tout 14 449 participants. Ces 10 études examinent toutes le risque associé à l'hypothyroïdie infraclinique (avec 2134 événements coronariens et 2822 décès), alors que 5 étudient également le risque associé à l'hyperthyroïdie infraclinique (avec 1392 événements coronariens et 1993 décès). En utilisant un modèle statistique de type random-effect model, le risque relatif [RR] lié à l'hypothyroïdie infraclinique pour la maladie coronarienne est de 1.20 (intervalle de confiance [IC] de 95%, 0.97 à 1.49). Le risque diminue lorsque l'on regroupe uniquement les études de meilleure qualité (RR compris entre 1.02 et 1.08). Il est plus élevé parmi les participants de moins de 65 ans (RR, 1.51 [IC, 1.09 à 2.09] et 1.05 [IC, 0.90 à 1.22] pour les études dont l'âge moyen des participants est >_ 65 ans). Le RR de la mortalité cardiovasculaire est de 1.18 (IC, 0.98 à 1.42) et de 1.12 (IC, 0.99 à 1.26) pour la mortalité totale. En cas d'hyperthyroïdie infraclinique, les RR de la maladie coronarienne sont de 1.21 (IC, 0.88 à 1.68), de 1.19 (IC, 0.81 à 1.76) pour la mortalité cardiovasculaire, et de 1.12 (IC, 0.89 à 1.42) pour la mortalité totale. Conclusions et perspectives : nos résultats montrent que les dysfonctions thyroïdiennes infracliniques (hypothyroïdie et hyperthyroïdie infracliniques) représentent un facteur de risque modifiable, bien que modéré, de la maladie coronarienne et de la mortalité. L'efficacité du traitement de ces dysfonctions thyroïdiennes infracliniques doit encore être prouvée du point de vue cardiovasculaire et de la mortalité. Il est nécessaire d'effectuer des études contrôlées contre placebo avec le risque cardiovasculaire et la mortalité comme critères d'efficacité, avant de pouvoir proposer des recommandations sur le dépistage des ces dysfonctions thyroïdiennes dans la population adulte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent rapport intermédiaire concerne l'impact de la suite de la campagne STOP-SIDA et des autres aspects de la prévention (actions multiplicatrices, compléments à la campagne STOP-SIDA), à partir du mois d'octobre 1987. Il fait référence entre autres à la phase III de STOP-SIDA: répétition des messages des phases I et II (usage du préservatif, non-échange de matériel d'injection, fidélité) et situations sans risque de contamination. Les données présentées sont le résultat d'une synthèse préliminaire basée sur des études en cours de réalisation, elles ne peuvent donc être interprétées qu'en termes de premières tendances ou impressions, qui devront encore être confirmées ou infirmées par l'achèvement des études. Elles permettent cependant de formuler quelques conclusions et recommandations. [Auteurs, p. 5-6]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractType 2 diabetes (T2D) is a metabolic disease which affects more than 200 millions people worldwide. The progression of this affection reaches nowadays epidemic proportions, owing to the constant augmentation in the frequency of overweight, obesity and sedentary. The pathogenesis of T2D is characterized by reduction in the action of insulin on its target tissues - an alteration referred as insulin resistance - and pancreatic β-cell dysfunction. This latter deterioration is defined by impairment in insulin biosynthesis and secretion, and a loss of β-cell mass by apoptosis. Environmental factors related to T2D, such as chronic elevation in glucose and free fatty acids levels, inflammatory cytokines and pro-atherogenic oxidized low- density lipoproteins (LDL), contribute to the loss of pancreatic β-cell function.In this study, we have demonstrated that the transcription factor Inducible Cyclic AMP Early Repressor (ICER) participates to the progression of both β-cell dysfunction and insulin resistance. The expression of this factor is driven by an alternative promoter and ICER protein represents therefore a truncated product of the Cyclic AMP Response Element Modulator (CREM) family which lacks transactivation domain. Consequently, the transcription factor ICER acts as a passive repressor which reduces expression of genes controlled by the cyclic AMP and Cyclic AMP Response Element Binding protein (CREB) pathway.In insulin-secreting cells, the accumulation of reactive oxygen species caused by environmental factors and notably oxidized LDL - a process known as oxidative stress - induces the transcription factor ICER. This transcriptional repressor hampers the secretory capacity of β-cells by silencing key genes of the exocytotic machinery. In addition, the factor ICER reduces the expression of the scaffold protein Islet Brain 1 (IB 1 ), thereby favouring the activation of the c-Jun N-terminal Kinase (JNK) pathway. This triggering alters in turn insulin biosynthesis and survival capacities of pancreatic β-cells.In the adipose tissue of mice and human subjects suffering from obesity, the transcription factor ICER contributes to the alteration in insulin action. The loss in ICER protein in these tissues induces a constant activation of the CREB pathway and the subsequent expression of the Activating Transcription Factor 3 (ATF3). In turn, this repressor reduces the transcript levels of the glucose transporter GLUT4 and the insulin-sensitizer peptide adiponectin, thereby contributing to the diminution in insulin action.In conclusion, these data shed light on the important role of the transcriptional repressor ICER in the pathogenesis of T2D, which contributes to both alteration in β-cell function and aggravation of insulin resistance. Consequently, a better understanding of the molecular mechanisms responsible for the alterations in ICER levels is required and could lead to develop new therapeutic strategies for the treatment of T2D.RésuméLe diabète de type 2 (DT2) est une maladie métabolique qui affecte plus de 200 millions de personnes dans le monde. La progression de cette affection atteint aujourd'hui des proportions épidémiques imputables à l'augmentation rapide dans les fréquences du surpoids, de l'obésité et de la sédentarité. La pathogenèse du DT2 se caractérise par une diminution de l'action de l'insuline sur ses tissus cibles - un processus nommé insulino-résistance - ainsi qu'une dysfonction des cellules β pancréatiques sécrétrices d'insuline. Cette dernière détérioration se définit par une réduction de la capacité de synthèse et de sécrétion de l'insuline et mène finalement à une perte de la masse de cellules β par apoptose. Des facteurs environnementaux fréquemment associés au DT2, tels l'élévation chronique des taux plasmatiques de glucose et d'acides gras libres, les cytokines pro-inflammatoires et les lipoprotéines de faible densité (LDL) oxydées, contribuent à la perte de fonction des cellules β pancréatiques.Dans cette étude, nous avons démontré que le facteur de transcription « Inducible Cyclic AMP Early Repressor » (ICER) participe à la progression de la dysfonction des cellules β pancréatiques et au développement de Pinsulino-résistance. Son expression étant gouvernée par un promoteur alternatif, la protéine d'ICER représente un produit tronqué de la famille des «Cyclic AMP Response Element Modulator » (CREM), sans domaine de transactivation. Par conséquent, le facteur ICER agit comme un répresseur passif qui réduit l'expression des gènes contrôlés par la voie de l'AMP cyclique et des « Cyclic AMP Response Element Binding protein » (CREB).Dans les cellules sécrétrices d'insuline, l'accumulation de radicaux d'oxygène libres, soutenue par les facteurs environnementaux et notamment les LDL oxydées - un processus appelé stress oxydatif- induit de manière ininterrompue le facteur de transcription ICER. Ainsi activé, ce répresseur transcriptionnel altère la capacité sécrétoire des cellules β en bloquant l'expression de gènes clés de la machinerie d'exocytose. En outre, le facteur ICER favorise l'activation de la cascade de signalisation « c-Jun N- terminal Kinase » (JNK) en réduisant l'expression de la protéine « Islet Brain 1 » (IB1), altérant ainsi les fonctions de biosynthèse de l'insuline et de survie des cellules β pancréatiques.Dans le tissu adipeux des souris et des sujets humains souffrant d'obésité, le facteur de transcription ICER contribue à l'altération de la réponse à l'insuline. La disparition de la protéine ICER dans ces tissus entraîne une activation persistante de la voie de signalisation des CREB et une induction du facteur de transcription « Activating Transcription Factor 3 » (ATF3). A son tour, le répresseur ATF3 inhibe l'expression du transporteur de glucose GLUT4 et du peptide adipocytaire insulino-sensibilisateur adiponectine, contribuant ainsi à la diminution de l'action de l'insuline en conditions d'obésité.En conclusion, à la lumière de ces résultats, le répresseur transcriptionnel ICER apparaît comme un facteur important dans la pathogenèse du DT2, en participant à la perte de fonction des cellules β pancréatiques et à l'aggravation de l'insulino-résistance. Par conséquent, l'étude des mécanismes moléculaires responsables de l'altération des niveaux du facteur ICER pourrait permettre le développement de nouvelles stratégies de traitement du DT2.Résumé didactiqueL'énergie nécessaire au bon fonctionnement de l'organisme est fournie par l'alimentation, notamment sous forme de sucres (glucides). Ceux-ci sont dégradés en glucose, lequel sera distribué aux différents organes par la circulation sanguine. Après un repas, le niveau de glucose sanguin, nommé glycémie, s'élève et favorise la sécrétion d'une hormone appelée insuline par les cellules β du pancréas. L'insuline permet, à son tour, aux organes, tels le foie, les muscles et le tissu adipeux de capter et d'utiliser le glucose ; la glycémie retrouve ainsi son niveau basai.Le diabète de type 2 (DT2) est une maladie métabolique qui affecte plus de 200 millions de personnes dans le monde. Le développement de cette affection est causée par deux processus pathologiques. D'une part, les quantités d'insuline secrétée par les cellules β pancréatiques, ainsi que la survie de ces cellules sont réduites, un phénomène connu sous le nom de dysfonction des cellules β. D'autre part, la sensibilité des tissus à l'insuline se trouve diminuée. Cette dernière altération, l'insulino-résistance, empêche le transport et l'utilisation du glucose par les tissus et mène à une accumulation de ce sucre dans le sang. Cette stagnation de glucose dans le compartiment sanguin est appelée hyperglycémie et favorise l'apparition des complications secondaires du diabète, telles que les maladies cardiovasculaires, l'insuffisance rénale, la cécité et la perte de sensibilité des extrémités.Dans cette étude, nous avons démontré que le facteur ICER qui contrôle spécifiquement l'expression de certains gènes, contribue non seulement à la dysfonction des cellules β, mais aussi au développement de l'insulino-résistance. En effet, dans les cellules β pancréatiques en conditions diabétiques, l'activation du facteur ICER altère la capacité de synthèse et de sécrétion d'insuline et réduit la survie ces cellules.Dans le tissu adipeux des souris et des sujets humains souffrant d'obésité, le facteur ICER contribue à la perte de sensibilité à l'insuline. La disparition d'ICER altère l'expression de la protéine qui capte le glucose, le transoprteur GLUT4, et l'hormone adipocytaire favorisant la sensibilité à l'insuline, nommée adiponectine. Ainsi, la perte d'ICER participe à la réduction de la captation de glucose par le tissue adipeux et au développement de l'insulino-résistance au cours de l'obésité.En conclusion, à la lumière de ces résultats, le facteur ICER apparaît comme un contributeur important à la progression du DT2, en soutenant la dysfonction des cellules β pancréatiques et l'aggravation de l'insulino-résistance. Par conséquent, l'étude des mécanismes responsables de la dérégulation du facteur ICER pourrait permettre le développement de nouvelles stratégies de traitement du DT2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.