999 resultados para Taille adulte finale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractAlthough the genomes from any two human individuals are more than 99.99% identical at the sequence level, some structural variation can be observed. Differences between genomes include single nucleotide polymorphism (SNP), inversion and copy number changes (gain or loss of DNA). The latter can range from submicroscopic events (CNVs, at least 1kb in size) to complete chromosomal aneuploidies. Small copy number variations have often no (lethal) consequences to the cell, but a few were associated to disease susceptibility and phenotypic variations. Larger re-arrangements (i.e. complete chromosome gain) are frequently associated with more severe consequences on health such as genomic disorders and cancer. High-throughput technologies like DNA microarrays enable the detection of CNVs in a genome-wide fashion. Since the initial catalogue of CNVs in the human genome in 2006, there has been tremendous interest in CNVs both in the context of population and medical genetics. Understanding CNV patterns within and between human populations is essential to elucidate their possible contribution to disease. But genome analysis is a challenging task; the technology evolves rapidly creating needs for novel, efficient and robust analytical tools which need to be compared with existing ones. Also, while the link between CNV and disease has been established, the relative CNV contribution is not fully understood and the predisposition to disease from CNVs of the general population has not been yet investigated.During my PhD thesis, I worked on several aspects related to CNVs. As l will report in chapter 3, ! was interested in computational methods to detect CNVs from the general population. I had access to the CoLaus dataset, a population-based study with more than 6,000 participants from the Lausanne area. All these individuals were analysed on SNP arrays and extensive clinical information were available. My work explored existing CNV detection methods and I developed a variety of metrics to compare their performance. Since these methods were not producing entirely satisfactory results, I implemented my own method which outperformed two existing methods. I also devised strategies to combine CNVs from different individuals into CNV regions.I was also interested in the clinical impact of CNVs in common disease (chapter 4). Through an international collaboration led by the Centre Hospitalier Universitaire Vaudois (CHUV) and the Imperial College London I was involved as a main data analyst in the investigation of a rare deletion at chromosome 16p11 detected in obese patients. Specifically, we compared 8,456 obese patients and 11,856 individuals from the general population and we found that the deletion was accounting for 0.7% of the morbid obesity cases and was absent in healthy non- obese controls. This highlights the importance of rare variants with strong impact and provides new insights in the design of clinical studies to identify the missing heritability in common disease.Furthermore, I was interested in the detection of somatic copy number alterations (SCNA) and their consequences in cancer (chapter 5). This project was a collaboration initiated by the Ludwig Institute for Cancer Research and involved other groups from the Swiss Institute of Bioinformatics, the CHUV and Universities of Lausanne and Geneva. The focus of my work was to identify genes with altered expression levels within somatic copy number alterations (SCNA) in seven metastatic melanoma ceil lines, using CGH and SNP arrays, RNA-seq, and karyotyping. Very few SCNA genes were shared by even two melanoma samples making it difficult to draw any conclusions at the individual gene level. To overcome this limitation, I used a network-guided analysis to determine whether any pathways, defined by amplified or deleted genes, were common among the samples. Six of the melanoma samples were potentially altered in four pathways and five samples harboured copy-number and expression changes in components of six pathways. In total, this approach identified 28 pathways. Validation with two external, large melanoma datasets confirmed all but three of the detected pathways and demonstrated the utility of network-guided approaches for both large and small datasets analysis.RésuméBien que le génome de deux individus soit similaire à plus de 99.99%, des différences de structure peuvent être observées. Ces différences incluent les polymorphismes simples de nucléotides, les inversions et les changements en nombre de copies (gain ou perte d'ADN). Ces derniers varient de petits événements dits sous-microscopiques (moins de 1kb en taille), appelés CNVs (copy number variants) jusqu'à des événements plus large pouvant affecter des chromosomes entiers. Les petites variations sont généralement sans conséquence pour la cellule, toutefois certaines ont été impliquées dans la prédisposition à certaines maladies, et à des variations phénotypiques dans la population générale. Les réarrangements plus grands (par exemple, une copie additionnelle d'un chromosome appelée communément trisomie) ont des répercutions plus grave pour la santé, comme par exemple dans certains syndromes génomiques et dans le cancer. Les technologies à haut-débit telle les puces à ADN permettent la détection de CNVs à l'échelle du génome humain. La cartographie en 2006 des CNV du génome humain, a suscité un fort intérêt en génétique des populations et en génétique médicale. La détection de différences au sein et entre plusieurs populations est un élément clef pour élucider la contribution possible des CNVs dans les maladies. Toutefois l'analyse du génome reste une tâche difficile, la technologie évolue très rapidement créant de nouveaux besoins pour le développement d'outils, l'amélioration des précédents, et la comparaison des différentes méthodes. De plus, si le lien entre CNV et maladie a été établit, leur contribution précise n'est pas encore comprise. De même que les études sur la prédisposition aux maladies par des CNVs détectés dans la population générale n'ont pas encore été réalisées.Pendant mon doctorat, je me suis concentré sur trois axes principaux ayant attrait aux CNV. Dans le chapitre 3, je détaille mes travaux sur les méthodes d'analyses des puces à ADN. J'ai eu accès aux données du projet CoLaus, une étude de la population de Lausanne. Dans cette étude, le génome de plus de 6000 individus a été analysé avec des puces SNP et de nombreuses informations cliniques ont été récoltées. Pendant mes travaux, j'ai utilisé et comparé plusieurs méthodes de détection des CNVs. Les résultats n'étant pas complètement satisfaisant, j'ai implémenté ma propre méthode qui donne de meilleures performances que deux des trois autres méthodes utilisées. Je me suis aussi intéressé aux stratégies pour combiner les CNVs de différents individus en régions.Je me suis aussi intéressé à l'impact clinique des CNVs dans le cas des maladies génétiques communes (chapitre 4). Ce projet fut possible grâce à une étroite collaboration avec le Centre Hospitalier Universitaire Vaudois (CHUV) et l'Impérial College à Londres. Dans ce projet, j'ai été l'un des analystes principaux et j'ai travaillé sur l'impact clinique d'une délétion rare du chromosome 16p11 présente chez des patients atteints d'obésité. Dans cette collaboration multidisciplinaire, nous avons comparés 8'456 patients atteint d'obésité et 11 '856 individus de la population générale. Nous avons trouvés que la délétion était impliquée dans 0.7% des cas d'obésité morbide et était absente chez les contrôles sains (non-atteint d'obésité). Notre étude illustre l'importance des CNVs rares qui peuvent avoir un impact clinique très important. De plus, ceci permet d'envisager une alternative aux études d'associations pour améliorer notre compréhension de l'étiologie des maladies génétiques communes.Egalement, j'ai travaillé sur la détection d'altérations somatiques en nombres de copies (SCNA) et de leurs conséquences pour le cancer (chapitre 5). Ce projet fut une collaboration initiée par l'Institut Ludwig de Recherche contre le Cancer et impliquant l'Institut Suisse de Bioinformatique, le CHUV et les Universités de Lausanne et Genève. Je me suis concentré sur l'identification de gènes affectés par des SCNAs et avec une sur- ou sous-expression dans des lignées cellulaires dérivées de mélanomes métastatiques. Les données utilisées ont été générées par des puces ADN (CGH et SNP) et du séquençage à haut débit du transcriptome. Mes recherches ont montrées que peu de gènes sont récurrents entre les mélanomes, ce qui rend difficile l'interprétation des résultats. Pour contourner ces limitations, j'ai utilisé une analyse de réseaux pour définir si des réseaux de signalisations enrichis en gènes amplifiés ou perdus, étaient communs aux différents échantillons. En fait, parmi les 28 réseaux détectés, quatre réseaux sont potentiellement dérégulés chez six mélanomes, et six réseaux supplémentaires sont affectés chez cinq mélanomes. La validation de ces résultats avec deux larges jeux de données publiques, a confirmée tous ces réseaux sauf trois. Ceci démontre l'utilité de cette approche pour l'analyse de petits et de larges jeux de données.Résumé grand publicL'avènement de la biologie moléculaire, en particulier ces dix dernières années, a révolutionné la recherche en génétique médicale. Grâce à la disponibilité du génome humain de référence dès 2001, de nouvelles technologies telles que les puces à ADN sont apparues et ont permis d'étudier le génome dans son ensemble avec une résolution dite sous-microscopique jusque-là impossible par les techniques traditionnelles de cytogénétique. Un des exemples les plus importants est l'étude des variations structurales du génome, en particulier l'étude du nombre de copies des gènes. Il était établi dès 1959 avec l'identification de la trisomie 21 par le professeur Jérôme Lejeune que le gain d'un chromosome supplémentaire était à l'origine de syndrome génétique avec des répercussions graves pour la santé du patient. Ces observations ont également été réalisées en oncologie sur les cellules cancéreuses qui accumulent fréquemment des aberrations en nombre de copies (telles que la perte ou le gain d'un ou plusieurs chromosomes). Dès 2004, plusieurs groupes de recherches ont répertorié des changements en nombre de copies dans des individus provenant de la population générale (c'est-à-dire sans symptômes cliniques visibles). En 2006, le Dr. Richard Redon a établi la première carte de variation en nombre de copies dans la population générale. Ces découvertes ont démontrées que les variations dans le génome était fréquentes et que la plupart d'entre elles étaient bénignes, c'est-à-dire sans conséquence clinique pour la santé de l'individu. Ceci a suscité un très grand intérêt pour comprendre les variations naturelles entre individus mais aussi pour mieux appréhender la prédisposition génétique à certaines maladies.Lors de ma thèse, j'ai développé de nouveaux outils informatiques pour l'analyse de puces à ADN dans le but de cartographier ces variations à l'échelle génomique. J'ai utilisé ces outils pour établir les variations dans la population suisse et je me suis consacré par la suite à l'étude de facteurs pouvant expliquer la prédisposition aux maladies telles que l'obésité. Cette étude en collaboration avec le Centre Hospitalier Universitaire Vaudois a permis l'identification d'une délétion sur le chromosome 16 expliquant 0.7% des cas d'obésité morbide. Cette étude a plusieurs répercussions. Tout d'abord elle permet d'effectuer le diagnostique chez les enfants à naître afin de déterminer leur prédisposition à l'obésité. Ensuite ce locus implique une vingtaine de gènes. Ceci permet de formuler de nouvelles hypothèses de travail et d'orienter la recherche afin d'améliorer notre compréhension de la maladie et l'espoir de découvrir un nouveau traitement Enfin notre étude fournit une alternative aux études d'association génétique qui n'ont eu jusqu'à présent qu'un succès mitigé.Dans la dernière partie de ma thèse, je me suis intéressé à l'analyse des aberrations en nombre de copies dans le cancer. Mon choix s'est porté sur l'étude de mélanomes, impliqués dans le cancer de la peau. Le mélanome est une tumeur très agressive, elle est responsable de 80% des décès des cancers de la peau et est souvent résistante aux traitements utilisés en oncologie (chimiothérapie, radiothérapie). Dans le cadre d'une collaboration entre l'Institut Ludwig de Recherche contre le Cancer, l'Institut Suisse de Bioinformatique, le CHUV et les universités de Lausanne et Genève, nous avons séquencés l'exome (les gènes) et le transcriptome (l'expression des gènes) de sept mélanomes métastatiques, effectués des analyses du nombre de copies par des puces à ADN et des caryotypes. Mes travaux ont permis le développement de nouvelles méthodes d'analyses adaptées au cancer, d'établir la liste des réseaux de signalisation cellulaire affectés de façon récurrente chez le mélanome et d'identifier deux cibles thérapeutiques potentielles jusqu'alors ignorées dans les cancers de la peau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Messages à retenir: Le scanner peut aider au diagnostic et la caractérisation des valvulopathies et des lésions associées (aorte, coronaires). Le scanner est un examen incontournable pour l'évaluation pré-thérapeutique des procédures TAVI (transfémorale ou transapicale). Le scanner peut être utile pour caractériser les insuffisances aortiques. Grâce aux développements récents dans les thérapies peu invasives et au progrès du CT, le rôle du radiologue est redevenu central dans la prise en charge de certaines valvulopathies aortiques. Résumé: Les valvulopathies aortiques sont des maladies fréquentes. Leur exploration repose largement sur l'échocardiographie et sur l'IRM. Les progrès technologiques en scanner cardiaque ont permis à ce dernier d'explorer la valve aortique et ses pathologies. Ce cours est principalement consacré aux méthodes d'acquisition et de traitement des images dédiées à l'exploration de la valve aortique (plan de coupes, planimétrie, scores...). Une attention particulière est réservée aux considérations anatomiques spécifiques à celle-ci (variantes anatomiques). Les indications du scanner cardiaque dans les valvulopathies seront résumées (sténoses, insuffisances, pathologie tumorale et pathologies inflammatoires). Dans la sténose de la valve, outre ses performances diagnostiques, le scanner plus ou moins couplé à l'exploration des vaisseaux périphériques, est devenu une méthode intournable dans le bilan pré-thérapeutique. La connaissance des paramètres à évaluer (taille de l'anneau, position des coronaires, orientation du plan de la valve...) et la standardisation des mesures sont un élément clé pour une prise en charge optimale. Dans les insuffisances aortiques, les méthodes de quantification (planimétrie) peuvent être utilisées pour les caractériser avec des performances comparables à celles obtenues par d'autres techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les canaux ioniques ASICs (acid-sensing ion channels) appartiennent à la famille des canaux ENaC/Degenerin. Pour l'instant, quatre gènes (1 à 4) ont été clonés dont certains présentent des variants d'épissage. Leur activation par une acidification rapide du milieu extracellulaire génère un courant entrant transitoire essentiellement sodique accompagné pour certains types d'ASICs d'une phase soutenue. Les ASICs sont exprimés dans le système nerveux, central (SNC) et périphérique (SNP). On leur attribue un rôle dans l'apprentissage, la mémoire et l'ischémie cérébrale au niveau central ainsi que dans la nociception (douleur aiguë et inflammatoire) et la méchanotransduction au niveau périphérique. Toutefois, les données sont parfois contradictoires. Certaines études suggèrent qu'ils sont des senseurs primordiaux impliqués dans la détection de l'acidification et la douleur. D'autres études suggèrent plutôt qu'ils ont un rôle modulateur inhibiteur dans la douleur. De plus, le fait que leur activation génère majoritairement un courant transitoire alors que les fibres nerveuses impliquées dans la douleur répondent à un stimulus nocif avec une adaptation lente suggère que leurs propriétés doivent être modulés par des molécules endogènes. Dans une première partie de ma thèse, nous avons abordé la question de l'expression fonctionnelle des ASICs dans les neurones sensoriels primaires afférents du rat adulte pour clarifier le rôle des ASICs dans les neurones sensoriels. Nous avons caractérisé leurs propriétés biophysiques et pharmacologiques par la technique du patch-clamp en configuration « whole-cell ». Nous avons pu démontrer que près de 60% des neurones sensoriels de petit diamètre expriment des courants ASICs. Nous avons mis en évidence trois types de courant ASIC dans ces neurones. Les types 1 et 3 ont des propriétés compatibles avec un rôle de senseur du pH alors que le type 2 est majoritairement activé par des pH inférieurs à pH6. Le type 1 est médié par des homomers de la sous-unité ASIC1 a qui sont perméables aux Ca2+. Nous avons étudié leur co-expression avec des marqueurs des nocicepteurs ainsi que la possibilité d'induire une activité neuronale suite à une acidification qui soit dépendante des ASICs. Le but était d'associer un type de courant ASIC avec une fonction potentielle dans les neurones sensoriels. Une majorité des neurones exprimant les courants ASIC co-expriment des marqueurs des nocicepteurs. Toutefois, une plus grande proportion des neurones exprimant le type 1 n'est pas associée à la nociception par rapport aux types 2 et 3. Nous avons montré qu'il est possible d'induire des potentiels d'actions suite à une acidification. La probabilité d'induction est proportionnelle à la densité des courants ASIC et à l'acidité de la stimulation. Puis, nous avons utilisé cette classification comme un outil pour appréhender les potentielles modulations fonctionnelles des ASICs dans un model de neuropathie (spared nerve injury). Cette approche fut complétée par des expériences de «quantitative RT-PCR ». En situation de neuropathie, les courants ASIC sont dramatiquement changés au niveau de leur expression fonctionnelle et transcriptionnelle dans les neurones lésés ainsi que non-lésés. Dans une deuxième partie de ma thèse, suite au test de différentes substances sécrétées lors de l'inflammation et l'ischémie sur les propriétés des ASICs, nous avons caractérisé en détail la modulation des propriétés des courants ASICs notamment ASIC1 par les sérines protéases dans des systèmes d'expression recombinants ainsi que dans des neurones d'hippocampe. Nous avons montré que l'exposition aux sérine-protéases décale la dépendance au pH de l'activation ainsi que la « steady-state inactivation »des ASICs -1a et -1b vers des valeurs plus acidiques. Ainsi, l'exposition aux serine protéases conduit à une diminution du courant quand l'acidification a lieu à partir d'un pH7.4 et conduit à une augmentation du courant quand l'acidification alleu à partir d'un pH7. Nous avons aussi montré que cette régulation a lieu des les neurones d'hippocampe. Nos résultats dans les neurones sensoriels suggèrent que certains courants ASICs sont impliqués dans la transduction de l'acidification et de la douleur ainsi que dans une des phases du processus conduisant à la neuropathie. Une partie des courants de type 1 perméables au Ca 2+ peuvent être impliqués dans la neurosécrétion. La modulation par les sérines protéases pourrait expliquer qu'en situation d'acidose les canaux ASICs soient toujours activables. Résumé grand publique Les neurones sont les principales cellules du système nerveux. Le système nerveux est formé par le système nerveux central - principalement le cerveau, le cervelet et la moelle épinière - et le système nerveux périphérique -principalement les nerfs et les neurones sensoriels. Grâce à leur nombreux "bras" (les neurites), les neurones sont connectés entre eux, formant un véritable réseau de communication qui s'étend dans tout le corps. L'information se propage sous forme d'un phénomène électrique, l'influx nerveux (ou potentiels d'actions). A la base des phénomènes électriques dans les neurones il y a ce que l'on appelle les canaux ioniques. Un canal ionique est une sorte de tunnel qui traverse l'enveloppe qui entoure les cellules (la membrane) et par lequel passent les ions. La plupart de ces canaux sont normalement fermés et nécessitent d'être activés pour s'ouvrire et générer un influx nerveux. Les canaux ASICs sont activés par l'acidification et sont exprimés dans tout le système nerveux. Cette acidification a lieu notamment lors d'une attaque cérébrale (ischémie cérébrale) ou lors de l'inflammation. Les expériences sur les animaux ont montré que les canaux ASICs avaient entre autre un rôle dans la mort des neurones lors d'une attaque cérébrale et dans la douleur inflammatoire. Lors de ma thèse je me suis intéressé au rôle des ASICs dans la douleur et à l'influence des substances produites pendant l'inflammation sur leur activation par l'acidification. J'ai ainsi pu montrer chez le rat que la majorité des neurones sensoriels impliqués dans la douleur ont des canaux ASICs et que l'activation de ces canaux induit des potentiels d'action. Nous avons opéré des rats pour qu'ils présentent les symptômes d'une maladie chronique appelée neuropathie. La neuropathie se caractérise par une plus grande sensibilité à la douleur. Les rats neuropathiques présentent des changements de leurs canaux ASICs suggérant que ces canaux ont une peut-être un rôle dans la genèse ou les symptômes de cette maladie. J'ai aussi montré in vitro qu'un type d'enryme produit lors de l'inflammation et l'ischémie change les propriétés des ASICs. Ces résultats confirment un rôle des ASICs dans la douleur suggérant notamment un rôle jusque là encore non étudié dans la douleur neuropathique. De plus, ces résultats mettent en évidence une régulation des ASICs qui pourrait être importante si elle se confirmait in vivo de part les différents rôles des ASICs. Abstract Acid-sensing ion channels (ASICs) are members of the ENaC/Degenerin superfamily of ion channels. Their activation by a rapid extracellular acidification generates a transient and for some ASIC types also a sustained current mainly mediated by Na+. ASICs are expressed in the central (CNS) and in the peripheral (PNS) nervous system. In the CNS, ASICs have a putative role in learning, memory and in neuronal death after cerebral ischemia. In the PNS, ASICs have a putative role in nociception (acute and inflammatory pain) and in mechanotransduction. However, studies on ASIC function are somewhat controversial. Some studies suggest a crucial role of ASICs in transduction of acidification and in pain whereas other studies suggest rather a modulatory inhibitory role of ASICs in pain. Moreover, the basic property of ASICs, that they are activated only transiently is irreconcilable with the well-known property of nociception that the firing of nociceptive fibers demonstrated very little adaptation. Endogenous molecules may exist that can modulate ASIC properties. In a first part of my thesis, we addressed the question of the functional expression of ASICs in adult rat dorsal root ganglion (DRG) neurons. Our goal was to elucidate ASIC roles in DRG neurons. We characterized biophysical and pharmacological properties of ASIC currents using the patch-clamp technique in the whole-cell configuration. We observed that around 60% of small-diameter sensory neurons express ASICs currents. We described in these neurons three ASIC current types. Types 1 and 3 have properties compatible with a role of pH-sensor whereas type 2 is mainly activated by pH lower than pH6. Type 1 is mediated by ASIC1a homomultimers which are permeable to Ca 2+. We studied ASIC co-expression with nociceptor markers. The goal was to associate an ASIC current type with a potential function in sensory neurons. Most neurons expressing ASIC currents co-expressed nociceptor markers. However, a higher proportion of the neurons expressing type 1 was not associated with nociception compared to type 2 and -3. We completed this approach with current-clamp measurements of acidification-induced action potentials (APs). We showed that activation of ASICs in small-diameter neurons can induce APs. The probability of AP induction is positively correlated with the ASIC current density and the acidity of stimulation. Then, we used this classification as a tool to characterize the potential functional modulation of ASICs in the spared nerve injury model of neuropathy. This approach was completed by quantitative RT-PCR experiments. ASICs current expression was dramatically changed at the functional and transcriptional level in injured and non-injured small-diameter DRG neurons. In a second part of my thesis, following an initial screening of the effect of various substances secreted during inflammation and ischemia on ASIC current properties, we characterized in detail the modulation of ASICs, in particular of ASIC1 by serine proteases in a recombinant expression system as well as in hippocampal neurons. We showed that protease exposure shifts the pH dependence of ASIC1 activation and steady-state inactivation to more acidic pH. As a consequence, protease exposure leads to a decrease in the current response if ASIC1 is activated by a pH drop from pH 7.4. If, however, acidification occurs from a basal pH of 7, protease-exposed ASIC1a shows higher activity than untreated ASIC1a. We provided evidence that this bi-directional regulation of ASIC1a function also occurs in hippocampal neurons. Our results in DRG neurons suggest that some ASIC currents are involved in the transduction of peripheral acidification and pain. Furthermore, ASICs may participate to the processes leading to neuropathy. Some Ca 2+-permeable type 1 currents may be involved in neurosecretion. ASIC modulation by serine proteases may be physiologically relevant, allowing ASIC activation under sustained slightly acidic conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Epistolae Pauli

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY : The evolution of animal societies, where some individuals forego their own reproductive opportunities to help others to reproduce, poses an evolutionary paradox that can be traced back to Darwin. Altruism may evolve through kin selection when the donor and recipient of altruistic acts are related to each other. In social insects, workers are generally highly related to the brood they rear when colonies are headed by a single queen. Yet some ants have an extraordinary social organization, called unicoloniality, whereby individuals from separate nests mix freely to form large supercolonies, which in some cases extend over hundreds of km. These supercolonies are characterised by a high number of queens (polygyny) and an absence of clear colony boundaries. This type of social organization represents an evolutionary paradox because relatedness between nestmates is effectively zero. In such conditions, kin selection cannot account for the evolution of reproductive altruism. Moreover, unicoloniality is thought to be unstable over time, because workers that can no longer aid close relatives may evolve more selfish strategies. The Argentine ant (Linepithema humile) is a highly invasive species listed among the hundred world's worst invaders by the UICN. Native from South America, L. humile has been accidentally introduced throughout the world. Native populations have been described as noninvasive with a family-based organization. In contrast, within its introduction range, they form unicolonial supercolonies that contain numerous nests without intraspecific aggression. The development of such unicolonial populations has been explained as a direct consequence of the ant's introduction into a new habitat, favouring a transition from family-based to open colonies. To determine if the social structure of the Argentine ant is fundamentally different between the native and the introduced range, we studied genetically and behaviourally native and introduced populations of L. humile over different geographic scales. Our results clearly indicated that there are no fundamental differences in the social organisation of the Argentine ant between the two ranges. Our investigations revealed that, contrary to previous claims, native populations have a unicolonial social organisation very similar to that observed in the introduced range. Consequently, the unicolonial social structure of the Argentine ant does not stem from a shift in social organization associated with introduction into new habitats but evolved in the native range and is likely a stable, evolutionarily ancient adaptation to the local environment. Our study on native populations of L. humile also gave important insight in the comprehension of the evolution of unicoloniality in the Argentine ant. Native supercolonies are relatively small compared to introduced ones and may co-habit in a same population. These supercolonies are genetically highly differentiated leading to a significant relatedness among nestmate workers when the different supercolonies of a population are taken as a reference population. This provides the necessary conditions for loin selection to operate. Furthermore, we examined a native population over time, which revealed a high supercolony extinction rate. If more competitive supercolonies are more likely to survive or replace other supercolonies, a subtle dynamical process between the spread of selfish traits within supercolony and the selective elimination of supercolonies with such traits may allow a stable equilibrium and the persistence of unicoloniality over time. Finally, a worldwide study of the Argentine ant showed that the introduced supercolonies originate from numerous independent introduction events. In conclusion, the success of the Argentine ant does not stem from a shift in social organization associated with its introduction into new habitats, but is most probably explained by the intrinsic characteristics developed in its native range. RESUME : L'altruisme de reproduction où certains individus renoncent à leur propre reproduction pour aider d'autres individus à se reproduire constitue l'un des plus grand paradoxe de l'évolution. En effet, comment expliquer l'évolution de comportements qui tendent à augmenter les chances de survie et le succès reproductif d'autres individus, alors que ces actes diminuent l'aptitude de leurs auteurs ? La théorie de la sélection de parentèle permet de résoudre ce problème. Cette théorie stipule qu'en aidant de proches parents à se reproduire, les individus peuvent promouvoir indirectement la transmission de copies de leurs propres gènes à la génération suivante. Chez les insectes sociaux, l'altruisme des ouvrières s'explique par la théorie de sélection de parentèle lorsque les colonies sont monogynes (constituées d'une seule reine) puisque les ouvrières sont fortement apparentées aux couvains dont elles s'occupent. Par contre, les espèces dites unicoloniales, dont les colonies forment des réseaux de nids appelés supercolonies, représentent toujours un paradoxe pour les théories de l'évolution puisque l'apparentement entre les différents individus d'un nid est nulle. De plus, l'unicolonialité ne devrait pas être stable sur le long terme parce que les ouvrières qui ne s'occupent plus de leur apparentés devraient développer des stratégies plus égoïstes au cours du temps. La fourmi d'Argentine (Linepithema humile) est une espèce invasive ayant un impact considérable sur son environnement. Originaire d'Amérique du Sud, elle a été introduite dans pratiquement toutes les régions du monde dont le climat est de type méditerranéen. Son incroyable succès invasif s'explique par sa structure sociale unicoloniale observée dans chacun des pays où elle a été introduite. Par contre, les rares études effectuées en Argentine ont suggéré que la fourmi d'Argentine n'était pas unicoloniale dans son aire native. L'unicolonialité chez la fourmi d'Argentine était donc considéré comme une conséquence de son introduction dans de nouveaux environnements. Durant cette thèse, nous avons vérifié si la structure sociale de cette espèce différait fondamentalement entre l'aire native et introduite. Pour cela, nous avons étudié, à différentes échelles géographiques, des populations introduites et argentines avec une approche génétique et comportementale. L'ensemble de nos résultats montrent que les différences entre les deux structure sociales ne sont pas aussi importantes que ce que l'on imaginait. Les populations natives sont aussi constituées de réseaux de nids coopérants. La taille de ses supercolonies est toutefois bien moins importante en Argentine et il n'est pas rare de trouver plusieurs supercolonies cohabitantes dans une même population. Nous avons démontré que ces réseaux de nids étaient constitués d'individus qui sont plus apparentés entre eux qu'ils ne le sont avec les individus d'autres supercolonies, ainsi l'unicolonialité dans son aire d'origine ne représente pas un réel paradoxe pour les théories de l'évolution. Finalement nous avons étudié la même population en Argentine à six ans d'intervalle et avons constaté que les supercolonies avaient un taux de survie très faible ce qui pourrait expliquer la stabilité de l'unicolonialité au cours du temps. Si les supercolonies les plus compétitives survivent mieux que les supercolonies dans lesquelles apparaissent des traits égoïstes, on devrait alors observer une dynamique entre l'apparition de traits égoïstes et l'élimination des supercolonies dans lesquelles ces traits égoïstes évolueraient. Finalement, une étude mondiale nous a montré que les supercolonies étaient originaires de nombreux événements d'introductions indépendants. En conclusion, le succès invasif de la fourmi d'Argentine n'est donc pas dû à un changement de comportement associé à son introduction mais est lié aux caractéristiques qu'elle a développées en Argentine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les monographies consacrées à Jean-Baptiste Perronneau (ca 1715-1783) à la fin du XIXe siècle et au début du XXe siècle traduisaient l'engouement pour l'art du XVIIIesiècle qui se déployait dans le Tout Paris de la Belle Époque. Elles rendaient justice au peintre de l'Académie royale de peinture et de sculpture de Paris, et à l'un des peintres favoris des contemporains des Impressionnistes qu'elles présentaient comme un artiste éclipsé de son vivant par son prestigieux aîné, Maurice Quentin Delatour (1704-1788). La première partie de la thèse étudie la carrière parisienne du peintre, ses appuis artistiques et sociaux, ses pratiques au pastel et à l'huile, de l'agrément en 1746 à la réception en 1753 et avant le début de la période des voyages en 1756. La rivalité avec Delatour, mise en scène dans un esprit d'émulation au Salon du Louvre pendant plus de vingt ans, y est largement évoquée. Un même nombre de portraits exposés fait comprendre que Perronneau avait de son vivant la faveur des artistes et du public. Il permet de mesurer les effets de la rivalité avec le peintre de Cour sur sa carrière. Delatour faisait exposer en 1750 son autoportrait à côté de son portrait demandé à Perronneau. Les qualités des deux peintres étaient comparées par la nouvelle critique. Notre étude s'attache à ce qui les rapproche comme à ce qui les sépare. Dans la deuxième partie, les peintres des milieux artistiques qu'il fréquente, Louis Tocqué, Jean-Baptiste Oudry, Charles Nicolas Cochin, pour citer les principaux, sont convoqués pour évaluer l'art de Perronneau dans ce que Cochin appelle la « ressemblance savante ». Les peintres les plus ambitieux s'attachent à son interprétation malgré les difficultés dues aux réactions de leur clientèle. La façon dont procède Perronneau est ici envisagée suivant deux aspects : d'une part, la composition du portrait selon une idée du naturel qui détermine l'attitude et une certaine imitation des défauts ; d'autre part, l'imitation de la nature qui réside dans les qualités de l'art, et donc picturales, appréciées des amateurs avertis. La façon qui lui est propre est de composer un naturel selon des poses variées, fondé sur la noblesse de l'attitude conjuguée à la simplicité, conformément à l'idéal courtois en vigueur depuis le XVIe siècle ; elle reste immuable au long de sa carrière. Dans l'imitation de la nature, sont mis en évidence des aspects cachés du faire lors de la mise en place du relief de la figure, les références aux maîtres anciens, Rembrandt, Van Dyck, la conscience de la distance à laquelle le tableau doit être vu, qui atténue la vigueur de la touche, comme le fait le verre qui sert aussi de vernis au pastel. L'idée de sprezzatura qui régit la distinction légère de la pose se décèle à la surface de ses portraits à travers l'apparence de facilité qu'il s'attache à leur donner, et jusque dans l'inimitable retouche finale. Grâce à la qualité de sa retouche, Perronneau accroît sensiblement dans certaines oeuvres à partir de 1768 l'expression savante et inventive de son sentiment. Afin de peindre comme il l'entend tout en gagnant sa vie et celle de sa famille, le peintre prend le parti de voyager comme l'y autorisait la libéralité de son statut. Dans la troisième partie est étudiée la trame de ses voyages que constituent les recommandations dont il bénéficie. Les identités des quatre cent dix modèles peints en France et en Europe de 1740 à 1782 sont systématiquement étudiées dans le catalogue ainsi que les conditions de leur rencontre avec le peintre. Elles décrivent une clientèle variée représentative de la mobilité des statuts dans l'Europe d'ancien Régime dont la composante nouvelle est la clientèle du monde de la banque internationale et du grand commerce. Leurs portraits peints à l'étranger ou dans les villes de Province que Perronneau présente au Salon irritent et inquiètent l'élite parisienne et donne lieu à de nouvelles tensions avec l'éternel rival, Delatour, au Salon de 1767. Perronneau se sent à juste titre évincé de Paris. Alors que l'on avait pu penser qu'il avait peu souffert des critiques du philosophe qui ne furent publiées qu'après sa mort, il apparaît que sa réputation pâtit de ses jugements diffusés par les nouvelles à la main au-delà des frontières et jusqu'auprès de la prestigieuse clientèle qui lui était acquise. Le travail sur son la carrière et l'oeuvre de Perronneau permet surtout une compréhension nouvelle de l'art du portrait au milieu du siècle, au moment où la représentation individuelle n'a jamais encore touché un aussi large public et où l'Académie ambitionne d'élever cet art au plus haut degré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de l'étude. L'application d'une pression positive (PEEP) pendant la phase d'induction d'une anesthésie générale peut prévenir la formation d'atélectasies pulmonaires. Ceci pourrait permettre d'accroître la durée d'apnée non hypoxique par l'augmentation de la capacité pulmonaire résiduelle fonctionnelle (CRF). Nous avons étudié le bénéfice de l'application d'une PEEP durant la phase d'induction d'une anesthésie générale sur la durée d'apnée avant que la saturation périphérique en oxygène atteigne 90%. Quarante patients ASA I-II ont été randomisés en deux groupes distincts. - Dans le groupe PEEP (n=20), les patients ont été pré-oxygénés durant 5 minutes avec une Fi02 à l00% par l'intermédiaire d'un appareil de CPAP (6cmH2O). Après induction de l'anesthésie, les patients furent ventilés mécaniquement (PEEP 6cmH2O) durant 5 minutes supplémentaires. - Dans le groupe ZEEP (n=20), aucune pression positive (ni CPAP, ni PEEP) ne fut utilisée. La durée d'apnée pour atteindre une saturation périphérique de 90% fut mesurée. La durée d'apnée non hypoxique était plus longue dans le groupe PEEP par rapport au groupe ZEEP (599 +/- 135 s vs 470 +/- 150 s, p= 0,007). Nous concluons que l'application d'une pression positive durant la phase d'induction d'une anesthésie générale chez l'adulte prolonge la durée d'apnée non hypoxique de plus de 2 minutes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Description : ce travail de thèse évalue de façon systématique les études sur l'association entre les dysfonctions thyroïdiennes infracliniques d'une part, et la maladie coronarienne et la mortalité d'autre part. Les hypothyroïdies infracliniques affectent environ 4-5% de la population adulte alors que la prévalence de l'hyperthyroïdie infraclinique est inférieure (environ 1%). L'éventuelle association entre elles pourrait justifier un dépistage systématique des dysfonctions thyroïdiennes infracliniques. Les précédentes études sur l'association entre l'hypothyroïdie infraclinique et la maladie coronarienne ont donné des résultats conflictuels. La parution de nouveaux articles récents basés sur de grandes cohortes prospectives nous a permis d'effectuer une méta-analyse basée uniquement sur des études de cohorte prospectives, augmentant ainsi la validité des résultats. Résultats: 10 des 12 études identifiées pour notre revue systématique sont basées sur des cohortes issues de la population générale («population-based »), regroupant en tout 14 449 participants. Ces 10 études examinent toutes le risque associé à l'hypothyroïdie infraclinique (avec 2134 événements coronariens et 2822 décès), alors que 5 étudient également le risque associé à l'hyperthyroïdie infraclinique (avec 1392 événements coronariens et 1993 décès). En utilisant un modèle statistique de type random-effect model, le risque relatif [RR] lié à l'hypothyroïdie infraclinique pour la maladie coronarienne est de 1.20 (intervalle de confiance [IC] de 95%, 0.97 à 1.49). Le risque diminue lorsque l'on regroupe uniquement les études de meilleure qualité (RR compris entre 1.02 et 1.08). Il est plus élevé parmi les participants de moins de 65 ans (RR, 1.51 [IC, 1.09 à 2.09] et 1.05 [IC, 0.90 à 1.22] pour les études dont l'âge moyen des participants est >_ 65 ans). Le RR de la mortalité cardiovasculaire est de 1.18 (IC, 0.98 à 1.42) et de 1.12 (IC, 0.99 à 1.26) pour la mortalité totale. En cas d'hyperthyroïdie infraclinique, les RR de la maladie coronarienne sont de 1.21 (IC, 0.88 à 1.68), de 1.19 (IC, 0.81 à 1.76) pour la mortalité cardiovasculaire, et de 1.12 (IC, 0.89 à 1.42) pour la mortalité totale. Conclusions et perspectives : nos résultats montrent que les dysfonctions thyroïdiennes infracliniques (hypothyroïdie et hyperthyroïdie infracliniques) représentent un facteur de risque modifiable, bien que modéré, de la maladie coronarienne et de la mortalité. L'efficacité du traitement de ces dysfonctions thyroïdiennes infracliniques doit encore être prouvée du point de vue cardiovasculaire et de la mortalité. Il est nécessaire d'effectuer des études contrôlées contre placebo avec le risque cardiovasculaire et la mortalité comme critères d'efficacité, avant de pouvoir proposer des recommandations sur le dépistage des ces dysfonctions thyroïdiennes dans la population adulte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le captopril, inhibiteur de l'enzyme de conversion de l'angiotensine, est largement utilisé dans le traitement de l'hypertension artérielle et de l'insuffisance cardiaque chez l'adulte et l'enfant . De par son instabilité en milieu aqueux (oxydation en captopril disulfure), il n'est actuellement commercialisé que sous forme de comprimés. La prescription fréquente de doses faibles et variables en pédiatrie justifiait le développement d'une forme orale liquide, tant sur le plan pratique et économique, que sur celui de la sécurité d'administration. Cependant toutes les formulations orales liquides publiées présentent une stabilité courte, ne dépassant guère 1 mois. Objectif: Développer une forme orale liquide de captopril d'une stabilité d'au moins 6 mois. Méthode: Sur la base des données de la littérature, élaboration de 8 formulations liquides différentes de captopril 1 mg/ml (concentration permettant le prélèvement d'un volume adéquat pour une administration en pédiatrie). Mise au point d'une « stability indicating method » par HPLC par des tests de dégradation accélérée à la chaleur (100°C), en milieu acide, basique, en présence d'un agent oxydant et de la lumière. Sélection de la formulation la plus stable durant le premier mois. Etude de stabilité sur 2 ans de 3 lots (3 échantillons/lot) dans leur conditionnement final à température ambiante (TA), au frigo et à 40° ± 2°C. Contrôle microbiologique au début et à la fin de l'étude selon la méthode de la Ph. Eur. (Ed. 3). Résultats: La formule retenue est une solution aqueuse de captopril 1 mg/ml additionnée d'EDTA 1 mg/ml comme stabilisateur et conditionnée dans des flacons VERAL en verre brun de 60 ml. Après dégradation dans les conditions définies ci-dessus, le pic du captopril est nettement séparé sur les chromatogrammes de ceux des produits de dégradation. Après 2 ans, la concentration mesurée est de 104.6% (±0.32%) au frigo, 103.6% (±0.86%) à TA et 96.5 % (±0.02%) à 40°C. Aucune croissance n'a été observée sur la durée de l'étude. Discussion et conclusion: La solution de captopril 1 mg/ml mise au point est simple à préparer. En partant du principe actif pur et en présence d'EDTA comme complexant, les traces de métaux éventuellement présents n'induisent pas l'oxydation du captopril et par conséquent le recours à d'autres stabilisateurs n'est pas nécessaire. La méthode HPLC développée est une « stability indicating method ». Les résultats de l'étude ont montré que cette solution a une durée de validité de 2 ans au frigo et à TA. Compte tenu du fait que la préparation ne contient pas d'agent antimicrobien, une conservation au frigo (2 - 8°C) est toutefois recommandée. La formule proposée présente un réel avantage en pédiatrie tant sur le plan de la sécurité d'administration que sur celui de l'économie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: The outcome of diffuse large B-cell lymphoma has been substantially improved by the addition of the anti-CD20 monoclonal antibody rituximab to chemotherapy regimens. We aimed to assess, in patients aged 18-59 years, the potential survival benefit provided by a dose-intensive immunochemotherapy regimen plus rituximab compared with standard treatment plus rituximab. METHODS: We did an open-label randomised trial comparing dose-intensive rituximab, doxorubicin, cyclophosphamide, vindesine, bleomycin, and prednisone (R-ACVBP) with subsequent consolidation versus standard rituximab, doxorubicin, cyclophosphamide, vincristine, and prednisone (R-CHOP). Random assignment was done with a computer-assisted randomisation-allocation sequence with a block size of four. Patients were aged 18-59 years with untreated diffuse large B-cell lymphoma and an age-adjusted international prognostic index equal to 1. Our primary endpoint was event-free survival. Our analyses of efficacy and safety were of the intention-to-treat population. This study is registered with ClinicalTrials.gov, number NCT00140595. FINDINGS: One patient withdrew consent before treatment and 54 did not complete treatment. After a median follow-up of 44 months, our 3-year estimate of event-free survival was 81% (95% CI 75-86) in the R-ACVBP group and 67% (59-73) in the R-CHOP group (hazard ratio [HR] 0·56, 95% CI 0·38-0·83; p=0·0035). 3-year estimates of progression-free survival (87% [95% CI, 81-91] vs 73% [66-79]; HR 0·48 [0·30-0·76]; p=0·0015) and overall survival (92% [87-95] vs 84% [77-89]; HR 0·44 [0·28-0·81]; p=0·0071) were also increased in the R-ACVBP group. 82 (42%) of 196 patients in the R-ACVBP group experienced a serious adverse event compared with 28 (15%) of 183 in the R-CHOP group. Grade 3-4 haematological toxic effects were more common in the R-ACVBP group, with a higher proportion of patients experiencing a febrile neutropenic episode (38% [75 of 196] vs 9% [16 of 183]). INTERPRETATION: Compared with standard R-CHOP, intensified immunochemotherapy with R-ACVBP significantly improves survival of patients aged 18-59 years with diffuse large B-cell lymphoma with low-intermediate risk according to the International Prognostic Index. Haematological toxic effects of the intensive regimen were raised but manageable. FUNDING: Groupe d'Etudes des Lymphomes de l'Adulte and Amgen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Connaître les principales techniques de préparation du foie à la chirurgie hépatique. Savoir les indications de ces techniques. Connaître les techniques de destruction tumorale. Savoir les limites de ces techniques de destruction. Connaître les traitements loco-régionaux permettant une reduction de volume tumoral. Messages à retenir: L'embolisation portale est une technique de régénération hépatique utilisée en préopératoire. L'embolisation portale permet une augmentation significative du volume du foie non embolisé. Les techniques de destruction locale (RFA, MW) permettent de traiter efficacement les métastases de moins de 3cm de diamètre dans le foie. La chimiothérapie intra-arterielle, la chimio-embolisation et le radio-embolisation doivent être discutées dans le traitement des patients porteurs de métastases hépatiques diffuses non opérables isolées. Résumé: En pré-opératoire, lorsque les patients ont une réserve de parenchyme sain insuffisante, l'embolisation portale réalisée une mois avant la chirurgie permet une hypertrophie significative du futur foie restant. Les techniques de destruction tumorale sont efficaces pour permettre une destruction définitive des métastases hépatiques, à condition de sélectionner des métastases de petite taille. Chez des patients porteurs de métastases hépatiques isolées non resécables, la radio-embolisation. La chimiothérapie intra-artérielle, ou la chimio-embolisation à l'aide de billes chargées permettent d'obtenir des taux de réponses significatifs et doivent être discutées en cas de non réponse à la chimiothérapie conventionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.