591 resultados para Amélioration
Resumo:
Contrairement aux animaux, les plantes sont des organismes sessiles qui ne possèdent pas de mécanismes de fuite quand les conditions environnementales ne sont plus optimales. Les plantes sont physiquement ancrées à l'endroit où elles ont germées et aux conditions environnementales qui parfois peuvent être extrêmes. Les possibilités d'acclimatation de différentes espèces, parfois même de groupes de plantes au sein d'une même espèce, peuvent varier mais repose sur une adaptation génétique de la plante. L'adaptation est un long processus qui repose sur l'apparition spontanée de mutations génétiques, leur mise à l'épreuve face aux conditions environnementales, et dans le cas où la mutation a un impact positif sur la survie dans cet habitat particulier, elle sera maintenue dans une population donnée de plantes. De telles populations, appelées écotypes, sont le matériel de départ pour la découverte de gènes qui induisent un bénéfice pour la plante dans un environnement donné. La plante la plus étudiée en biologie moléculaire est Arabidopsis thaliana, l'arabette des prés. Dans une étude précédente, les racines d'écotypes naturels d'Arabidopsis ont été comparées et un écotype, Uk-1, avait le système racinaire le plus particulier. Cet écotype possède des racines beaucoup plus courtes et plus ramifiées que tous les autres écotypes. Des analyses plus poussées ont montré qu'une seule mutation dans un gène était la cause de ce phénotype, le gène BREVIS RADIX (BRX), mot latin signifiant 'racine courte'. Bien que l'on connaisse le gène BRX, on connaît finalement peu de choses sur son importance adaptative. Dans cette étude, nous avons montré que la mutation dans le gène BRX rend la plante plus résistante aux sols acides. Dans l'optique de mieux comprendre cette valeur adaptative du mutant brx, nous avons analysé dans quels tissus le gène BRX jouait un rôle important. Nous avons pu mettre en évidence que BRX est important pour le développement du protophloème. Le protophloème est un élément du système vasculaire de la plante. En général, les plantes supérieures possèdent deux systèmes de transport à longue distance. L'un d'eux, appelé xylème, transporte l'eau et les nutriments absorbés du sol par les racines vers les feuilles. Les feuilles sont le siège du processus de photosynthèse au cours duquel sont produits des sucres qui devront être distribués partout dans les autres parties de la plante. Le tissu cellulaire chargé de livrer les produits de la photosynthèse, ainsi que les régulateurs de croissance, est le phloème. Ce dernier regroupe le métaphloème et le protophloème. Le protophloème est essentiel pour la livraison des sucres synthétisés ainsi que des signaux de croissance aux pointes des racines, centres organogéniques responsables de la production de nouvelles cellules durant la phase de croissance de la racine. La structure du protophloème peut être décrite comme des tubes continus, vides et résistants, faits de cellules spécialisées qui permettent un transport efficace et rapide. Nous avons montré que dans les mutants brx ces canaux de transports sont discontinus car certaines cellules n'ont pas terminé leur cycle de différenciation. Ces cellules obstruent le conduit ce qui fait que les sucres et les signaux de croissance, comme l'auxine, ne peuvent plus être transportés aux méristèmes. En conséquence, la prolifération de l'activité des méristèmes est compromise, ce qui explique les racines courtes. Au lieu d'être délivré aux méristèmes, l'auxine se concentre en amont des méristèmes où cela provoque l'apparition de nouvelles racines branchées et, très probablement, l'activation des pompes à protons. Sur des sols acides, la concentration en ion H+ est très élevée. Ces ions entrent dans les cellules de la racine par diffusion et perturbent notablement la croissance des racines et de la plante en général. Si les cellules de la racine possédaient des pompes à protons hyperactives, elles seraient capable d'évacuer le surplus d'ions H+ en dehors de la cellule, ce qui leur assurerait de meilleures chances de survie sur sols acides. De fait, le mutant brx est capable d'acidifier le milieu de culture dans lequel il est cultivé plus efficacement que la plante sauvage. Ce mutant est également capable de donner plus de progéniture sur ce type de milieu de croissance que les plantes sauvages. Finalement, nous avons trouvé d'autres mutants brx en milieu naturel poussant sur sols acides, ce qui suggère fortement que la mutation du gène BRX est une des causes de l'adaptation aux sols acides. -- Plants as sessile organisms have developed different mechanisms to cope with the complex environmental conditions in which they live. Adaptation is the process through which traits evolve by natural selection to functionally improve in a given environmental context. An adaptation to the environment is characterized by the genetic changes in the entire populations that have been fixed by natural selection over many generations. BREVIS RADIX (BRX) gene was found through natural Arabidopsis accessions screen and was characterized as a root growth regulator since loss-of-function mutants exhibit arrested post-embryonic primary root growth in addition to a more branched root system. Although brx loss-of-function causes a complete alteration in root architecture, BRX activity is only required in the root vasculature, in particular in protophloem cell file. Protophloem is a part of the phloem transport network and is responsible for delivery of photo-assimilates and growth regulators, coming from the shoot through mature phloem component - metaphloem, to the all plant primary meristems. In order to perform its function, protophloem is the first cell file to differentiate within the root meristem. During this process, protophloem cells undergo a partial programmed cell death, during which they build a thicker cell wall, degrade nucleus and tonoplast while plasma membrane stays functional. Interestingly, protophloem cells enter elongation process only after differentiation into sieve elements is completed. Here we show that brx mutants fail to differentiate protophloem cell file properly, a phenotype that can be distinguished by a presence of a "gap" cells, non-differentiated cells between two flanking differentiated cells. Discontinuity of protophloem differentiation in brx mutants is considered to be a consequence of local hyperactivity of CLAVATA3/EMBRYO SURROUNDING REGION 45 (CLE45) - BARELY ANY MERISTEM 3 (BAM3) signaling module. Interestingly, a CLE45 activity, most probably at the level of receptor binding, can be modulated by apoplastic pH. Altogether, our results imply that the activity of proton pumps, expressed in non-differentiated cells of protophloem, must be maintained under certain threshold, otherwise CLE45-BAM3 signaling pathway will be stimulated and in turn protophloem will not differentiate. Based on vacuolar morphology, a premature cell wall acidification in brx mutants stochastically prevents the protophloem differentiation. Only after protophloem differentiates, proton pumps can be activated in order to acidify apoplast and to support enucleated protophloem multifold elongation driven by surrounding cells growth. Finally, the protophloem differentiation failure would result in an auxin "traffic jam" in the upper parts of the root, created from the phloem-transported auxin that cannot be efficiently delivered to the meristem. Physiologically, auxin "leakage" from the plant vasculature network could have various consequences, since auxin is involved in the regulation of almost every aspect of plant growth and development. Thus, given that auxin stimulates lateral roots initiation and growth, this scenario explains more branched brx root system. Nevertheless, auxin is considered to activate plasma membrane proton pumps. Along with this, it has been shown that brx mutants acidify media much more than the wild type plants do, a trait that was proposed as an adaptive feature of naturally occurring brx null alleles in Arabidopsis populations found on acidic soils. Additionally, in our study we found that most of accessions originally collected from acidic sampling sites exhibit hypersensitivity to CLE45 treatment. This implies that adaptation of plants to acidic soil involves a positive selection pressure against upstream negative regulators of CLE45-BAM3 signaling, such as BRX. Perspective analysis of these accessions would provide more profound understanding of molecular mechanisms underlying plant adaptation to acidic soils. All these results are suggesting that targeting of the factors that affect protophloem differentiation is a good strategy of natural selection to change the root architecture and to develop an adaptation to a certain environment. -- Les plantes comme organismes sessiles ont développé différents mécanismes pour s'adapter aux conditions environnementales complexes dans lesquelles elles vivent. L'adaptation est le processus par lequel des traits vont évoluer via la sélection naturelle vers une amélioration fonctionnelle dans un contexte environnemental donné. Une adaptation à l'environnement est caractérisée par des changements génétiques dans des populations entières qui ont été fixés par la sélection naturelle sur plusieurs générations. Le gène BREVIS RADIX (BRX) a été identifié dans le crible d'une collection d'accessions naturelles d'Arabidopsis et a été caractérisé comme un régulateur de la croissance racinaire étant donné que le mutant perte-de-fonction montre une croissance racinaire primaire arrêtée au stade post-embryonnaire et présente de plus un système racinaire plus ramifié que la plante sauvage. Bien que le mutant perte-de-fonction brx cause une altération complète de l'architecture racinaire, l'activité de BRX n'est requise que dans la vascularisation racinaire, en particulier au niveau du protophloème. Le protophloème est un composant du réseau de transport du phloème et est responsable du transit des dérivés de la photosynthèse ainsi que des régulateurs de croissances, venant de la partie aérienne par le phloème mature (métaphloème) vers tous les méristèmes primaires de la plante. Pour pouvoir réaliser sa fonction, le protophloème est la première file de cellules à se différencier à l'intérieur du méristème de la racine. Pendant ce processus, les cellules du protophloème subissent une mort cellulaire programmée partielle durant laquelle elles épaississent leur paroi cellulaire, dégradent le noyau et le tonoplaste tandis que la membrane plasmique demeure fonctionnelle. De manière intéressante, les cellules du protophloème entament le processus d'allongement seulement après que la différenciation en tubes criblés soit complète. Ce travail montre que le mutant brx est incapable de mener à bien la différenciation de la file de cellules du protophloème, phénotype qui peut être visualisé par la présence de cellules 'trous', de cellules non différenciées entourées de deux cellules différenciées. La discontinuité de la différenciation du phloème dans le mutant brx est considérée comme la conséquence de l'hyperactivité localisée du module de signalisation CLA VA TA3/EMBRYO SURROUNDING REGION 45 (CLE45) - BARELY ANY MERISTEM 3 (BAM3). De manière intéressante, l'activité de CLE45, très probablement au niveau de la liaison avec le récepteur, peut être modulé par le pH apoplastique. Pris ensemble, nos résultats impliquent que l'activité des pompes à protons, actives dans les cellules non différenciées du protophloème, doit être maintenue en dessous d'un certain seuil autrement la cascade de signalisation CLE45-BAM3 serait stimulée, en conséquence de quoi le protophloème ne pourrait se différencier. D'après la morphologie vacuolaire, une acidification prématurée de la paroi cellulaire dans le mutant brx empêche la différenciation du protophloème de manière stochastique. Une fois que le protophloème se différencie, les pompes à protons peuvent alors être activées afin d'acidifier l'apoplaste et ainsi faciliter l'allongement des cellules énuclées du protophloème, entraînées par la croissance des cellules environnantes. Finalement, la différenciation défectueuse du protophloème produit une accumulation d'auxine dans la partie supérieure de la racine car le phloème ne peut plus acheminer efficacement l'auxine au méristème. Physiologiquement, la 'fuite' d'auxine à partir du réseau vasculaire de la plante peut avoir des conséquences variées puisque l'auxine est impliquée dans la régulation de la majorité des aspects de la croissance et développement de la plante. Etant donné que l'auxine stimule l'initiation et développement des racines latérales, ce scénario pourrait expliquer le système racinaire plus ramifié du mutant brx. En plus, l'auxine est considérée comme un activateur des pompes à protons. Par ailleurs, nous avons montré que les mutants brx ont la capacité d'acidifier le milieu plus efficacement que les plantes sauvages, une caractéristique des populations sauvages <¥Arabidopsis poussant sur des sols acides et contenant les allèles délétés brx. De plus, dans nos résultats nous avons mis en évidence que la plupart des accessions collectées originellement sur des sites acidophiles montre une hypersensibilité au traitement par CLE45. Ceci implique que l'adaptation des plantes aux sols acides repose sur la pression de sélection positive à rencontre des régulateurs négatifs de CLE45- BAM3, situés en amont de la cascade, tel le produit du gène BRX. Les analyses de ces accessions pourraient aboutir à une meilleure compréhension des mécanismes moléculaires responsables de l'adaptation des plantes aux sols acides. Tous nos résultats suggèrent que le ciblage des facteurs affectant la différenciation du protophloème serait une stratégie gagnante dans la sélection naturelle pour changer l'architecture de la racine et ainsi s'adapter efficacement à un nouvel environnement.
Resumo:
La sténose du canal médullaire lombaire peut aujourd'hui se traiter de deux façons différentes à savoir le traitement non- chirurgical (physiothérapie, AINS, infiltrations de corticostéroïdes) pour les patients souffrant de symptômes modérés et le traitement chirurgical (décompression canalaire) pour les patients avec des symptômes graves et des déficits fonctionnels. Plusieurs études ont tenté de comparer ces deux approches thérapeutiques. Pour ce faire, on se servit de questionnaires d'évaluation subjective des capacités fonctionnelles (Oswestry Disability Index) souvent associés à des mesures des capacités de marche en laboratoire.¦Notre étude utilise des capteurs gyroscopiques placés sur le corps des sujets afin de mesurer des paramètres de positions, de transferts de position et de la marche pendant 5 jours consécutifs. Cette méthode nous permet d'effectuer ces mesures objectives dans le cadre de vie des patients, dans leurs activités quotidiennes. Nous espérons ainsi obtenir des résultats qui soient plus représentatifs de leur mobilité.¦Dans le cadre de mon travail de master, je me suis concentré sur la phase pilote d'une étude du Dr Schizas. Cette phase ne regroupe qu'un nombre limité de sujets (14) répartis en deux groupes de 7 suivant le traitement reçu (chir. contre non-chir). Nous avons alors émis trois hypothèses. La première dit que, avant traitement, les patients non-opérés marchent mieux que les patients destinés à la chirurgie (symptômes moins intenses). La deuxième postule que le traitement chirurgical permet d'atténuer suffisamment les symptômes pour que les capacités de marche se rapprochent de celles des patients non opérés avant traitement (efficacité de la chirurgie). Pour finir, notre dernière hypothèse prétend que, après la chirurgie, les patients opérés voient une amélioration de leur capacité de marche par rapport à celles qu'ils avaient avant l'intervention. 4 paramètres ont été retenus afin de caractériser la marche: la longueur des pas, la vitesse, la cadence des pas et la distance parcourue. C'est à partir des moyennes et des coefficients de variabilité de ces paramètres que nous avons effectué nos comparaisons.¦Après l'analyse de nos résultats, il s'avère que nos valeurs tendent à valider nos trois hypothèses à quelques exceptions près. Hypothèse n°1: avant traitement, les patients non destinés à la chirurgie marchent plus vite (2.96 contre 2.87 P 0.84) et avec une cadence des pas plus importante (101.78 contre 94.59 P 0.047). Seule la longueur des pas est plus importante chez les futurs opérés (1.01 contre 0.96 P 0.72). Les coefficients de variabilité (CV) sont tous plus faibles chez les non-opérés (marche plus homogène). Concernant notre 2ème hypothèse, nous sommes plutôt satisfaits des résultats. A 3 mois après la chirurgie, les patients opérés, comparés aux non-opérés avant traitement ont une longueur de pas similaire (1.02 contre 0.96 P 0.70) et une vitesse plus importante (3.08 contre 2.96 P 0.83). Seule la cadence des pas est plus élevée chez les non-opérés (101.78 contre 100.23 P 0.72). Les CV confirment également un rapprochement des capacités de marche de nos patients opérés de celles des non-opérés. Pour la troisième hypothèse, nous sommes heureux de constater que les moyennes et les CV sont tous en accord avec l'idée de base. A trois mois post-traitement les patients opérés font des pas de longueur similaire (1.02 contre 1.01 P 0.93), marchent plus vite (3.08 contre 2.89 P 0.52) et à une cadence plus importante (100.23 contre 94.59 P 0.19).¦Avec seulement 14 patients, il est bien clair que ces résultats n'ont que peu de valeur statistique. Cependant, ces résultats nous encouragent à poursuivre cette étude sur un collectif de patients plus important dans le but de mieux comprendre les troubles de la mobilité des personnes atteintes de canal lombaire étroit.
Resumo:
Introduction: L'unité d'Assistance Pharmaceutique de la Pharmacie des HUG fonctionne comme centre d'information sur les médicaments et gère des informations mises à disposition sur le web. Celles-ci sont destinées prioritairement au personnel soignant des HUG et accessibles sur le site intranet/Internet (http://www.hcuge.ch/Pharmacie), mis en service en 1998. L'objectif de ce travail était d'évaluer la qualité de l'information du site intranet/Internet et d'y apporter les améliorations nécessaires. Méthode: Le site intranet/Internet de la pharmacie des HUG a été évalué en automne 2004 à l'aide de 2 outils : NetScoring : grille d'évaluation de la qualité de l'information de santé sur Internet (http://www.chu-rouen.fr/netscoring/). Elle comporte 49 critères répartis en 8 catégories. Chaque critère est noté sur une échelle de 5 occurrences puis pondéré selon son importance (multiplication par 3 si le critère est essentiel, par 2 s'il est important ou par 1 s'il est mineur). Analyse AMDEC : méthode permettant de séquencer un processus et d'en Analyser les Modes de Défaillance, leur Effet et leur Criticité (Qual Saf Health Care 2005 :14(2);93-98). Un score est attribué à chaque mode de défaillance identifié en terme de fréquence, de sévérité et de détectabilité. La multiplication des 3 scores fournit un résultat global de criticité (indice de criticité IC, max. 810), permettant de hiérarchiser les risques. Résultats: Etat des lieux NetScoring : La qualité globale du site intranet/Internet était bonne (202 pts/312). Les points forts concernaient la pertinence et l'utilité du site, la qualité du contenu, du moteur de recherche et du design, la rapidité de chargement du site, la sélection des liens externes proposés et le respect du secret médical. Les faiblesses résidaient dans l'absence de politique de mise à jour régulière, d'annotation systématique de l'état d'actualisation des documents, d'un comité éditorial et scientifique, de mots-clés en anglais et d'une liste permettant l'identification des auteurs. Analyse AMDEC : Quatre catégories (création du document, conversion, structure du site et publication du document) et 19 modes de défaillances ont été caractérisés. Trois modes de défaillance étaient associés à un IC important: erreurs lors de la création d'un document (IC 256), information inadéquate car pratique non validée ou recommandation non généralisable (IC 147) et absence de relecture après la conversion du document en format publiable (ex : PDF) (IC 144). Mesures correctives: Une procédure standard (SOP) a été élaborée pour la gestion du site intranet/Internet. Le format standard des informations (initiales de l'auteur, dates de création et de mise à jour, logo de la pharmacie), la validation et la politique de mise à jour des documents ainsi que la procédure d'archivage y sont clairement définis. Une fiche de suivi accompagnant chaque document a été créée pour la traçabilité de toutes les modifications effectuées et la fréquence de révision à respecter. Discussion et conclusion Cette étude a permis de déterminer et de quantifier les points critiques à améliorer sur le site intranet/Internet de la Pharmacie des HUG. Les mesures correctives entreprises doivent permettre d'améliorer les principales faiblesses et défaillances mises en évidence. La mise en place d'un comité éditorial et scientifique devra être évaluée à l'avenir. Le NetScoring et l'analyse AMDEC sont des outils utiles pour l'évaluation et l'amélioration continue de la qualité d'un site Internet, sous réserve d'une interprétation critique des résultats obtenus avant la mise en place de mesures correctives. Malgré une approche totalement différente, ces outils ont permis de mettre en évidence des lacunes similaires.
Resumo:
RESUME L'utilisation de la thérapie génique dans l'approche d'un traitement des maladies oculaires dégénératives, plus particulièrement de la rétinite pigmentaire, semble être très prometteuse (Acland et al. 2001). Parmi les vecteurs développés, les vecteurs lentiviraux (dérivé du virus humain HIV-1), permettent la transduction des photorécepteurs après injection sous-rétinienne chez la souris durant les premiers jours de vie. Cependant l'efficacité du transfert de gène est nettement plus limitée dans ce type cellulaire après injection chez l'adulte (Kostic et al. 2003). L'objet de notre étude est de déterminer si la présence d'une barrière physique produite au cours du développement, située entre les photorécepteurs et l'épithélium pigmentaire ainsi qu'entre les photorécepteurs eux-mêmes, est responsable de: la diminution de l'entrée en masse du virus dans les photorécepteurs, minimisant ainsi son efficacité chez la souris adulte. De précédentes recherches, chez le lapin, ont décrit la capacité d'enzymes spécifiques comme la Chondroïtinase ABC et la Neuraminidase X de modifier la structure de la matrice entourant les photorécepteurs (Inter Photoreceptor Matrix, IPM) par digestion de certains de ses constituants suite à leur injection dans l'espace sous-rétinien (Yao et al. 1990). Considérant l'IPM comme une barrière physique, capable de réduire l'efficacité de transduction des photorécepteurs chez la souris adulte, nous avons associé différentes enzymes simultanément à l'injection sous-rétinienne de vecteurs lentiviraux afin d'améliorer la transduction virale en fragilisant I'IPM, la rendant ainsi plus perméable à la diffusion du virus. L'injection sous-rétinienne de Neuraminidase X et de Chondroïtinase ABC chez la souris induit des modifications structurales de l'IPM qui se manifestent respectivement par la révélation ou la disparition de sites de liaison de la peanut agglutinin sur les photorécepteurs. L'injection simultanée de Neuraminidase X avec le vecteur viral contenant le transgène thérapeutique augmente significativement le nombre de photorécepteurs transduits (environ cinq fois). Nous avons en fait démontré que le traitement enzymatique augmente principalement la diffusion du lentivirus dans l'espace situé entre l'épithélium pigmentaire et les photorécepteurs. Le traitement à la Chondroïtinase ABC n'entraîne quant à elle qu'une légère amélioration non significative de la transduction. Cette étude montre qu'une meilleure connaissance de l'IPM ainsi que des substances capables de la modifier (enzymes, drogues etc.) pourrait aider à élaborer de nouvelles stratégies afin d'améliorer la distribution de vecteurs viraux dans la rétine adulte.
Resumo:
AbstractAlthough the genomes from any two human individuals are more than 99.99% identical at the sequence level, some structural variation can be observed. Differences between genomes include single nucleotide polymorphism (SNP), inversion and copy number changes (gain or loss of DNA). The latter can range from submicroscopic events (CNVs, at least 1kb in size) to complete chromosomal aneuploidies. Small copy number variations have often no (lethal) consequences to the cell, but a few were associated to disease susceptibility and phenotypic variations. Larger re-arrangements (i.e. complete chromosome gain) are frequently associated with more severe consequences on health such as genomic disorders and cancer. High-throughput technologies like DNA microarrays enable the detection of CNVs in a genome-wide fashion. Since the initial catalogue of CNVs in the human genome in 2006, there has been tremendous interest in CNVs both in the context of population and medical genetics. Understanding CNV patterns within and between human populations is essential to elucidate their possible contribution to disease. But genome analysis is a challenging task; the technology evolves rapidly creating needs for novel, efficient and robust analytical tools which need to be compared with existing ones. Also, while the link between CNV and disease has been established, the relative CNV contribution is not fully understood and the predisposition to disease from CNVs of the general population has not been yet investigated.During my PhD thesis, I worked on several aspects related to CNVs. As l will report in chapter 3, ! was interested in computational methods to detect CNVs from the general population. I had access to the CoLaus dataset, a population-based study with more than 6,000 participants from the Lausanne area. All these individuals were analysed on SNP arrays and extensive clinical information were available. My work explored existing CNV detection methods and I developed a variety of metrics to compare their performance. Since these methods were not producing entirely satisfactory results, I implemented my own method which outperformed two existing methods. I also devised strategies to combine CNVs from different individuals into CNV regions.I was also interested in the clinical impact of CNVs in common disease (chapter 4). Through an international collaboration led by the Centre Hospitalier Universitaire Vaudois (CHUV) and the Imperial College London I was involved as a main data analyst in the investigation of a rare deletion at chromosome 16p11 detected in obese patients. Specifically, we compared 8,456 obese patients and 11,856 individuals from the general population and we found that the deletion was accounting for 0.7% of the morbid obesity cases and was absent in healthy non- obese controls. This highlights the importance of rare variants with strong impact and provides new insights in the design of clinical studies to identify the missing heritability in common disease.Furthermore, I was interested in the detection of somatic copy number alterations (SCNA) and their consequences in cancer (chapter 5). This project was a collaboration initiated by the Ludwig Institute for Cancer Research and involved other groups from the Swiss Institute of Bioinformatics, the CHUV and Universities of Lausanne and Geneva. The focus of my work was to identify genes with altered expression levels within somatic copy number alterations (SCNA) in seven metastatic melanoma ceil lines, using CGH and SNP arrays, RNA-seq, and karyotyping. Very few SCNA genes were shared by even two melanoma samples making it difficult to draw any conclusions at the individual gene level. To overcome this limitation, I used a network-guided analysis to determine whether any pathways, defined by amplified or deleted genes, were common among the samples. Six of the melanoma samples were potentially altered in four pathways and five samples harboured copy-number and expression changes in components of six pathways. In total, this approach identified 28 pathways. Validation with two external, large melanoma datasets confirmed all but three of the detected pathways and demonstrated the utility of network-guided approaches for both large and small datasets analysis.RésuméBien que le génome de deux individus soit similaire à plus de 99.99%, des différences de structure peuvent être observées. Ces différences incluent les polymorphismes simples de nucléotides, les inversions et les changements en nombre de copies (gain ou perte d'ADN). Ces derniers varient de petits événements dits sous-microscopiques (moins de 1kb en taille), appelés CNVs (copy number variants) jusqu'à des événements plus large pouvant affecter des chromosomes entiers. Les petites variations sont généralement sans conséquence pour la cellule, toutefois certaines ont été impliquées dans la prédisposition à certaines maladies, et à des variations phénotypiques dans la population générale. Les réarrangements plus grands (par exemple, une copie additionnelle d'un chromosome appelée communément trisomie) ont des répercutions plus grave pour la santé, comme par exemple dans certains syndromes génomiques et dans le cancer. Les technologies à haut-débit telle les puces à ADN permettent la détection de CNVs à l'échelle du génome humain. La cartographie en 2006 des CNV du génome humain, a suscité un fort intérêt en génétique des populations et en génétique médicale. La détection de différences au sein et entre plusieurs populations est un élément clef pour élucider la contribution possible des CNVs dans les maladies. Toutefois l'analyse du génome reste une tâche difficile, la technologie évolue très rapidement créant de nouveaux besoins pour le développement d'outils, l'amélioration des précédents, et la comparaison des différentes méthodes. De plus, si le lien entre CNV et maladie a été établit, leur contribution précise n'est pas encore comprise. De même que les études sur la prédisposition aux maladies par des CNVs détectés dans la population générale n'ont pas encore été réalisées.Pendant mon doctorat, je me suis concentré sur trois axes principaux ayant attrait aux CNV. Dans le chapitre 3, je détaille mes travaux sur les méthodes d'analyses des puces à ADN. J'ai eu accès aux données du projet CoLaus, une étude de la population de Lausanne. Dans cette étude, le génome de plus de 6000 individus a été analysé avec des puces SNP et de nombreuses informations cliniques ont été récoltées. Pendant mes travaux, j'ai utilisé et comparé plusieurs méthodes de détection des CNVs. Les résultats n'étant pas complètement satisfaisant, j'ai implémenté ma propre méthode qui donne de meilleures performances que deux des trois autres méthodes utilisées. Je me suis aussi intéressé aux stratégies pour combiner les CNVs de différents individus en régions.Je me suis aussi intéressé à l'impact clinique des CNVs dans le cas des maladies génétiques communes (chapitre 4). Ce projet fut possible grâce à une étroite collaboration avec le Centre Hospitalier Universitaire Vaudois (CHUV) et l'Impérial College à Londres. Dans ce projet, j'ai été l'un des analystes principaux et j'ai travaillé sur l'impact clinique d'une délétion rare du chromosome 16p11 présente chez des patients atteints d'obésité. Dans cette collaboration multidisciplinaire, nous avons comparés 8'456 patients atteint d'obésité et 11 '856 individus de la population générale. Nous avons trouvés que la délétion était impliquée dans 0.7% des cas d'obésité morbide et était absente chez les contrôles sains (non-atteint d'obésité). Notre étude illustre l'importance des CNVs rares qui peuvent avoir un impact clinique très important. De plus, ceci permet d'envisager une alternative aux études d'associations pour améliorer notre compréhension de l'étiologie des maladies génétiques communes.Egalement, j'ai travaillé sur la détection d'altérations somatiques en nombres de copies (SCNA) et de leurs conséquences pour le cancer (chapitre 5). Ce projet fut une collaboration initiée par l'Institut Ludwig de Recherche contre le Cancer et impliquant l'Institut Suisse de Bioinformatique, le CHUV et les Universités de Lausanne et Genève. Je me suis concentré sur l'identification de gènes affectés par des SCNAs et avec une sur- ou sous-expression dans des lignées cellulaires dérivées de mélanomes métastatiques. Les données utilisées ont été générées par des puces ADN (CGH et SNP) et du séquençage à haut débit du transcriptome. Mes recherches ont montrées que peu de gènes sont récurrents entre les mélanomes, ce qui rend difficile l'interprétation des résultats. Pour contourner ces limitations, j'ai utilisé une analyse de réseaux pour définir si des réseaux de signalisations enrichis en gènes amplifiés ou perdus, étaient communs aux différents échantillons. En fait, parmi les 28 réseaux détectés, quatre réseaux sont potentiellement dérégulés chez six mélanomes, et six réseaux supplémentaires sont affectés chez cinq mélanomes. La validation de ces résultats avec deux larges jeux de données publiques, a confirmée tous ces réseaux sauf trois. Ceci démontre l'utilité de cette approche pour l'analyse de petits et de larges jeux de données.Résumé grand publicL'avènement de la biologie moléculaire, en particulier ces dix dernières années, a révolutionné la recherche en génétique médicale. Grâce à la disponibilité du génome humain de référence dès 2001, de nouvelles technologies telles que les puces à ADN sont apparues et ont permis d'étudier le génome dans son ensemble avec une résolution dite sous-microscopique jusque-là impossible par les techniques traditionnelles de cytogénétique. Un des exemples les plus importants est l'étude des variations structurales du génome, en particulier l'étude du nombre de copies des gènes. Il était établi dès 1959 avec l'identification de la trisomie 21 par le professeur Jérôme Lejeune que le gain d'un chromosome supplémentaire était à l'origine de syndrome génétique avec des répercussions graves pour la santé du patient. Ces observations ont également été réalisées en oncologie sur les cellules cancéreuses qui accumulent fréquemment des aberrations en nombre de copies (telles que la perte ou le gain d'un ou plusieurs chromosomes). Dès 2004, plusieurs groupes de recherches ont répertorié des changements en nombre de copies dans des individus provenant de la population générale (c'est-à-dire sans symptômes cliniques visibles). En 2006, le Dr. Richard Redon a établi la première carte de variation en nombre de copies dans la population générale. Ces découvertes ont démontrées que les variations dans le génome était fréquentes et que la plupart d'entre elles étaient bénignes, c'est-à-dire sans conséquence clinique pour la santé de l'individu. Ceci a suscité un très grand intérêt pour comprendre les variations naturelles entre individus mais aussi pour mieux appréhender la prédisposition génétique à certaines maladies.Lors de ma thèse, j'ai développé de nouveaux outils informatiques pour l'analyse de puces à ADN dans le but de cartographier ces variations à l'échelle génomique. J'ai utilisé ces outils pour établir les variations dans la population suisse et je me suis consacré par la suite à l'étude de facteurs pouvant expliquer la prédisposition aux maladies telles que l'obésité. Cette étude en collaboration avec le Centre Hospitalier Universitaire Vaudois a permis l'identification d'une délétion sur le chromosome 16 expliquant 0.7% des cas d'obésité morbide. Cette étude a plusieurs répercussions. Tout d'abord elle permet d'effectuer le diagnostique chez les enfants à naître afin de déterminer leur prédisposition à l'obésité. Ensuite ce locus implique une vingtaine de gènes. Ceci permet de formuler de nouvelles hypothèses de travail et d'orienter la recherche afin d'améliorer notre compréhension de la maladie et l'espoir de découvrir un nouveau traitement Enfin notre étude fournit une alternative aux études d'association génétique qui n'ont eu jusqu'à présent qu'un succès mitigé.Dans la dernière partie de ma thèse, je me suis intéressé à l'analyse des aberrations en nombre de copies dans le cancer. Mon choix s'est porté sur l'étude de mélanomes, impliqués dans le cancer de la peau. Le mélanome est une tumeur très agressive, elle est responsable de 80% des décès des cancers de la peau et est souvent résistante aux traitements utilisés en oncologie (chimiothérapie, radiothérapie). Dans le cadre d'une collaboration entre l'Institut Ludwig de Recherche contre le Cancer, l'Institut Suisse de Bioinformatique, le CHUV et les universités de Lausanne et Genève, nous avons séquencés l'exome (les gènes) et le transcriptome (l'expression des gènes) de sept mélanomes métastatiques, effectués des analyses du nombre de copies par des puces à ADN et des caryotypes. Mes travaux ont permis le développement de nouvelles méthodes d'analyses adaptées au cancer, d'établir la liste des réseaux de signalisation cellulaire affectés de façon récurrente chez le mélanome et d'identifier deux cibles thérapeutiques potentielles jusqu'alors ignorées dans les cancers de la peau.
Resumo:
Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
UNIVERSITE DE LAUSANNE - FACULTE DE BIOLOGIE ET DE MEDECINE Médecine Ophtalmologie Etude clinique et angiographique lors de la Syphilis Oculaire THESE préparée sous la direction du Docteur Yan Guex-Crosier et présentée à la Faculté de biologie et de médecine de l'Université de Lausanne pour l'obtention du grade de DOCTEUR EN MEDECINE par Konstantinos BALASKAS Médecin diplômé de la Grèce Originaire d'Athènes (Grèce) ι Lausanne 2012 Une recrudescence des cas de syphilis a été observée ces dernières années. Son diagnostic clinique reste particulièrement difficile en l'absence de signe pathognomonique. Sur le plan oculaire elle présente un vaste spectre de manifestations diverses lui ayant valu le surnom de « la grande imitatrice ». Sa rareté et son hétérogénéité ont empêché l'identification et la vérification statistique des facteurs liés à un pronostic défavorable. Le but de cette étude a été d'explorer les paramètres cliniques et para-cliniques déterminant la sévérité et influençant l'évolution de la maladie. Ce travail comprend deux volets, la première partie intitulée : «Analysis of significant factors influencing visual acuity in ocular syphilis» publiée dans le British Journal of Ophthalmology a démontré qu'une mauvaise acuité visuelle initiale est associée de façon statistiquement significative à la sévérité de l'amputation du champ visuel, à la présence d'un oedème maculaire ou d'une neuropathie optique. Une amélioration de l'acuité visuelle grâce au traitement antibiotique est associée à la présence d'une vasculite (visible à l'angiographie fluorescéinique), d'une neurosyphilis ou d'une uvéite antérieure. Une récidive inflammatoire est fortement associée à une durée prolongée des symptômes avant l'introduction du traitement et à la présence de douleur comme signe d'appel. L'utilité clinique principale de ces résultats statistiques permet de conclure que les formes inflammatoires sévères associées à la triade (vasculite, neurosyphilis et uvéite antérieure) constituent un phénomène réversible pour autant qu'un traitement précoce et adéquat ait été introduit. Le deuxième volet de l'étude analyse les manifestations angiographiques (à la fluorescéine (AF) et au vert d'indocyanine (AICG)) de la syphilis oculaire et a été publié dans le journal du Graefes Archives of Clinical and Experimental Ophthalmology sous le titre suivant : "Fluorescein and indocyanine-green angiography in ocular syphilis: an exploratory study". Des associations faibles ont été démontrées entre la présence d'une vasculite lors de AF et d'une uvéite antérieure, d'une hyalite et d'un âge plus jeune. Une association forte est identifiée entre la présence des «dark dots» sur l'AICG et d'une uvéite antérieure ainsi qu'entre la présence des «hot spots» sur l'AICG et d'une durée prolongée des symptômes. Les conclusions d'importance clinique significative lors de la syphilis oculaire sont que les « dark dots » ou hypofluorescences en AICG évoquent la présence d'une atteinte inflammatoire oculaire sévère et que les « hot spots » ou hyperfluorescences en AICG sont significatifs d'une atteinte chronique. Cette étude contribue à modifier les attitudes cliniques lors de la syphilis oculaire surtout en ce qui concerne l'urgence à traiter afin d'assurer une récupération optimale. Elle aide aussi à redéfinir le rôle de l'angiographie dans la syphilis oculaire pour déterminer la sévérité, la durée de la maladie ainsi que le pronostic visuel.
Resumo:
Objectif Le présent travail a consisté à identifier et comparer, au moyen d'un questionnaire auto-administré, les conditions ergonomiques, les nuisances environnementales et les facteurs de stress rencontrés par le personnel soignant (n = 35) et le personnel pénitentiaire (n = 240) travaillant dans les mêmes prisons. Quatre ans ont séparé la remise du questionnaire auprès des surveillants et des soignants, ce qui limite la portée des résultats. Malgré cela, la comparaison des données fournies montre des tendances intéressantes. Résultats Sur un plan ergonomique, les soignants rencontrent une plus faible pénibilité que les surveillants. Sur un plan environnemental, les soignants sont gênés par un nombre moins important de nuisances que les surveillants, ces derniers étant exposés à des conditions très diverses de travail (divisions de haute sécurité, ateliers de production, domaines agricoles). Par contre, concernant les facteurs de stress, les soignants éprouvent des tensions dans des proportions presque identiques aux surveillants, suite aux interventions d'urgences, à la surcharge de travail, aux relations avec les détenus et à la mauvaise ambiance au travail. En outre, les soignants et surveillants paraissent souffrir différemment d'éléments d'organisation tels que le sentiment de travailler sous pression, le manque d'écoute et le manque de considération. Enfin les soignants signalent un risque de violence plus élevé ainsi qu'un manque de reconnaissance plus important que les surveillants. Conclusion Les surveillants doivent continuer à faire l'objet d'un suivi attentif des services de santé au travail. En ce qui concerne les soignants, l'accent doit être mis sur l'amélioration de leur organisation interne de travail en approfondissant, entre autres, la question du manque de reconnaissance, le sentiment de travail sous pression, ainsi qu'en poursuivant les efforts sur la formation à la lutte contre la violence. [Auteurs]
Resumo:
Le système respiratoire permet l'échange de gaz entre un organisme et son environnement. Pour fonctionner efficacement, il doit lutter contre les infections tout en maintenant une tolérance aux particules inoffensives. Les cytokines sont des petites protéines qui permettent la communication entre les différentes cellules et jouent un rôle important dans la régulation de l'homéostasie et de l'immunité des surfaces pulmonaires. Une production altérée des cytokines sous-tend beaucoup de maladies du système pulmonaire. Ainsi, la compréhension de la biologie fondamentale des cytokines pourrait contribuer à la mise au point de nouveaux traitements. Dans le cadre de cette thèse, nous avons étudié le rôle de deux cytokines, le TSLP (Thymic stromal lymphopoietin) et l'IL-17 (Interleukin 17) dans les réponses immunitaires bénéfiques et nuisibles en utilisant des modèles précliniques de souris des maladies pulmonaires. L'asthme est une maladie qui est caractérisée par la bronchoconstriction réversible, l'inflammation des voies respiratoires inférieures, l'hyperréactivité bronchique et le remodelage tissulaire. Le type d'inflammation affectant les voies respiratoires et la présence ou non d'allergie permettent d'établir les différents types d'asthme. La TSLP est une cytokine qui est principalement exprimée à des niveaux élevés dans les poumons de patients souffrant d'asthme allergique. En conséquence, la majeure partie de la recherche sur la TSLP a mis l'accent sur le rôle joué par celle- ci dans les réponses négatives conduisant au développement de l'asthme allergique. Dans cette thèse, nous montrons que la TSLP joue aussi un rôle bénéfique dans les réponses immunitaires pulmonaires. Nous avons découvert que la TSLP atténue la grippe en augmentant les réponses des lymphocytes T cytotoxiques contre le virus. Nous avons également étudié la fonction de la TSLP dans l'asthme non allergique. Contrairement à l'asthme allergique, nous avons constaté que la TSLP diminue les réponses inflammatoires dans l'asthme non allergique en réglant la production de l'IL-17, une cytokine qui favorise la maladie. Ainsi, nous démontrons les fonctions pleiotropes de la TSLP dans des contextes spécifiques de la maladie. Nos résultats ont des implications importantes pour le développement de thérapies ciblant la TSLP dans l'asthme. Dans la deuxième partie de la thèse, nous avons étudié les mécanismes pathogéniques qui sous-tendent le développement de la broncho-pneumopathie chronique obstructive (BPCO). La BPCO est une maladie chronique le plus largement associée aux fumeurs. Elle est caractérisée par une limitation progressive et irréversible du débit d'air et la destruction de la structure des poumons. L'augmentation globale de l'incidence de la maladie encourage grandement la compréhension des mécanismes pathogéniques et l'identification de nouvelles cibles thérapeutiques. Nous avons découvert que les micro-organismes trouvés dans les voies respiratoires aggravent la maladie en augmentant la production de l'IL-17. L'IL-17 est une cytokine inflammatoire qui est impliquée dans plusieurs maladies pulmonaires chroniques, dont la BPCO. Dans notre modèle animal de la maladie, nous avons neutralisé 1ÌL-17A en utilisant un anticorps spécifique et observé une reprise de la fonction pulmonaire. Dans cette étude, nous avons identifié 2 axes potentiels pour l'intervention thérapeutique contre la BPCO. Cibler les bactéries dans les voies respiratoires soit par l'utilisation d'antibiotiques ou l'utilisation de thérapies à base immunitaire qui antagonisent l'activité spécifiques de l'IL-17. Dans l'avenir, notre laboratoire va collaborer avec des cliniciens pour acquérir des échantillons humains et tester la pertinence de nos résultats dans la maladie humaine. -- L'interaction avec l'environnement extérieur est vitale pour le fonctionnement du système respiratoire. Par conséquent, ce dernier a adopté une multitude de réseaux effecteurs et régulateurs qui permettent de distinguer les particules inhalées comme «dangereuses» ou «inoffensives» et de réagir en conséquence. L'équilibre entre ces réseaux est essentielle pour lutter contre le «danger» déclenché par une infection ou des dommages, et finalement pour le retour à l'homéostasie. Le milieu de cytokine local contribue de manière significative à la mise au point de ces réponses. Ainsi, la caractérisation du rôle des cytokines dans l'état d'équilibre et la maladie a des implications claires pour les interventions thérapeutiques dans les maladies respiratoires aiguës et chroniques. Cette thèse a porté sur le rôle des cytokines, la lymphopoïétine stromale thymique (TSLP) et TIL-17A dans l'élaboration de réponses immunitaires pulmonaires. La TSLP est principalement produite par les cellules épithéliales et peut cibler une myriade de cellules immunitaires. Bien qu'elle ait été montrée être un puissant inducteur des réponses de type Th2, son rôle dans d'autres contextes inflammatoires est relativement inexploré. Dans le premier projet de cette thèse, nous avons découvert une nouvelle fonction de la TSLP dans l'immunité antivirale contre la grippe, une infection virale. Nous avons constaté que la TSLP a réglementé la réponse neutrophile au début de l'infection, en amplifiant l'immunité adaptative spécifique du virus. Mécaniquement, la TSLP a augmenté l'expression de l'IL-15 et du CD70 sur les cellules dendritiques recrutées dans les poumons suite à l'infection et a renforcé leur capacité de stimuler localement les lymphocytes T CD8+ spécifiques du virus. En outre, nous avons étudié la TSLP dans le cadre de divers phénotypes de l'asthme et également démontré l'impact pléiotropique qu'elle a sur les réponses immunitaires pulmonaires. En accord avec les rapports précédents, nous avons constaté que la TSLP a exacerbé l'inflammation atopique médiée par le Th2. En revanche la TSLP a réduit les réponses de l'IL-17A et l'inflammation neutrophile subséquente dans le modèle non atopique, ainsi que l'exacerbation du modèle atopique provoqué par une infection virale. Nos résultats démontrent une dichotomie dans le rôle de la TSLP dans la pathogenèse de l'asthme et soulignent la nécessité d'envisager plusieurs phénotypes d'asthme pour une évaluation approfondie de son potentiel thérapeutique dans cette maladie. Dans la seconde partie de cette thèse, nous avons caractérisé les mécanismes pathogènes qui sous-tendent la broncho-pneumopathie chronique obstructive (BPCO). La BPCO est une maladie hétérogène définie par une diminution progressive de la fonction pulmonaire. Bien que des déclencheurs environnementaux puissent aggraver la maladie, chez les personnes sensibles une maladie établie peut progresser à travers un cercle inflammatoire auto-entretenu. Nous avons cherché à définir les mécanismes sous-jacents à l'aide d'un modèle murin d'inflammation chronique, qui reproduit les caractéristiques pathologiques de la maladie humaine. Puisqu'ont été associés à la BPCO sévère des changements dans le microbiome des voies respiratoires, nous avons supposé que les signaux dérivés de certains microbes pourraient favoriser des voies inflammatoires chroniques de progression de la maladie. Nous avons observé que, en l'absence d un microbiome, la maladie s'est améliorée tel que démontré par une réduction de l'inflammation des voies respiratoires et une amélioration de la fonction pulmonaire. Cela a été lié spécifiquement à une production réduite d'IL-17A, une cytokine qui a été impliquée dans la maladie humaine. De plus la cinétique de production de 1IL- 17A dépendant du microbiote est corrélé à la sévérité de la maladie. Sur la base de ces données, la neutralisation de l'IL-17A a également eu un effet bénéfique sur l'évolution de la maladie. Le rôle significatif de 1TL-17A dans l'aggravation de la maladie a été couplé à sa capacité à engager un dialogue entre les voies inflammatoires innées et adaptatives. Il a influencé le recrutement et le phénotype des neutrophiles et des macrophages, ce qui a eu un impact direct et indirect sur la formation et la fonction des tissus lymphoïdes tertiaires associée à des stades sévères de la maladie. -- The interaction with the external environment is vital for the functioning of the respiratory system. Consequently, it has adopted a multitude of effector and regulatory networks that enable it to distinguish inhaled particles as 'dangerous' or 'innocuous' and respond accordingly. The balance between these networks is crucial to counteract the 'danger' triggered by infection or damage, and ultimately return to homeostasis. The local cytokine milieu contributes significantly to the fine- tuning of these responses. Thus, characterizing the role of cytokines in steady state and disease has clear implications for therapeutic interventions in acute and chronic respiratory disorders. This thesis focused on the role of the cytokines, thymic stromal lymphopoietin (TSLP) and IL-17A in shaping pulmonary immune responses. TSLP is primarily produced by barrier epithelial cells and can target a myriad of immune cells. Although it has been shown to be potent inducer of Th2 type responses, its role in other inflammatory settings is relatively unexplored. In the first project of this thesis, we discovered a novel function of TSLP in antiviral immunity to Influenza A infection. We found that while TSLP regulated the early neutrophilic response to infection, it amplified virus specific adaptive immunity. Mechanistically, TSLP enhanced the expression of IL-15 and CD70 on the lung recruited inflammatory dendritic cells and strengthened their ability to stimulate virus specific CD8+ T cell responses locally. In addition we investigated TSLP in the context of diverse asthma phenotypes and further demonstrated the pleiotropic impact it has on pulmonary immune responses. In concurrence with previous reports we found that TSLP exacerbated Th2 mediated atopic inflammation. In contrast TSLP curtailed IL-17A responses and subsequent neutrophilic inflammation in the non-atopic model as well as virus induced exacerbation of the atopic model. Our findings demonstrate a dichotomy in the role of TSLP in asthma pathogenesis and emphasize the need to consider multiple asthma phenotypes for a thorough evaluation of its therapeutic potential in this disease. In the next part of this thesis we characterized the pathogenic mechanisms underlying chronic obstructive pulmonary disease. COPD is a heterogeneous disease defined by a progressive decline in lung function. Although environmental triggers exacerbate the disease, in susceptible individuals the established disease can progress through a self-sustained inflammatory circle. We sought to delineate the underlying mechanisms by using a murine model of chronic inflammation, which reproduced key pathological features of the human disease. As changes in the airway microbiome have been linked to severe COPD, we speculated that microbial derived signals could facilitate the establishment of chronic inflammatory pathways that favour disease progression. We found that the absence of a microbiota ameliorated disease, exhibited by a reduction in airway inflammation and an improvement in lung function. This was linked specifically to an impaired production of IL-17A, a cytokine that has been implicated in human disease. Moreover the kinetics of microbiota-dependent IL-17A production correlated with the disease severity. Based on these data targeted neutralization of IL-17A also had a beneficiai effect on the disease outcome. The prominent role played by IL-I7A in driving the disease was coupled to its ability in engaging and mediating cross talk between pathogenic innate and adaptive immune pathways. It influenced the recruitment and phenotype of neutrophils and macrophages, as well as impacted upon the formation and function of tertiary lymphoid tissue associated with severe disease. Thus, temporal and spatial changes in cytokine production, their cellular targets and interaction with the local milieu determine the balance between immunity and pathology in the lung. Collectively our findings provide novel mechanistic insights in the complex role played by cytokines in orchestrating pulmonary immune responses and have clear implications for human disease.
Resumo:
Contexte : L'insuffisance cardiaque touche environ 150 personnes sur 100'000 habitants en Suisse, avec une¦prévalence évaluée à 1.45 %, et cause 42.3 décès par 100'000 habitants. Globalement, la prévalence de¦l'insuffisance cardiaque augmente, d'une part à cause du vieillissement de la population, d'autre part par¦l'amélioration de la prise en charge de pathologies cardiaques. La transplantation reste actuellement le gold¦standard pour l'insuffisance cardiaque réfractaire au traitement pharmacologique, mais les organes sont¦rares. Une alternative a donc été développée, celle des systèmes d'assistance ventriculaire (ventricular assist¦device, VAD). Les appareils existants actuellement sur le marché fonctionnent en déviant le sang du¦ventricule vers un système de projection à flux pulsatile ou continu placé dans la cage thoracique, avant de le¦renvoyer vers l'artère. Ils comportent certains défauts, en particulier la nécessité de léser le coeur pour les¦implanter et les risques hémorragique et thrombo-embolique importants. Pour remédier à ces défauts, des¦VAD externes sont en cours de développement. Fixés autour du coeur, ils permettent de l'assister dans la¦contraction, sans contact direct avec le sang ni lésion du coeur. Dans cette étude, nous avons créé deux¦prototypes de VAD externes basés sur la technique du muscle artificiel. Ils sont faits de fils de Nitinol, un¦alliage à mémoire de forme qui raccourcit lorsqu'il est chauffé. Placés autour du coeur, ils lui impriment un¦mouvement de contraction, tel un muscle artificiel.¦Méthode : deux VAD externes ont été créés en utilisant du Nitinol. Les fibres de Nitinol du VAD N°1¦passent à travers des charnières qui augmentent son pouvoir de contraction. Celles du VAD N°2 sont¦orientées dans un maillage de fibres de Kevlar de manière à reproduire la direction des fibres musculaires du¦ventricule humain. Ils ont été testés sur un banc d'essai avec un coeur en silicone. Nous avons mesuré la¦fraction d'éjection, le débit et la pression générée, à différentes valeurs de précharge et post-charge. Les¦VAD étaient alimentés par une génératrice ou par une unité de contrôle, qui permettait de fournir l'énergie¦précisément dans chaque fil de Nitinol et d'imposer une certaine fréquence cardiaque.¦Résultats : Tant avec la génératrice que l'unité de contrôle, le ventricule gauche du VAD N°1 fournit une¦fraction d'éjection maximale de 16.09 %. Le débit maximal est de 191.42 ml/min. La génératrice permet au¦VAD N°2 de fournir une fraction d'éjection de 6.18 %, contre 2.48 % avec l'unité de contrôle. Le débit¦maximal est de 27.37 ml/min. La pression générée atteint 75 mmHg pour le VAD N°1 et 6 mmHg pour le¦VAD N°2.¦Discussion/conclusion : Le VAD N°1 est le plus performant, il permet une augmentation significative de la¦fraction d'éjection et pourrait avoir un impact sur la qualité de vie des patients. L'unité de contrôle apporte¦un avantage sur la génératrice pour le VAD N°1, en dirigeant plus précisément l'énergie dans les fils de¦Nitinol et en limitant les pertes. Le VAD N°2, lui, est peu performant et l'unité de contrôle n'améliore pas¦ses performances. Cela est probablement dû à sa configuration initiale, la taille du VAD n'étant pas adaptée¦au coeur en silicone. Cette étude prouve qu'il est possible d'assister un coeur depuis l'extérieur, sans l'altérer,¦et que la position des fibres de Nitinol a plus d'importance que leur nombre.
Resumo:
Le partage et la réutilisation d'objets d'apprentissage est encore une utopie. La mise en commun de documents pédagogiques et leur adaptation à différents contextes ont fait l'objet de très nombreux travaux. L'un des aspects qui fait problème concerne leur description qui se doit d'être aussi précise que possible afin d'en faciliter la gestion et plus spécifiquement un accès ciblé. Cette description s'effectue généralement par l'instanciation d'un ensemble de descripteurs standardisés ou métadonnées (LOM, ARIADNE, DC, etc). Force est de constater que malgré l'existence de ces standards, dont certains sont relativement peu contraignants, peu de pédagogues ou d'auteurs se prêtent à cet exercice qui reste lourd et peu gratifiant. Nous sommes parti de l'idée que si l'indexation pouvait être réalisée automatiquement avec un bon degré d'exactitude, une partie de la solution serait trouvée. Pour ce, nous nous sommes tout d'abord penché sur l'analyse des facteurs bloquants de la génération manuelle effectuée par les ingénieurs pédagogiques de l'Université de Lausanne. La complexité de ces facteurs (humains et techniques) nous a conforté dans l'idée que la génération automatique de métadonnées était bien de nature à contourner les difficultés identifiées. Nous avons donc développé une application de génération automatique de métadonnées laquelle se focalise sur le contenu comme source unique d'extraction. Une analyse en profondeur des résultats obtenus, nous a permis de constater que : - Pour les documents non structurés : notre application présente des résultats satisfaisants en se basant sur les indicateurs de mesure de qualité des métadonnées (complétude, précision, consistance logique et cohérence). - Pour des documents structurés : la génération automatique s'est révélée peu satisfaisante dans la mesure où elle ne permet pas d'exploiter les éléments sémantiques (structure, annotations) qu'ils contiennent. Et dans ce cadre nous avons pensé qu'il était possible de faire mieux. C'est ainsi que nous avons poursuivi nos travaux afin de proposer une deuxième application tirant profit du potentiel des documents structurés et des langages de transformation (XSLT) qui s'y rapportent pour améliorer la recherche dans ces documents. Cette dernière exploite la totalité des éléments sémantiques (structure, annotations) et constitue une autre alternative à la recherche basée sur les métadonnées. De plus, la recherche basée sur les annotations et la structure offre comme avantage supplémentaire de permettre de retrouver, non seulement les documents eux-mêmes, mais aussi des parties de documents. Cette caractéristique apporte une amélioration considérable par rapport à la recherche par métadonnées qui ne donne accès qu'à des documents entiers. En conclusion nous montrerons, à travers des exemples appropriés, que selon le type de document : il est possible de procéder automatiquement à leur indexation pour faciliter la recherche de documents dès lors qu'il s'agit de documents non structurés ou d'exploiter directement leur contenu sémantique dès lors qu'il s'agit de documents structurés.
Resumo:
La régulation de la glycémie est une fonction complexe de l'organisme faisant intervenir de multiples mécanismes. Lors de la prise alimentaire, l'un des mécanismes impliqués dans l'homéostasie glucidique, notamment dans la sécrétion d'insuline, est l'axe entéroinsulaire. En effet, le contact des nutriments avec des cellules spécialisées réparties le long du tractus digestif déclenche la sécrétion d'hormones, appelées incretines, telles que le GLP-1 ou le GIP. Ces hormones gastro-intestinales potentialisent la sécrétion d'insuline (effet incrétine) et sont responsables d'une grande partie de la réponse insulinique à la prise orale de glucose.¦L'importance de ces hormones est particulièrement mise en évidence par des observations faites chez les sujets obèses ayant bénéficié d'une chirurgie bariatrique. En effet, après l'opération, la sensibilité à l'insuline et sa sécrétion sont améliorées chez des patients obèses diabétiques ou intolérants au glucose, alors que le pattern de sécrétion des hormones GI est nettement modifié avec notamment une augmentation de la sécrétion de GLP-1. L'augmentation de la sécrétion de ces hormones pourrait contribuer à l'amélioration de la tolérance glucidique en augmentant la sécrétion d'insuline en réponse à l'apport de nutriments. Cette activation exagérée de l'axe entéro-insulaire pourrait aussi contribuer à la pathogenèse des hypoglycémies postprandiales survenant parfois après un bypass gastrique¦Néanmoins, si le rôle des hormones gastro-intestinales est indubitale, il y a peu de données nous indiquant le rôle respectif des divers macronutriments composant un repas standard dans I'activation de l'axe entéro-insulaire. Dans ce travail, nous avons cherché à préciser le rôle spécifique de la partie lipidique et protéique d'un repas standard.¦Après avoir confirmé l'existence d'un effet incrétine lors de la consommation d'un repas test sous forme d'un sandwich, les résultats que nous avons obtenus montrent que l'ingestion de lipides en quantité correspondant à celle d'un repas standard augmente la sécrétion d'insuline, contribuant ainsi à l'effet incrétine, alors qu'à contrario, l'ingestion de protéines ne provoque pas d'augmentation de l'insulinémie et ainsi ne contribue pas à l'effet incrétine.¦Ces observations pourraient revêtir un intérêt pratique. En effet, la démonstration du rôle prépondérant d'un macronutriment dans l'effet incrétine suivant la prise d'un repas standard pourrait mener à des prescriptions diététiques dans le but d'améliorer le contrôle glycémique chez des patients diabétiques ou de diminuer les hypoglycémies suivant la prise alimentaire chez certains patients ayant bénéficié d'un bypass gastrique. De même, une meilleure compréhension du rôle des hormones incrétines a déjà ouvert de nouvelles perspectives thérapeutiques dans le traitement du diabète de type 2 avec le développement de nouvelles classes de médicaments telles que les analogues du GLP-1 ou les inhibiteurs de sa dégradation.
Resumo:
Ce travail concerne les 26 premiers patients opérés à Lausanne de juillet 1995 à avril 1998 d?une gie de réduction de volume pulmonaire pour un emphysème sévère. Il présente leurs actéristiques préopératoires générales, leur évaluation radiologique et cardiologique, ainsi que mesures fonctionnelles pulmonaires. Il examine ensuite la technique opératoire, la période ériopératoire, ainsi que les résultats fonctionnels postopératoires des patients. De plus il présente les entretiens ayant eu lieu avec chaque patient pour connaître son évaluation de l?opération et de ges résultats. Ces informations sont ensuite comparées avec les résultats présents dans la littérature. Le profil préopératoire, la technique opératoire, la période péripopératoire, et les résultats fonctionnels postopératoires sont comparés. Un groupe de patients qui n?a pas répondu au point de vue fonctionnel A la chirurgie est ensuite examiné afin de tenter de définir des critères préopératoires de bonne ou mauvaise réponse, et ceux-ci sont mis en relation avec les données de la littérature. On compare ensuite le groupe de mauvais répondeurs fonctionnels avec le groupe des patients ne s?estimant pas améliorés par l?opération. En faisant une étude statistiques des valeurs fonctionnelles pré et postopératoire, on observe une amélioration significative du VEMS, du volume résiduel, de la PaC02, de la distance parcounie au test de marche de six minutes et de la dyspnée engendrée par le test sur une échelle de Borg. L?amélioration de la Pa02 postopératoire et de la saturation en oxygène pendant le test de marche n?était pas significative statistiquement. On peut voir que ce collectif de patients lausannois est comparable aux autres séries au niveau du profil préopératoire et de la gravité de l?atteinte fonctionnelle, au niveau de la technique opératoire, de la mortalité et morbidité, et des résultats fonctionnels postopératoires. On observe comme différence un volume résiduel moyen préopératoire plus élevé et davantage amélioré en postopératoire que dans la littérature. Cette étude ne met pas en évidence - et c?est également le cas dans la littérature - de critères clairs préopératoires prédictifs d?une bonne réponse à la chirurgie. De même elle n?a pas mis en évidence de concordance entre l?amélioration de la symptomatologie des patients et les résultats fonctionnels postopératoires. 11 serait donc intéressant de poursuivre ce travail par une évaluation prospective plus systématique des patients opérés et de pouvoir la comparer avec les résultats des patients récusés ou refusant la chirurgie de réduction de volume pulmonaire, afin de pouvoir mieux en évaluer les bénéfices à long terme.
Resumo:
RESUME Une gastrostomie est un montage chirurgical d'ouverture d'un orifice cutané donnant un accès direct à l'estomac pour permettre l'alimentation et la décompression gastrique. La gastrostomie est indiquée au cours de certaines maladies chroniques de patients ayant un tube digestif fonctionnel. La gastrostomie percutanée par endoscopie (Percutaneous Endoscopie Gastrostomy PEG) a été décrite en 1977 par Michael W. Gauderer. La méthode est sûre et rapide. Peuvent en bénéficier les patients très affaiblis par leur maladie, pour lesquels une longue anesthésie est à éviter. La réalisation d'une PEG nécessite la collaboration d'un chirurgien, d'un gastro- entérologue et d'un anesthésiste, tous trois spécialisés en pédiatrie. La partie théorique de cette thèse est consacrée à l'historique des gastrostomies et aux diverses techniques de nutrition entérale. La partie pratique de la PEG est étudiée avec ses variantes, ses indications, contre-indications et complications. Cette partie pratique est basée sur 12 ans d'expérience du Service de Chirurgie Pédiatrique du CHUV. Il s'agit d'une étude rétrospective de dossiers, associée à un questionnaire adressé aux patients en mars 2000. 55 PEG ont été posées selon la technique de Gauderer entre 1989 et 2000. Les indications sont les maladies oncologiques (13), neurologiques (13), la mucoviscidose (12), les maladies métaboliques (6) et d'autres indications variées (11). Le bénéfice nutritionnel est étudié pour chaque type d'indications par l'évolution du gain pondéral après la PEG. Les problèmes rencontrés sont principalement des complications mineures de type inflammation de l'orifice. Nous avons observé 2 complications majeures, en ce que leurs conséquences auraient pu être graves. Le respect strict des contre-indications est nécessaire : 3 cas ont été récusés pour raison de sécurité. Le reflux gastro-oesophagien reste une affection concomitante, principalement chez les patients dont la maladie de base est d'origine neurologique. La qualité de vie de l'enfant et de sa famille est investiguée par des questions précises combinées à des plages de commentaires. Nous avons ainsi évalué le degré de satisfaction des enfants et de leur entourage. En conclusion la gastrostomie endoscopique percutanée est une opération simple, rapide et sûre, susceptible d'apporter un gain pondéral. Son utilisation pourrait être plus répandue. Elle apporte aussi une meilleure qualité de vie aux enfants qui en bénéficient, avec une amélioration de leurs performances et une diminution des conflits associés à des repas laborieux.