999 resultados para Technologie biotine-avidine
Resumo:
Mise en perspective Le rein est un organe vital dont la fonction dépend en grande partie d'une perfusion tissulaire adéquate. Les techniques actuellement utilisées pour étudier la microcirculation rénale sont soit invasives soit très dispendieuses. L'échographie de contraste est une nouvelle technologie, non invasive, facile à réaliser au lit du malade et pour laquelle certaines techniques récemment présentées semblent permettre de quantifier la perfusion d'un organe. Une telle technique pourrait avoir des applications dans l'étude de l'insuffisance rénale aiguë. Buts de l'étude Notre étude vise à tester le potentiel de l'échographie de contraste pour détecter des modifications de la perfusion rénale, corticale et médullaire chez l'être humain. Plan de l'étude Nous avons étudié la microcirculation rénale par échographie de contraste chez 12 sujets sains. Les mesures ont été réalisées en baseline puis sous perfusion de doses croissantes d'angiotensine II (un puissant et spécifique vasoconstricteur rénal) et enfin après la prise orale d'un comprimé de Captopril (un puissant vasodilatateur rénal). Les valeurs obtenues par échographie de contraste ont été comparées à la perfusion globale rénale évaluée par la clairance du PAH, qui constitue le gold standard en physiologie rénale. Résultats principaux Le protocole a pu être réalisé sans complication. Les perfusions vasoactives ainsi que les différentes administrations de Sonovue ont été parfaitement tolérées. Les séquences vidéos ont été analysées par deux lecteurs et une bonne concordance a été trouvée. Nous avons trouvé une diminution statistiquement significative et dose dépendante de l'index de perfusion rénale lors de la perfusion d'angiotensine II: -45% (p<0.02) entre baseline et Ang II faible dose et -65% (p<0.01) entre baseline et Ang II à haute dose. Enfin, nous avons observé une hausse significative de cet indice après administration orale de Captopril (+35%, p>0.2). Ces changements étaient parallèles aux changements de flux plasmatique rénal mesurés par calcul de la clairance du PAH. Une corrélation moyenne mais significative (r=0.57, p=0.002) a été observée entre ces deux mesures. Conclusions et perspectives L'échographie de contraste est capable de détecter des modifications dans la microcirculation rénale induites par une perfusion d'angiotensine et ou une administration de Captopril. Il s'agit d'une technique rapide sensible et fiable qui pourrait participer à l'évaluation des patients souffrant d'insuffisance rénale aiguë. D'autres études sont nécessaires pour démontrer son utilité dans un contexte clinique.
Resumo:
La relation thérapeutique jour un rôle primordial dans le processus du rétablissement des patients. Il est important que les outils probants soient suffisamment bien ajustés pour faciliter le travail thérapeutique. Le projet Back to the patient, développé en collaboration étroite avec l'équipe de TECAPP technologies applications (www.tecapp.ch), vise à offrir des outils informatiques utilisables sur la tablette ou téléphone portable pour soutenir la relation thérapeutique dans le cadre de l'évaluation des besoins de santé et des soins.
Resumo:
AbstractAlthough the genomes from any two human individuals are more than 99.99% identical at the sequence level, some structural variation can be observed. Differences between genomes include single nucleotide polymorphism (SNP), inversion and copy number changes (gain or loss of DNA). The latter can range from submicroscopic events (CNVs, at least 1kb in size) to complete chromosomal aneuploidies. Small copy number variations have often no (lethal) consequences to the cell, but a few were associated to disease susceptibility and phenotypic variations. Larger re-arrangements (i.e. complete chromosome gain) are frequently associated with more severe consequences on health such as genomic disorders and cancer. High-throughput technologies like DNA microarrays enable the detection of CNVs in a genome-wide fashion. Since the initial catalogue of CNVs in the human genome in 2006, there has been tremendous interest in CNVs both in the context of population and medical genetics. Understanding CNV patterns within and between human populations is essential to elucidate their possible contribution to disease. But genome analysis is a challenging task; the technology evolves rapidly creating needs for novel, efficient and robust analytical tools which need to be compared with existing ones. Also, while the link between CNV and disease has been established, the relative CNV contribution is not fully understood and the predisposition to disease from CNVs of the general population has not been yet investigated.During my PhD thesis, I worked on several aspects related to CNVs. As l will report in chapter 3, ! was interested in computational methods to detect CNVs from the general population. I had access to the CoLaus dataset, a population-based study with more than 6,000 participants from the Lausanne area. All these individuals were analysed on SNP arrays and extensive clinical information were available. My work explored existing CNV detection methods and I developed a variety of metrics to compare their performance. Since these methods were not producing entirely satisfactory results, I implemented my own method which outperformed two existing methods. I also devised strategies to combine CNVs from different individuals into CNV regions.I was also interested in the clinical impact of CNVs in common disease (chapter 4). Through an international collaboration led by the Centre Hospitalier Universitaire Vaudois (CHUV) and the Imperial College London I was involved as a main data analyst in the investigation of a rare deletion at chromosome 16p11 detected in obese patients. Specifically, we compared 8,456 obese patients and 11,856 individuals from the general population and we found that the deletion was accounting for 0.7% of the morbid obesity cases and was absent in healthy non- obese controls. This highlights the importance of rare variants with strong impact and provides new insights in the design of clinical studies to identify the missing heritability in common disease.Furthermore, I was interested in the detection of somatic copy number alterations (SCNA) and their consequences in cancer (chapter 5). This project was a collaboration initiated by the Ludwig Institute for Cancer Research and involved other groups from the Swiss Institute of Bioinformatics, the CHUV and Universities of Lausanne and Geneva. The focus of my work was to identify genes with altered expression levels within somatic copy number alterations (SCNA) in seven metastatic melanoma ceil lines, using CGH and SNP arrays, RNA-seq, and karyotyping. Very few SCNA genes were shared by even two melanoma samples making it difficult to draw any conclusions at the individual gene level. To overcome this limitation, I used a network-guided analysis to determine whether any pathways, defined by amplified or deleted genes, were common among the samples. Six of the melanoma samples were potentially altered in four pathways and five samples harboured copy-number and expression changes in components of six pathways. In total, this approach identified 28 pathways. Validation with two external, large melanoma datasets confirmed all but three of the detected pathways and demonstrated the utility of network-guided approaches for both large and small datasets analysis.RésuméBien que le génome de deux individus soit similaire à plus de 99.99%, des différences de structure peuvent être observées. Ces différences incluent les polymorphismes simples de nucléotides, les inversions et les changements en nombre de copies (gain ou perte d'ADN). Ces derniers varient de petits événements dits sous-microscopiques (moins de 1kb en taille), appelés CNVs (copy number variants) jusqu'à des événements plus large pouvant affecter des chromosomes entiers. Les petites variations sont généralement sans conséquence pour la cellule, toutefois certaines ont été impliquées dans la prédisposition à certaines maladies, et à des variations phénotypiques dans la population générale. Les réarrangements plus grands (par exemple, une copie additionnelle d'un chromosome appelée communément trisomie) ont des répercutions plus grave pour la santé, comme par exemple dans certains syndromes génomiques et dans le cancer. Les technologies à haut-débit telle les puces à ADN permettent la détection de CNVs à l'échelle du génome humain. La cartographie en 2006 des CNV du génome humain, a suscité un fort intérêt en génétique des populations et en génétique médicale. La détection de différences au sein et entre plusieurs populations est un élément clef pour élucider la contribution possible des CNVs dans les maladies. Toutefois l'analyse du génome reste une tâche difficile, la technologie évolue très rapidement créant de nouveaux besoins pour le développement d'outils, l'amélioration des précédents, et la comparaison des différentes méthodes. De plus, si le lien entre CNV et maladie a été établit, leur contribution précise n'est pas encore comprise. De même que les études sur la prédisposition aux maladies par des CNVs détectés dans la population générale n'ont pas encore été réalisées.Pendant mon doctorat, je me suis concentré sur trois axes principaux ayant attrait aux CNV. Dans le chapitre 3, je détaille mes travaux sur les méthodes d'analyses des puces à ADN. J'ai eu accès aux données du projet CoLaus, une étude de la population de Lausanne. Dans cette étude, le génome de plus de 6000 individus a été analysé avec des puces SNP et de nombreuses informations cliniques ont été récoltées. Pendant mes travaux, j'ai utilisé et comparé plusieurs méthodes de détection des CNVs. Les résultats n'étant pas complètement satisfaisant, j'ai implémenté ma propre méthode qui donne de meilleures performances que deux des trois autres méthodes utilisées. Je me suis aussi intéressé aux stratégies pour combiner les CNVs de différents individus en régions.Je me suis aussi intéressé à l'impact clinique des CNVs dans le cas des maladies génétiques communes (chapitre 4). Ce projet fut possible grâce à une étroite collaboration avec le Centre Hospitalier Universitaire Vaudois (CHUV) et l'Impérial College à Londres. Dans ce projet, j'ai été l'un des analystes principaux et j'ai travaillé sur l'impact clinique d'une délétion rare du chromosome 16p11 présente chez des patients atteints d'obésité. Dans cette collaboration multidisciplinaire, nous avons comparés 8'456 patients atteint d'obésité et 11 '856 individus de la population générale. Nous avons trouvés que la délétion était impliquée dans 0.7% des cas d'obésité morbide et était absente chez les contrôles sains (non-atteint d'obésité). Notre étude illustre l'importance des CNVs rares qui peuvent avoir un impact clinique très important. De plus, ceci permet d'envisager une alternative aux études d'associations pour améliorer notre compréhension de l'étiologie des maladies génétiques communes.Egalement, j'ai travaillé sur la détection d'altérations somatiques en nombres de copies (SCNA) et de leurs conséquences pour le cancer (chapitre 5). Ce projet fut une collaboration initiée par l'Institut Ludwig de Recherche contre le Cancer et impliquant l'Institut Suisse de Bioinformatique, le CHUV et les Universités de Lausanne et Genève. Je me suis concentré sur l'identification de gènes affectés par des SCNAs et avec une sur- ou sous-expression dans des lignées cellulaires dérivées de mélanomes métastatiques. Les données utilisées ont été générées par des puces ADN (CGH et SNP) et du séquençage à haut débit du transcriptome. Mes recherches ont montrées que peu de gènes sont récurrents entre les mélanomes, ce qui rend difficile l'interprétation des résultats. Pour contourner ces limitations, j'ai utilisé une analyse de réseaux pour définir si des réseaux de signalisations enrichis en gènes amplifiés ou perdus, étaient communs aux différents échantillons. En fait, parmi les 28 réseaux détectés, quatre réseaux sont potentiellement dérégulés chez six mélanomes, et six réseaux supplémentaires sont affectés chez cinq mélanomes. La validation de ces résultats avec deux larges jeux de données publiques, a confirmée tous ces réseaux sauf trois. Ceci démontre l'utilité de cette approche pour l'analyse de petits et de larges jeux de données.Résumé grand publicL'avènement de la biologie moléculaire, en particulier ces dix dernières années, a révolutionné la recherche en génétique médicale. Grâce à la disponibilité du génome humain de référence dès 2001, de nouvelles technologies telles que les puces à ADN sont apparues et ont permis d'étudier le génome dans son ensemble avec une résolution dite sous-microscopique jusque-là impossible par les techniques traditionnelles de cytogénétique. Un des exemples les plus importants est l'étude des variations structurales du génome, en particulier l'étude du nombre de copies des gènes. Il était établi dès 1959 avec l'identification de la trisomie 21 par le professeur Jérôme Lejeune que le gain d'un chromosome supplémentaire était à l'origine de syndrome génétique avec des répercussions graves pour la santé du patient. Ces observations ont également été réalisées en oncologie sur les cellules cancéreuses qui accumulent fréquemment des aberrations en nombre de copies (telles que la perte ou le gain d'un ou plusieurs chromosomes). Dès 2004, plusieurs groupes de recherches ont répertorié des changements en nombre de copies dans des individus provenant de la population générale (c'est-à-dire sans symptômes cliniques visibles). En 2006, le Dr. Richard Redon a établi la première carte de variation en nombre de copies dans la population générale. Ces découvertes ont démontrées que les variations dans le génome était fréquentes et que la plupart d'entre elles étaient bénignes, c'est-à-dire sans conséquence clinique pour la santé de l'individu. Ceci a suscité un très grand intérêt pour comprendre les variations naturelles entre individus mais aussi pour mieux appréhender la prédisposition génétique à certaines maladies.Lors de ma thèse, j'ai développé de nouveaux outils informatiques pour l'analyse de puces à ADN dans le but de cartographier ces variations à l'échelle génomique. J'ai utilisé ces outils pour établir les variations dans la population suisse et je me suis consacré par la suite à l'étude de facteurs pouvant expliquer la prédisposition aux maladies telles que l'obésité. Cette étude en collaboration avec le Centre Hospitalier Universitaire Vaudois a permis l'identification d'une délétion sur le chromosome 16 expliquant 0.7% des cas d'obésité morbide. Cette étude a plusieurs répercussions. Tout d'abord elle permet d'effectuer le diagnostique chez les enfants à naître afin de déterminer leur prédisposition à l'obésité. Ensuite ce locus implique une vingtaine de gènes. Ceci permet de formuler de nouvelles hypothèses de travail et d'orienter la recherche afin d'améliorer notre compréhension de la maladie et l'espoir de découvrir un nouveau traitement Enfin notre étude fournit une alternative aux études d'association génétique qui n'ont eu jusqu'à présent qu'un succès mitigé.Dans la dernière partie de ma thèse, je me suis intéressé à l'analyse des aberrations en nombre de copies dans le cancer. Mon choix s'est porté sur l'étude de mélanomes, impliqués dans le cancer de la peau. Le mélanome est une tumeur très agressive, elle est responsable de 80% des décès des cancers de la peau et est souvent résistante aux traitements utilisés en oncologie (chimiothérapie, radiothérapie). Dans le cadre d'une collaboration entre l'Institut Ludwig de Recherche contre le Cancer, l'Institut Suisse de Bioinformatique, le CHUV et les universités de Lausanne et Genève, nous avons séquencés l'exome (les gènes) et le transcriptome (l'expression des gènes) de sept mélanomes métastatiques, effectués des analyses du nombre de copies par des puces à ADN et des caryotypes. Mes travaux ont permis le développement de nouvelles méthodes d'analyses adaptées au cancer, d'établir la liste des réseaux de signalisation cellulaire affectés de façon récurrente chez le mélanome et d'identifier deux cibles thérapeutiques potentielles jusqu'alors ignorées dans les cancers de la peau.
Resumo:
Inauguré le 16 mars 1877, le chemin de fer entre Lausanne et le petit port touristique d'Ouchy constitue une entreprise aux dimensions techniques et financières pharaoniques. Premier funiculaire à câble de Suisse, le Lausanne-Ouchy est aussi le premier au monde à être équipé d'un système de traction hydraulique. L'objectif de cette contribution n'est toutefois pas d'analyser les conditions de réalisation de cet exploit technologique, mais la naissance et l'évolution d'une compagnie de transport étroitement liée à l'établissement du système touristique lausannois. La demande de mobilité créée par l'afflux d'étrangers et l'apport des milieux touristiques au capital sont en effet indispensables à la création et à la survie de l'entreprise, dont la santé financière reste longtemps problématique. En retour, le funiculaire modifie le système de transport régional et national, donnant d'importantes impulsions au développement touristique.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
Cette publication présente une approche originale et novatrice de la recherche et de l'exploitation des traces de stupéfiants. Elle propose une description détaillée des phénomènes de transfert et de persistances de ces particules ainsi que l'interprétation des résultats obtenus par l'analyse de spectrométrie à mobilité ionique (IMS). Des simulations de manipulation et de conditionnement de produits stupéfiants ont été réalisées en distinguant plusieurs groupes de personnes en fonction de leur proximité de contact avec des stupéfiants. Ces simulations ont montré que des personnes n'étant pas en contact avec des produits stupéfiants ne présentaient pas de traces de ces derniers. Au contraire, une manipulation laisse des traces qu'il est possible de détecter et d'interpréter. Parmi les stupéfiants étudiés, le plus "contaminogène" s'est avéré être la cocaïne. Les résultats obtenus permettent enfin de proposer une démarche opérationnelle d'intégration de cette technologie dans le cadre des interventions effectuées par les brigades canines.
Resumo:
Interconnection of loads and small size generation forms a new type of distribution systems, the Microgrid. The microgrids can be operated together with the utility grid or be operated autonomously in an island. Thesesmall grids present a new paradigm of the construction of the low voltage distribution systems. The microgrids in the distribution systems can become small, controllable units, which immediately react to the system's changes. Along with that the microgrids can realize the special properties, such as increasing the reliability, reducing losses, voltage sag correction, uninterruptible supplying. The goals of the thesis are to explain the principles of the microgrid's functioning, to clarify the main ideas and positive features of the microgrids, to find out and prove their advantages and explain why they are so popular nowadays all over the world. The practical aims of the thesis are to construct and build a test setup of a microgrid based on two inverters from SMA Technologie AG in the laboratory and to test all the main modes and parameters of the microgrid's operating. Also the purpose of the thesis is to test the main component of the microgrid - the battery inverter which controls allthe processes and energy flows inside a microgrid and communicates with the main grid. Based on received data the main contribution of the thesis consists of the estimation of the established microgrid from the reliability, economy and simplicity of operating points of view and evaluation ofthe advisability of its use in different conditions. Moreover, the thesis assumes to give the recommendations and advice for the future investigations of the built system.
Resumo:
Résumé pour un large public: La vaccination a eu un impact énorme sur la santé mondiale. Mais, quel est le principe d'un vaccin? Il est basé sur la 'mémoire immunologique', qui est une particularité exclusive des systèmes immunitaires des organismes évolués. Suite à une infection par un pathogène, des cellules spécialisées de notre système immunitaire (les lymphocytes) le reconnaissent et initient une réaction immunitaire qui a pour but son élimination. Pendant cette réaction se développent aussi des cellules, appelées cellules lymphocytaires mémoire, qui persistent pour longue durée et qui ont la capacité de stimuler une réaction immunitaire très efficace immédiatement après une seconde exposition à ce même pathogène. Ce sont ces cellules mémoires (lymphocytes B et T) qui sont à la base de la 'mémoire immunologique' et qui sont stimulées lors de la vaccination. Chez l'homme, deux populations distinctes des lymphocytes T mémoires ont été identifiées: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et essentiels dans l'immunité protectrice. Typiquement, les cellules effectrices mémoires sont capables de tuer immédiatement le pathogène tandis que les cellules centrales mémoires sont responsables d'initier une réponse immunitaire complète. Pourtant, les mécanismes biochimiques qui contrôlent les fonctions de ces cellules ont été jusqu'à présent peu étudiés à cause de la faible fréquence de ces cellules et de la quantité limitée de tissus humains disponibles pour les analyses. La compréhension de ces mécanismes est cruciale pour la réalisation de vaccins efficaces et pour le développement de nouveaux médicaments capables de moduler la réponse immunitaire lymphocytaire. Dans cette thèse, nous avons d'abord développé et amélioré une technologie appelée 'protéine array en phase inverse' qui possède un niveau de sensibilité beaucoup plus élevé par rapport aux technologies classiquement utilisées dans l'étude des protéines. Grâce à cette technique, nous avons pu comparer la composition protéique du système de transmission des signaux d'activation des cellules CM et EM humaines. L'analyse de 8 à 13 sujets sains a montré que ces populations des cellules mémoires possèdent un système de signalisation protéique différent. En effet, les cellules EM possèdent, par rapport aux cellules CM, des niveaux réduits d'une protéine régulatrice (appelée c-Cbl) que nous avons démontré comme étant responsable des fonctions spécifiques de ces cellules. En effet, en augmentant artificiellement l'expression de cette protéine régulatrice dans les cellules EM jusqu'au niveau de celui des cellules CM, nous avons induit dans les cellules EM des capacités fonctionnelles caractéristiques des cellules CM. En conclusion, notre étude a identifié, pour la première fois chez l'homme, un mécanisme biochimique qui contrôle les fonctions des populations des cellules mémoires. Résumé en Français: Les cellules mémoires persistent inertes dans l'organisme et produisent des réactions immunitaires rapides et robustes contre les pathogènes précédemment rencontrés. Deux populations distinctes des cellules mémoires ont été identifiées chez l'homme: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et critiques dans l'immunité protectrice. Les mécanismes biochimiques qui contrôlent leurs fonctions ont été jusqu'à présent peu étudiés, bien que leur compréhension soit cruciale pour le développement des vaccins et des nouveaux traitements/médicaments. Les limites majeures à ces études sont la faible fréquence de ces populations et la quantité limitée de tissus humains disponibles. Dans cette thèse nous avons d'abord développé et amélioré la technologie de 'protéine array en phase inverse' afin d'analyser les molécules de signalisation des cellules mémoires CD4 et CD8 humaines isolées ex vivo. L'excellente sensibilité, la reproductibilité et la linéarité de la détection, ont permis de quantifier des variations d'expression protéiques supérieures à 20% dans un lysat équivalent à 20 cellules. Ensuite, grâce à l'analyse de 8 à 13 sujets sains, nous avons prouvé que les cellules mémoires CD8 ont une composition homogène de leur système de signalisation tandis que les cellules CD4 EM expriment significativement de plus grandes quantités de SLP-76 et des niveaux réduits de c-Cbl, Syk, Fyn et LAT par rapport aux cellules CM. En outre, l'expression réduite du régulateur négatif c-Cbl est corrélée avec l'expression des SLP-76, PI3K et LAT uniquement dans les cellules EM. L'évaluation des propriétés fonctionnelles des cellules mémoires a permis de démontrer que l'expression réduite du c-Cbl dans les cellules EM est associé à une diminution de leur seuil d'activation. En effet, grâce a la technique de transduction cytosolique, nous avons augmenté la quantité de c-Cbl des cellules EM à un niveau comparable à celui des cellules CM et constaté une réduction de la capacité des cellules EM à proliférer et sécréter des cytokines. Ce mécanisme de régulation dépend principalement de l'activité d'ubiquitine ligase de c-Cbl comme démontré par l'impact réduit du mutant enzymatiquement déficient de c-Cbl sur les fonctions de cellules EM. En conclusion, cette thèse identifie c-Cbl comme un régulateur critique des réponses fonctionnelles des populations de cellules T mémoires et fournit, pour la première fois chez l'homme, un mécanisme contrôlant l'hétérogénéité fonctionnelle des ces cellules. De plus, elle valide l'utilisation combinée des 'RPP arrays' et de la transduction cytosolique comme outil puissant d'analyse quantitative et fonctionnel des protéines de signalisation. Summary : Memory cells persist in a quiescent state in the body and mediate rapid and vigorous immune responses toward pathogens previously encountered. Two subsets of memory cells, namely central (CM) and effector (EM) memory cells, have been identified in humans. These subsets display high functional heterogeneity and assert critical and distinct roles in the control of protective immunity. The biochemical mechanisms controlling their functional properties remain so far poorly investigated, although their clarification is crucial for design of effective T-cell vaccine and drug development. Major limitations to these studies lie in the low frequency of memory T cell subsets and the limited amount of human specimen available. In this thesis we first implemented the innovative reverse phase protein array approach to profile 15 signalling components in human CD8 and CD4 memory T cells isolated ex vivo. The high degree of sensitivity, reproducibility and linearity achieved, allowed an excellent quantification of variations in protein expression higher than 20% in as few as 20-cell equivalent per spot. Based on the analysis of 8 to 13 healthy subjects, we showed that CD8 memory cells have a homogeneous composition of their signaling machinery while CD4 EM cells express statistically significant increased amounts of SLP-76 and reduced levels of c- Cbl, Syk, Fyn and LAT as compared to CM cells. Moreover, in EM but not CM cells, reduced expression of negative regulator c-Cbl correlated with the expression of SLP-76, PI3K and LAT. Subsequently, we demonstrated that the higher functional properties and the lower functional threshold of EM cells is associated with reduced expression of c-Cbl. Indeed, by increasing c-Cbl content of EM cells to the same level of CM cells using cytosolic transduction, we impaired their proliferation and cytokine production. This regulatory mechanism was primarily dependent on c-Cbl E3 ubiquitin ligase activity as evidenced by the weaker impact of enzymatically deficient c-Cbl C381A mutant on EM cell functions. Together, these results identify c-Cbl as a critical regulator of the functional responses of memory T cell subsets and provides, for the first time in humans, a mechanism controlling the functional heterogeneity of memory CD4 cells. Moreover it validates the combined use of RPP arrays and cytosolic transduction approaches as a powerful tool to quantitatively analyze signalling proteins and functionally assess their roles.
Resumo:
L'objectif de ce travail est le développement d'une méthode de caractérisation objective de la qualité d'image s'appliquant à des systèmes de mammographie analogique, utilisant un couple écran-film comme détecteur, et numérique, basé sur une technologie semi-conductrice, ceci en vue de la comparaison de leurs performances. La méthode développée tient compte de la gamme dynamique du détecteur, de la détectabilité de structures de haut contraste, simulant des microcalcifications, et de structures de bas contraste, simulant des opacités (nodules tumoraux). La méthode prend également en considération le processus de visualisation de l'image, ainsi que la réponse de l'observateur. Pour réaliser ceci, un objet-test ayant des propriétés proches de celles d'un sein comprimé, composé de différents matériaux équivalents aux tissus, allant du glandulaire à l'adipeux, et comprenant des zones permettant la simulation de structures de haut et bas contraste, ainsi que la mesure de la résolution et celle du bruit, a été développé et testé. L'intégration du processus de visualisation a été réalisée en utilisant une caméra CCD mesurant directement les paramètres de qualité d'image, à partir de l'image de l'objet-test, dans une grandeur physique commune au système numérique et analogique, à savoir la luminance arrivant sur l'oeil de l'observateur. L'utilisation d'une grandeur synthétique intégrant dans un même temps, le contraste, le bruit et la résolution rend possible une comparaison objective entre les deux systèmes de mammographie. Un modèle mathématique, simulant la réponse d'un observateur et intégrant les paramètres de base de qualité d'image, a été utilisé pour calculer la détectabilité de structures de haut et bas contraste en fonction du type de tissu sur lequel celles-ci se trouvent. Les résultats obtenus montrent qu'à dose égale la détectabilité des structures est significativement plus élevée avec le système de mammographie numérique qu'avec le système analogique. Ceci est principalement lié au fait que le bruit du système numérique est plus faible que celui du système analogique. Les résultats montrent également que la méthodologie, visant à comparer des systèmes d'imagerie numérique et analogique en utilisant un objet-test à large gamme dynamique ainsi qu'une caméra, peut être appliquée à d'autres modalités radiologiques, ainsi qu'à une démarche d'optimisation des conditions de lecture des images.<br/><br/>The goal of this work was to develop a method to objectively compare the performance of a digital and a screen-film mammography system in terms of image quality and patient dose. We propose a method that takes into account the dynamic range of the image detector and the detection of high contrast (for microcalcifications) and low contrast (for masses or tumoral nodules) structures. The method also addresses the problems of image visualization and the observer response. A test object, designed to represent a compressed breast, was constructed from various tissue equivalent materials ranging from purely adipose to purely glandular composition. Different areas within the test object permitted the evaluation of low and high contrast detection, spatial resolution, and image noise. All the images (digital and conventional) were captured using a CCD camera to include the visualization process in the image quality assessment. In this way the luminance reaching the viewer?s eyes can be controlled for both kinds of images. A global quantity describing image contrast, spatial resolution and noise, and expressed in terms of luminance at the camera, can then be used to compare the two technologies objectively. The quantity used was a mathematical model observer that calculates the detectability of high and low contrast structures as a function of the background tissue. Our results show that for a given patient dose, the detection of high and low contrast structures is significantly better for the digital system than for the conventional screen-film system studied. This is mainly because the image noise is lower for the digital system than for the screen-film detector. The method of using a test object with a large dynamic range combined with a camera to compare conventional and digital imaging modalities can be applied to other radiological imaging techniques. In particular it could be used to optimize the process of radiographic film reading.
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.
Resumo:
La sclérose en plaques (SEP) est une maladie démyélinisante du système nerveux central (SNC) provoquant des pertes motrices, sensitives et cognitives. La SEP se déclare chez le jeune adulte ayant des prédispositions génétiques, mais semble induite, par des facteurs environnementaux. La SEP touche principalement les femmes et sa prévalence dans les zones à haut risque, tel que la Suisse, est de 0.1%. Bien que son étiologie exacte reste méconnue, nous savons que la maladie est médiée par des lymphocytes T autoréactifs périphériques, qui infiltrent le SNC où ils activent d'autres cellules immunitaires ainsi que les cellules du SNC elles-mêmes, créant un foyer inflammatoire, qui va attaquer et finir par tuer les oligodendrocytes et les neurones. Les épisodes inflammatoires sont entrecoupés par des phases de rémission associées à une guérison partielle des lésions. Cette première phase de la maladie, comprenant des épisodes inflammatoires et de rémissions est appelé SEP récurrente-rémittente (SEP-RR) et touche 90% des patients. Elle évolue, dans deux-tiers des cas, vers une SEP secondaire progressive (SEP-SP), qui est caractérisée par une progression constante de la maladie, associée à une réduction de l'inflammation mais une augmentation de la neurodégénérescence. Les patients souffrants de SEP primaire progressive (SEP-PP) développent directement les symptômes de la phase progressive de la maladie. Les thérapies disponibles ont considérablement amélioré l'évolution de la maladie des patients SEP-RR, en agissant sur une diminution de la réponse immunitaire et donc de l'inflammation. Cependant, ces traitements sont inefficaces chez les patients SEP-SP et SEP-PP, n'agissant pas sur la neurodégénérescence. IL-22, une cytokine sécrétée notoirement par les cellules Th17, a été associée à la SEP en contribuant à la perméabilisation de la barrière hémato-encéphalique et à l'inflammation du SNC, qui sont des étapes clés de la pathogenèse de la maladie. En outre, le gène codant pour un inhibiteur puissant d'IL- 22, 'IL-22 binding protein' (IL-22BP), a été démontré comme un facteur de risque de la SEP. Ces indices nous ont poussés à nous intéresser de plus près au rôle de l'IL-22 dans la SEP. Nous avons pu montrer qu'IL-22 et IL-22BP étaient augmentées dans le sang des patients SEP par rapport à des sujets sains. Nous avons trouvé qu'IL-22 cible spécifiquement les astrocytes dans le SNC et que son récepteur est particulièrement exprimé dans les lésions des patient SEP. Contre toute attente, nous avons pu montrer que l'IL-22 semble soutenir la survie des astrocytes. Cette découverte, suggérant qu'IL-22 serait protecteur pour le SNC et pour la SEP, confirme de récentes publications et ouvre la voie à de potentielles applications thérapeutiques. En parallèle, dans le but de mieux comprendre l'immunopathogenèse de la SEP, nous avons développé les techniques de culture de cellules souches pluripotentes induites (iPSC). Nos iPSC sont dérivées du sang des donneurs et acquièrent toutes les propriétés des cellules souches embryonnaires après induction. Les iPSC peuvent ensuite être différenciées en différents types de cellules, dont les cellules du SNC. Nous avons ainsi pu obtenir avec succès des neurones, dérivés de cellules du sang, en passant par le stade des iPSC. La prochaine étape consiste à générer des cultures d'astrocytes et d'oligodendrocytes et ainsi obtenir les principales cellules du SNC, le but étant de former de véritables 'cerveaux-en-culture'. Cet outil semble particulièrement adapté à l'étude de l'activité de diverses molécules sur les cellules du SNC, comme par exemple l'IL-22 et d'autres molécules ayant un potentiel intérêt thérapeutique au niveau du SNC. Le but ultime étant de développer des co-cultures de cellules du SNC avec des cellules immunitaires autologues, de patients SEP et de sujets sains, afin de mettre en évidence l'attaque des cellules du SNC par des leucocytes autoréactifs. Ce projet prospectif a permis d'accroître nos connaissance sur des aspects immunitaires de la SEP et à pour but de mieux comprendre l'immunopathogenèse de la SEP afin d'élaborer de nouvelles stratégies thérapeutiques. -- La sclérose en plaques est une maladie auto-inflammatoire du système nerveux central conduisant à la destruction de la myéline, indispensable à la conduction nerveuse, et finalement à la mort des neurones eux-mêmes. Cela a pour conséquence des pertes motrices, sensorielles et cognitives, qui ont tendance à s'aggraver au fil de la maladie. Elle se déclare chez le jeune adulte, entre l'âge de 20 et 40 ans, et prédomine chez la femme. En Suisse, environ une personne sur l'OOO est atteinte de sclérose en plaques. Les causes exactes de cette maladie, qui incluent des facteurs génétiques et environnementaux, sont encore mal connues. Des traitements de plus en plus efficaces ont été développés ces dernières années et ont permis de drastiquement améliorer l'évolution de la maladie chez les patients atteints de sclérose en plaques. Cependant, ces traitements ne sont efficaces que sur certaines catégories de patients et peuvent engendrer de lourds effets secondaires. Ces thérapies agissent presque exclusivement sur les cellules du système immunitaire en les désactivant partiellement, mais pas sur les cellules nerveuses, qui sont pourtant celles qui conditionnent le devenir du patient. Le développement de médicaments protégeant ou permettant la régénération des cellules du système nerveux central est donc primordial. L'étude de l'interleukine-22 nous a permis de montrer que cette cytokine ('hormone' du système immunitaire) pouvait cibler spécifiquement les astrocytes, des cellules gliales qui jouent un rôle central dans le maintien de l'équilibre du système nerveux central. Nos recherches ont montré que cette interleukine-22 permettrait une meilleure survie des astrocytes durant la phase aiguë de la maladie et aurait aussi des propriétés neuroprotectrices. En parallèle, nous sommes en train de développer un nouveau modèle in vitro d'étude de la sclérose en plaques grâce à la technologie des cellules souches pluripotentes induites. Ces cellules souches sont induites à partir de cellules du sang du donneur et acquièrent toutes les caractéristiques des cellules souches embryonnaires présentes dans un organisme en formation. Ainsi, ces cellules souches pluripotentes ont, par exemple, la capacité de se différencier en cellules du système nerveux central. Nous avons pu, de cette manière, obtenir des neurones. Le but ultime serait de pouvoir reconstituer une ébauche de cerveau in vitro, en cultivant ensemble différents types de cellules du système nerveux central, afin d'y réaliser des expériences avec des cellules immunitaires du même donneur. Ces travaux ont pour but d'améliorer notre compréhension de la pathogenèse de la sclérose en plaques et de permettre le développement de nouvelles stratégies thérapeutiques. --Multiple sclerosis (MS) is a demyelinating disease of the central nervous system leading to cognitive, sensitive and motor disabilities. MS occurs in genetically predisposed young adults with probable environmental triggers. MS affects predominantly women and its prevalence in high risk area such as Switzerland is 0.1%. Though its exact aetiology remains undetermined, we know that autoreactive T cells from de periphery are reactivated and recruited into the central nervous system (CNS) were they further activate other immune cells and resident cells, creating inflammatory foci, where oligodendrocytes and neurons are insulted and, eventually, killed. Inflammatory episodes, called relapses, are interspersed with remission phases where partial recovery of the lesions occurs. This first phase of the disease, occurring in 90% of the patients, is called relapsing-remitting MS (RR-MS) and is leading, in two-third of the cases, to secondary-progressive MS (SP-MS), where there is a continuous steady progression of the disease, associated with reduced inflammation but increased neurodegeneration. Primary-progressive MS (PP-MS) patients experience directly this progressive phase of the disease. Whereas disease modifying therapies have dramatically ameliorated the disease course of RR-MS patients by dampening immunity and, in turn, inflammation, treatments of SP-MS and PP-MS patients, who suffer primarily from the neurodegenerative aspect of the disease, are still inexistent. IL-22, a pro-inflammatory Th17 cell cytokine, has been associated with MS by participating to blood-brain barrier infiltration and CNS inflammation, which are crucial steps in MS pathogenesis. In addition, the gene coding for IL-22 binding protein (IL-22BP), which is a potent secreted IL-22 inhibitor, has been associated with MS risk. These findings call for further investigation on the role of IL-22 in MS. We detected increased IL-22 and IL-22BP in the blood of MS patients as compared to healthy controls. Acting exclusively on cells of nonhematopoietic origin, we found that IL-22 targets specifically astrocytes in the CNS and that its receptor is highly expressed in the lesion of MS patients. Unexpectedly, we found that IL-22 seems to promote survival of astrocytes. This finding, suggesting that IL-22 might be protective for the CNS in the context of MS, is consistent with recent publications and might open putative therapeutic applications at the CNS level. In parallel, with the aim of better understanding the immunopathogenesis of MS, we developed induced pluripotent stem cell (iPSC) techniques. IPSC are derived from blood cells of the donors and bear embryonic stem cell properties. IPSC can be differentiated into various cell types including CNS cells. We successfully obtained neurons derived from the donor blood cells, through iPSC. We further aim at developing astrocytes and oligodendrocytes cultures to recreate a 'brain-in-a-dish'. This would be a powerful tool to test the activity of various compounds on CNS cells, including IL-22 and other putative neuroprotective drugs. Ultimately, the goal is to develop co-cultures of CNS cells with autologous immune cells of MS patients as well as healthy controls to try to expose evidence of CNS cells targeted by autoreactive leukocytes. This prospective project has increased our knowledge of immune aspects of MS and further aims at better understanding the immunopathology of MS in order to pave the way to the elaboration of new therapeutic strategies.
Resumo:
L'imagerie par résonance magnétique (IRM) peut fournir aux cardiologues des informations diagnostiques importantes sur l'état de la maladie de l'artère coronarienne dans les patients. Le défi majeur pour l'IRM cardiaque est de gérer toutes les sources de mouvement qui peuvent affecter la qualité des images en réduisant l'information diagnostique. Cette thèse a donc comme but de développer des nouvelles techniques d'acquisitions des images IRM, en changeant les techniques de compensation du mouvement, pour en augmenter l'efficacité, la flexibilité, la robustesse et pour obtenir plus d'information sur le tissu et plus d'information temporelle. Les techniques proposées favorisent donc l'avancement de l'imagerie des coronaires dans une direction plus maniable et multi-usage qui peut facilement être transférée dans l'environnement clinique. La première partie de la thèse s'est concentrée sur l'étude du mouvement des artères coronariennes sur des patients en utilisant la techniques d'imagerie standard (rayons x), pour mesurer la précision avec laquelle les artères coronariennes retournent dans la même position battement après battement (repositionnement des coronaires). Nous avons découvert qu'il y a des intervalles dans le cycle cardiaque, tôt dans la systole et à moitié de la diastole, où le repositionnement des coronaires est au minimum. En réponse nous avons développé une nouvelle séquence d'acquisition (T2-post) capable d'acquérir les données aussi tôt dans la systole. Cette séquence a été testée sur des volontaires sains et on a pu constater que la qualité de visualisation des artère coronariennes est égale à celle obtenue avec les techniques standard. De plus, le rapport signal sur bruit fourni par la séquence d'acquisition proposée est supérieur à celui obtenu avec les techniques d'imagerie standard. La deuxième partie de la thèse a exploré un paradigme d'acquisition des images cardiaques complètement nouveau pour l'imagerie du coeur entier. La technique proposée dans ce travail acquiert les données sans arrêt (free-running) au lieu d'être synchronisée avec le mouvement cardiaque. De cette façon, l'efficacité de la séquence d'acquisition est augmentée de manière significative et les images produites représentent le coeur entier dans toutes les phases cardiaques (quatre dimensions, 4D). Par ailleurs, l'auto-navigation de la respiration permet d'effectuer cette acquisition en respiration libre. Cette technologie rend possible de visualiser et évaluer l'anatomie du coeur et de ses vaisseaux ainsi que la fonction cardiaque en quatre dimensions et avec une très haute résolution spatiale et temporelle, sans la nécessité d'injecter un moyen de contraste. Le pas essentiel qui a permis le développement de cette technique est l'utilisation d'une trajectoire d'acquisition radiale 3D basée sur l'angle d'or. Avec cette trajectoire, il est possible d'acquérir continûment les données d'espace k, puis de réordonner les données et choisir les paramètres temporel des images 4D a posteriori. L'acquisition 4D a été aussi couplée avec un algorithme de reconstructions itératif (compressed sensing) qui permet d'augmenter la résolution temporelle tout en augmentant la qualité des images. Grâce aux images 4D, il est possible maintenant de visualiser les artères coronariennes entières dans chaque phase du cycle cardiaque et, avec les mêmes données, de visualiser et mesurer la fonction cardiaque. La qualité des artères coronariennes dans les images 4D est la même que dans les images obtenues avec une acquisition 3D standard, acquise en diastole Par ailleurs, les valeurs de fonction cardiaque mesurées au moyen des images 4D concorde avec les valeurs obtenues avec les images 2D standard. Finalement, dans la dernière partie de la thèse une technique d'acquisition a temps d'écho ultra-court (UTE) a été développée pour la visualisation in vivo des calcifications des artères coronariennes. Des études récentes ont démontré que les acquisitions UTE permettent de visualiser les calcifications dans des plaques athérosclérotiques ex vivo. Cepandent le mouvement du coeur a entravé jusqu'à maintenant l'utilisation des techniques UTE in vivo. Pour résoudre ce problème nous avons développé une séquence d'acquisition UTE avec trajectoire radiale 3D et l'avons testée sur des volontaires. La technique proposée utilise une auto-navigation 3D pour corriger le mouvement respiratoire et est synchronisée avec l'ECG. Trois échos sont acquis pour extraire le signal de la calcification avec des composants au T2 très court tout en permettant de séparer le signal de la graisse depuis le signal de l'eau. Les résultats sont encore préliminaires mais on peut affirmer que la technique développé peut potentiellement montrer les calcifications des artères coronariennes in vivo. En conclusion, ce travail de thèse présente trois nouvelles techniques pour l'IRM du coeur entier capables d'améliorer la visualisation et la caractérisation de la maladie athérosclérotique des coronaires. Ces techniques fournissent des informations anatomiques et fonctionnelles en quatre dimensions et des informations sur la composition du tissu auparavant indisponibles. CORONARY artery magnetic resonance imaging (MRI) has the potential to provide the cardiologist with relevant diagnostic information relative to coronary artery disease of patients. The major challenge of cardiac MRI, though, is dealing with all sources of motions that can corrupt the images affecting the diagnostic information provided. The current thesis, thus, focused on the development of new MRI techniques that change the standard approach to cardiac motion compensation in order to increase the efficiency of cardioavscular MRI, to provide more flexibility and robustness, new temporal information and new tissue information. The proposed approaches help in advancing coronary magnetic resonance angiography (MRA) in the direction of an easy-to-use and multipurpose tool that can be translated to the clinical environment. The first part of the thesis focused on the study of coronary artery motion through gold standard imaging techniques (x-ray angiography) in patients, in order to measure the precision with which the coronary arteries assume the same position beat after beat (coronary artery repositioning). We learned that intervals with minimal coronary artery repositioning occur in peak systole and in mid diastole and we responded with a new pulse sequence (T2~post) that is able to provide peak-systolic imaging. Such a sequence was tested in healthy volunteers and, from the image quality comparison, we learned that the proposed approach provides coronary artery visualization and contrast-to-noise ratio (CNR) comparable with the standard acquisition approach, but with increased signal-to-noise ratio (SNR). The second part of the thesis explored a completely new paradigm for whole- heart cardiovascular MRI. The proposed techniques acquires the data continuously (free-running), instead of being triggered, thus increasing the efficiency of the acquisition and providing four dimensional images of the whole heart, while respiratory self navigation allows for the scan to be performed in free breathing. This enabling technology allows for anatomical and functional evaluation in four dimensions, with high spatial and temporal resolution and without the need for contrast agent injection. The enabling step is the use of a golden-angle based 3D radial trajectory, which allows for a continuous sampling of the k-space and a retrospective selection of the timing parameters of the reconstructed dataset. The free-running 4D acquisition was then combined with a compressed sensing reconstruction algorithm that further increases the temporal resolution of the 4D dataset, while at the same time increasing the overall image quality by removing undersampling artifacts. The obtained 4D images provide visualization of the whole coronary artery tree in each phases of the cardiac cycle and, at the same time, allow for the assessment of the cardiac function with a single free- breathing scan. The quality of the coronary arteries provided by the frames of the free-running 4D acquisition is in line with the one obtained with the standard ECG-triggered one, and the cardiac function evaluation matched the one measured with gold-standard stack of 2D cine approaches. Finally, the last part of the thesis focused on the development of ultrashort echo time (UTE) acquisition scheme for in vivo detection of calcification in the coronary arteries. Recent studies showed that UTE imaging allows for the coronary artery plaque calcification ex vivo, since it is able to detect the short T2 components of the calcification. The heart motion, though, prevented this technique from being applied in vivo. An ECG-triggered self-navigated 3D radial triple- echo UTE acquisition has then been developed and tested in healthy volunteers. The proposed sequence combines a 3D self-navigation approach with a 3D radial UTE acquisition enabling data collection during free breathing. Three echoes are simultaneously acquired to extract the short T2 components of the calcification while a water and fat separation technique allows for proper visualization of the coronary arteries. Even though the results are still preliminary, the proposed sequence showed great potential for the in vivo visualization of coronary artery calcification. In conclusion, the thesis presents three novel MRI approaches aimed at improved characterization and assessment of atherosclerotic coronary artery disease. These approaches provide new anatomical and functional information in four dimensions, and support tissue characterization for coronary artery plaques.