77 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation
Resumo:
Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.
Resumo:
On the efficiency of recursive evaluations with applications to risk theoryCette thèse est composée de trois essais qui portent sur l'efficacité des évaluations récursives de la distribution du montant total des sinistres d'un portefeuille de polices d'assurance au cours d'un période donnée. Le calcul de sa fonction de probabilité ou de quantités liées à cette distribution apparaît fréquemment dans la plupart des domaines de la pratique actuarielle.C'est le cas notamment pour le calcul du capital de solvabilité en Suisse ou pour modéliser la perte d'une assurance vie au cours d'une année. Le principal problème des évaluations récursives est que la propagation des erreurs provenant de la représentation des nombres réels par l'ordinateur peut être désastreuse. Mais, le gain de temps qu'elles procurent en réduisant le nombre d'opérations arithmétiques est substantiel par rapport à d'autres méthodes.Dans le premier essai, nous utilisons certaines propriétés d'un outil informatique performant afin d'optimiser le temps de calcul tout en garantissant une certaine qualité dans les résultats par rapport à la propagation de ces erreurs au cours de l'évaluation.Dans le second essai, nous dérivons des expressions exactes et des bornes pour les erreurs qui se produisent dans les fonctions de distribution cumulatives d'un ordre donné lorsque celles-ci sont évaluées récursivement à partir d'une approximation de la transformée de De Pril associée. Ces fonctions cumulatives permettent de calculer directement certaines quantités essentielles comme les primes stop-loss.Finalement, dans le troisième essai, nous étudions la stabilité des évaluations récursives de ces fonctions cumulatives par rapport à la propagation des erreurs citées ci-dessus et déterminons la précision nécessaire dans la représentation des nombres réels afin de garantir des résultats satisfaisants. Cette précision dépend en grande partie de la transformée de De Pril associée.
Resumo:
L'aquifère du Seeland représente une richesse en ressources hydriques qu'il est impératif de préserver contre tout risque de détérioration. Cet aquifère prolifique est constitué principalement de sédiments alluviaux post-glaciaires (graviers, sables et limons). Il est soumis aux contraintes environnementales des pratiques d'agriculture intensive, du réseau routier, des villes et de leurs activités industrielles. La connaissance optimale de ces ressources est donc primordiale pour leur protection. Dans cette optique, deux sites Kappelen et Grenchen représentatifs de l'aquifère du Seeland ont été étudiés. L'objectif de ce travail est de caractériser d'un point de vue hydrogéophysique l'aquifère au niveau de ces deux sites, c'est-à-dire, comprendre la dynamique des écoulements souterrains par l'application des méthodes électriques de surface associées aux diagraphies en intégrant des méthodes hydrogéologiques. Pour le site de Kappelen, les méthodes électriques de surface ont permis d'identifier les différents faciès géoélectriques en présence et de mettre en évidence leur disposition en une structure tabulaire et horizontale. Il s'agit d'un aquifère libre constitué d'une série de graviers allant jusqu'à 15 m de profondeur reposant sur de la moraine argileuse. Les diagraphies électriques, nucléaires et du fluide ont servis à la détermination des caractéristiques pétrophysiques et hydrauliques de l'aquifère qui contrôlent son comportement hydrodynamique. Les graviers aquifères de Kappelen présentent deux minéraux dominants: quartz et calcite. Les analyses minéralogiques indiquent que ces deux éléments constituent 65 à 75% de la matrice. La porosité totale obtenue par les diagraphies nucléaires varie de 20 à 30 %, et de 22 à 29 % par diagraphies électrique. Avec les faibles valeurs de Gamma Ray ces résultats indiquent que l'aquifère des graviers de Kappelen est dépourvu d'argile minéralogique. La perméabilité obtenue par diagraphies du fluide varie de 3.10-4 à 5.10-2 m/s, et par essais de pompage de 10-4 à 10-2 m/s. Les résultats des analyses granulométriques indiquent une hétérogénéité granulométrique au niveau des graviers aquifères. La fraction de sables, sables très fins, silts et limons constitue de 10 à 40 %. Ces éléments jouent un rôle important dans le comportement hydraulique de l'aquifère. La porosité efficace de 11 à 25% estimée à partir des résultats des analyses granulométriques suppose que les zones les plus perméables correspondent aux zones les plus graveleuses du site. Etablie sur le site de Kappelen, cette méthodologie a été utilisée sur le site de Grenchen. Les méthodes électriques de surface indiquent que l'aquifère captif de Grenchen est constitué des sables silteux comprenant des passages sableux, encadrés par des silts argileux imperméables. L'aquifère de Grenchen est disposé dans une structure relativement tabulaire et horizontale. Son épaisseur totale peut atteindre les 25 m vers le sud et le sud ouest ou les passages sableux sont les plus importants. La détermination des caractéristiques pétrophysiques et hydrauliques s'est faite à l'aide des diagraphies. Les intensités Gamma Ray varient de 30 à 100 cps, les plus fortes valeurs n'indiquent qu'une présence d'éléments argileux mais pas de bancs d'argile. Les porosités totales de 15 à 25% et les densités globales de 2.25 à 2.45 g/cm3 indiquent que la phase minérale (matrice) est composée essentiellement de quartz et de calcaire. Les densités de matrice varient entre 2.65 et 2.75 g/cm3. La perméabilité varie de 2 10-6 à 5 10-4 m/s. La surestimation des porosités totales à partir des diagraphies électriques de 25 à 42% est due à la présence d'argiles. -- The vast alluvial Seeland aquifer system in northwestern Switzerland is subjected to environmental challenges due to intensive agriculture, roads, cities and industrial activities. Optimal knowledge of the hydrological resources of this aquifer system is therefore important for their protection. Two representative sites, Kappelen and Grenchen, of the Seeland aquifer were investigated using surface-based geoelectric methods and geophysical borehole logging methods. By integrating of hydrogeological and hydrogeophysical methods, a reliable characterization of the aquifer system at these two sites can be performed in order to better understand the governing flow and transport process. At the Kappelen site, surface-based geoelectric methods allowed to identify various geoelectric facies and highlighted their tabular and horizontal structure. It is an unconfined aquifer made up of 15 m thick gravels with an important sandy fraction and bounded by a shaly glacial aquitard. Electrical and nuclear logging measurements allow for constraining the petrophysical and hydrological parameters of saturated gravels. Results indicate that in agreement with mineralogical analyses, matrix of the probed formations is dominated by quartz and calcite with densities of 2.65 and 2.71 g/cc, respectively. These two minerals constitute approximately 65 to 75 % of the mineral matrix. Matrix density values vary from 2.60 to 2.75 g/cc. Total porosity values obtained from nuclear logs range from 20 to 30 % and are consistent with those obtained from electrical logs ranging from 22 to 29 %. Together with the inherently low natural gamma radiation and the matrix density values obtained from other nuclear logging measurements, this indicates that at Kappelen site the aquifer is essentially devoid of clay. Hydraulic conductivity values obtained by the Dilution Technique vary between 3.10-4 and 5.10-2 m/s, while pumping tests give values ranging from 10-4 to 10-2 m/s. Grain size analysis of gravel samples collected from boreholes cores reveal significant granulometric heterogeneity of these deposits. Calculations based on these granulometric data have shown that the sand-, silt- and shale-sized fractions constitute between 10 and 40 % of the sample mass. The presence of these fine elements in general and their spatial distribution in particular are important as they largely control the distribution of the total and effective porosity as well as the hydraulic conductivity. Effective porosity values ranging from 11 to 25% estimated from grain size analyses indicate that the zones of higher hydraulic conductivity values correspond to the zones dominated by gravels. The methodology established at the Kappelen site was then applied to the Grenchen site. Results from surface-based geoelectric measurements indicate that it is a confined aquifer made up predominantly of shaly sands with intercalated sand lenses confined impermeable shally clay. The Grenchen confined aquifer has a relatively tabular and horizontal structure with a maximum thickness of 25 m in the south and the southwest with important sand passages. Petrophysical and hydrological characteristics were performed using electrical and nuclear logging. Natural gamma radiation values ranging from 30 to 100 cps indicate presence of a clay fraction but not of pure clay layers. Total porosity values obtained from electrical logs vary form 25 to 42%, whereas those obtained from nuclear logs values vary from 15 to 25%. This over-estimation confirms presences of clays. Density values obtained from nuclear logs varying from 2.25 to 2.45 g/cc in conjunction with the total porosity values indicate that the dominating matrix minerals are quartz and calcite. Matrix density values vary between 2.65 and 2.75 g/cc. Hydraulic conductivity values obtained by the Dilution Technique vary from 2 10-6 to 5 10-4 m/s.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Le mélanome cutané est un des cancers les plus agressifs et dont l'incidence augmente le plus en Suisse. Une fois métastatique, le pronostic de survie moyenne avec les thérapies actuelles est d'environ huit mois, avec moins de 5% de survie à cinq ans. Les récents progrès effectués dans la compréhension de la biologie de la cellule tumorale mais surtout dans l'importance du système immunitaire dans le contrôle de ce cancer ont permis le développement de nouveaux traitements novateurs et prometteurs. Ces thérapies, appelées immunothérapies, reposent sur la stimulation et l'augmentation de la réponse immunitaire à la tumeur. Alors que les derniers essais cliniques ont démontré l'efficacité de ces traitements chez les patients avec des stades avancés de la maladie, le contrôle de la maladie à long- terme est seulement atteint chez une minorité des patients. La suppression locale et systémique de la réponse immunitaire spécifique anti-tumorale apparaitrait comme une des raisons expliquant la persistance d'un mauvais pronostic clinique chez ces patients. Des études sur les souris ont montré que les vaisseaux lymphatiques joueraient un rôle primordial dans ce processus en induisant une tolérance immune, ce qui permettrait à la tumeur d'échapper au contrôle du système immunitaire et métastatiser plus facilement. Ces excitantes découvertes n'ont pas encore été établi et prouvé chez l'homme. Dans cette thèse, nous montrons pour la première fois que les vaisseaux lymphatiques sont directement impliqués dans la modulation de la réponse immunitaire au niveau local et systémique dans le mélanome chez l'homme. Ces récentes découvertes montrent le potentiel de combiner des thérapies visant le système lymphatique avec les immunothérapies actuellement utilisées afin d'améliorer le pronostic des patients atteint du mélanome. -- Cutaneous melanoma is one of the most invasive and metastatic human cancers and causes 75% of skin cancer mortality. Current therapies such as surgery and chemotherapy fail to control metastatic disease, and relapse occurs frequently due to microscopic residual lesions. It is, thus, essential to develop and optimize novel therapeutic strategies to improve curative responses in these patients. In recent decades, tumor immunologists have revealed the development of spontaneous adaptive immune responses in melanoma patients, leading to the accumulation of highly differentiated tumor-specific T cells at the tumor site. This remains one of the most powerful prognostic markers to date. Immunotherapies that augment the natural function of these tumor-specific T cells have since emerged as highly attractive therapeutic approaches to eliminate melanoma cells. While recent clinical trials have demonstrated great progress in the treatment of advanced stage melanoma, long-term disease control is still only achieved in a minority of patients. Local and systemic immune suppression by the tumor appears to be responsible, in part, for this poor clinical evolution. These facts underscore the need for a better analysis and characterization of immune- related pathways within the tumor microenvironment (TME), as well as at the systemic level. The overall goal of this thesis is, thus, to obtain greater insight into the complexity and heterogeneity of the TME in human melanoma, as well as to investigate immune modulation beyond the TME, which ultimately influences the immune system throughout the whole body. To achieve this, we established two main objectives: to precisely characterize local and systemic immune modulation (i) in untreated melanoma patients and (ii) in patients undergoing peptide vaccination or checkpoint blockade therapy with anti-cytotoxic T- lymphocyte-asisctaed protein-4 (CTLA-4) antibody. In the first and main part of this thesis, we analyzed lymphatic vessels in relation to anti-tumor immune responses in tissues from vaccinated patients using a combination of immunohistochemistry (IHC) techniques, whole slide scanning/analysis, and an automatic quantification system. Strikingly, we found that increased lymphatic vessel density was associated with high expression of immune suppressive molecules, low functionality of tumor-infiltrating CD8+ T cells and decreased cytokine production by tumor-antigen specific CD8+ T cells in the blood. These data revealed a previously unappreciated local and systemic role of lymphangiogenesis in modulating T cell responses in human cancer and support the use of therapies that target lymphatic vessels combined with existing and future T cell based therapies. In the second objective, we describe a metastatic melanoma patient who developed pulmonary sarcoid-like granulomatosis following repetitive vaccination with peptides and CpG. We demonstrated that the onset of this pulmonary autoimmune adverse event was related to the development of a strong and long-lasting tumor-specific CD8+ T cell response. This constitutes the first demonstration that a new generation tumor vaccine can induce the development of autoimmune adverse events. In the third objective, we assessed the use of Fourier Transform Infrared (FTIR) imaging to identify melanoma cells and lymphocyte subpopulations in lymph node (LN) metastasis tissues, thanks to a fruitful collaboration with researchers in Brussels. We demonstrated that the different cell types in metastatic LNs have different infrared spectral features allowing automated identification of these cells. This technic is therefore capable of distinguishing known and novel biological features in human tissues and has, therefore, significant potential as a tool for histopathological diagnosis and biomarker assessment. Finally, in the fourth objective, we investigated the role of colony- stimulating factor-1 (CSF-1) in modulating the anti-tumor response in ipilimumab-treated patients using IHC and in vitro co-cultures, revealing that melanoma cells produce CSF-1 via CTL-derived cytokines when attacked by cytotoxic T lymphocytes (CTLs), resulting in the recruitment of immunosuppressive monocytes. These findings support the combined use of CSF-1R blockade with T cell based immunotherapy for melanoma patients. Taken together, our results reveal the existence of novel mechanisms of immune modulation and thus promote the optimization of combination immunotherapies against melanoma. -- Le mélanome cutané est un des cancers humains les plus invasifs et métastatiques et est responsable de 75% de la mortalité liée aux cancers de la peau. Les thérapies comme la chirurgie et la chimiothérapie ont échoué à contrôler le mélanome métastatique, par ailleurs les rechutes sous ces traitements ont été montrées fréquentes. Il est donc essentiel de développer et d'optimiser de nouvelles stratégies thérapeutiques pour améliorer les réponses thérapeutiques de ces patients. Durant les dernières décennies, les immunologistes spécialisés dans les tumeurs ont démontré qu'un patient atteint du mélanome pouvait développer spontanément une réponse immune adaptative à sa tumeur et que l'accumulation de cellules T spécifiques tumorales au sein même de la tumeur était un des plus puissants facteurs pronostiques. Les immunothérapies qui ont pour but d'augmenter les fonctions naturelles de ces cellules T spécifiques tumorales ont donc émergé comme des approches thérapeutiques très attractives pour éliminer les cellules du mélanome. Alors que les derniers essais cliniques ont démontré un progrès important dans le traitement des formes avancées du mélanome, le contrôle de la maladie à long-terme est seulement atteint chez une minorité des patients. La suppression immune locale et systémique apparaitrait comme une des raisons expliquant la persistance d'un mauvais pronostic clinique chez ces patients. Ces considérations soulignent la nécessité de mieux analyser et caractériser les voies immunitaires non seulement au niveau local dans le microenvironement tumoral mais aussi au niveau systémique dans le sang des patients. Le but de cette thèse est d'obtenir une plus grande connaissance de la complexité et de l'hétérogénéité du microenvironement tumoral dans les mélanomes mais aussi d'investiguer la modulation immunitaire au delà du microenvironement tumoral au niveau systémique. Afin d'atteindre ce but, nous avons établi deux objectifs principaux : caractériser précisément la modulation locale et systémique du système immunitaire (i) chez les patients atteints du mélanome qui n'ont pas reçu de traitement et (ii) chez les patients qui ont été traités soit par des vaccins soit par des thérapies qui bloquent les points de contrôles. Dans la première et majeure partie de cette thèse, nous avons analysé les vaisseaux lymphatiques en relation avec la réponse immunitaire anti-tumorale dans les tissus des patients vaccinés grâce à des techniques d'immunohistochimie et de quantification informatisé et automatique des marquages. Nous avons trouvé qu'une densité élevée de vaisseaux lymphatiques dans la tumeur était associée à une plus grande expression de molécules immunosuppressives ainsi qu'à une diminution de la fonctionnalité des cellules T spécifiques tumoral dans la tumeur et dans le sang des patients. Ces résultats révèlent un rôle jusqu'à là inconnu des vaisseaux lymphatiques dans la modulation directe du système immunitaire au niveau local et systémique dans les cancers de l'homme. Cette recherche apporte finalement des preuves du potentiel de combiner des thérapies visant le système lymphatique avec des autres immunothérapies déjà utilisées en clinique. Dans le second objectif, nous rapportons le cas d'un patient atteint d'un mélanome avec de multiples métastases qui a développé à la suite de plusieurs vaccinations répétées et consécutives avec des peptides et du CpG, un évènement indésirable sous la forme d'une granulomatose pulmonaire sarcoid-like. Nous avons démontré que l'apparition de cet évènement était intimement liée au développement d'une réponse immunitaire durable et spécifique contre les antigènes de la tumeur. Par là- même, nous prouvons pour la première fois que la nouvelle génération de vaccins est aussi capable d'induire des effets indésirables auto-immuns. Pour le troisième objectif, nous avons voulu savoir si l'utilisation de la spectroscopie infrarouge à transformée de Fourier (IRTF) était capable d'identifier les cellules du mélanome ainsi que les différents sous-types cellulaires dans les ganglions métastatiques. Grâce à nos collaborateurs de Bruxelles, nous avons pu établir que les diverses composantes cellulaires des ganglions atteints par des métastases du mélanome présentaient des spectres infrarouges différents et qu'elles pouvaient être identifiées d'une façon automatique. Cette nouvelle technique permettrait donc de distinguer des caractéristiques biologiques connues ou nouvelles dans les tissus humains qui auraient des retombées pratiques importantes dans le diagnostic histopathologique et dans l'évaluation des biomarqueurs. Finalement dans le dernier objectif, nous avons investigué le rôle du facteur de stimulation des colonies (CSF-1) dans la modulation de la réponse immunitaire anti-tumorale chez les patients qui ont été traités par l'Ipilimumab. Nos expériences in vivo au niveau des tissus tumoraux et nos co-cultures in vitro nous ont permis de démontrer que les cytokines secrétées par les cellules T spécifiques anti-tumorales induisaient la sécrétion de CSF-1 dans les cellules du mélanome ce qui résultait en un recrutement de monocytes immunosuppresseurs. Dans son ensemble, cette thèse révèle donc l'existence de nouveaux mécanismes de modulation de la réponse immunitaire anti-tumorale et propose de nouvelles optimisations de combinaison d'immunothérapies contre le mélanome.
Resumo:
En parallèle à l'avènement des modèles policiers guidés par le renseignement, les méthodes d'analyse criminelle et de renseignement forensique ont connu des développements importants ces dernières années. Des applications ont été proposées dans divers domaines des sciences forensiques afin d'exploiter et de gérer différents types de traces matérielles de façon systématique et plus performante. A cet égard, le domaine des faux documents d'identité n'a été l'objet que de peu d'attention bien qu'il s'agisse d'une criminalité grave dans laquelle le crime organisé est impliqué.La présente étude cherche à combler cette lacune en proposant une méthode de profilage des fausses pièces d'identité simple et généralisable qui vise à découvrir des liens existants sur la base des caractéristiques matérielles analysables visuellement. Ces caractéristiques sont considérées comme constituant la marque de fabrique particulière du faussaire et elle peuvent ainsi être exploitées pour inférer des liens entre fausses pièces d'identité provenant d'une même source.Un collectif de plus de 200 fausses pièces d'identité composé de trois types de faux documents a été récolté auprès des polices de neuf cantons suisses et a été intégré dans une banque de données ad hoc. Les liens détectés de façon systématique et automatique par cette banque de données ont été exploités et analysés afin de produire des renseignements d'ordre stratégique et opérationnel utiles à la lutte contre la fraude documentaire.Les démarches de profilage et de renseignement mises en place pour les trois types de fausses pièces d'identité étudiées se sont révélées efficaces, un fort pourcentage des documents s'avérant liés (de 30 % à 50 %). La fraude documentaire apparaît comme une criminalité structurée et interrégionale, pour laquelle les liens établis entre fausses pièces d'identité peuvent servir d'aide à l'enquête et de soutien aux décisions stratégiques. Les résultats suggèrent le développement d'approches préventives et répressives pour lutter contre la fraude documentaire.
Resumo:
SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.
Resumo:
La gestion des risques est souvent appréhendée par l'utilisation de méthodes linéaires mettant l'accent sur des raisonnements de positionnement et de type causal : à tel événement correspond tel risque et telle conséquence. Une prise en compte des interrelations entre risques est souvent occultée et les risques sont rarement analysés dans leurs dynamiques et composantes non linéaires. Ce travail présente ce que les méthodes systémiques et notamment l'étude des systèmes complexes sont susceptibles d'apporter en matière de compréhension, de management et d'anticipation et de gestion des risques d'entreprise, tant sur le plan conceptuel que de matière appliquée. En partant des définitions relatives aux notions de systèmes et de risques dans différents domaines, ainsi que des méthodes qui sont utilisées pour maîtriser les risques, ce travail confronte cet ensemble à ce qu'apportent les approches d'analyse systémique et de modélisation des systèmes complexes. En mettant en évidence les effets parfois réducteurs des méthodes de prise en compte des risques en entreprise ainsi que les limitations des univers de risques dues, notamment, à des définitions mal adaptées, ce travail propose également, pour la Direction d'entreprise, une palette des outils et approches différentes, qui tiennent mieux compte de la complexité, pour gérer les risques, pour aligner stratégie et management des risques, ainsi que des méthodes d'analyse du niveau de maturité de l'entreprise en matière de gestion des risques. - Risk management is often assessed through linear methods which stress positioning and causal logical frameworks: to such events correspond such consequences and such risks accordingly. Consideration of the interrelationships between risks is often overlooked and risks are rarely analyzed in their dynamic and nonlinear components. This work shows what systemic methods, including the study of complex systems, are likely to bring to knowledge, management, anticipation of business risks, both on the conceptual and the practical sides. Based on the definitions of systems and risks in various areas, as well as methods used to manage risk, this work confronts these concepts with approaches of complex systems analysis and modeling. This work highlights the reducing effects of some business risk analysis methods as well as limitations of risk universes caused in particular by unsuitable definitions. As a result this work also provides chief officers with a range of different tools and approaches which allows them a better understanding of complexity and as such a gain in efficiency in their risk management practices. It results in a better fit between strategy and risk management. Ultimately the firm gains in its maturity of risk management.
Resumo:
L'identification spécifique d'un échantillon biologique récolté sur le terrain n'est pas toujours possible par le biais de méthodes conventionnelles. Afin de remédier à cette situation, nous avons développé un protocole rapide, rigoureux et reproductible, constitué de quatre étapes principales: (i) extraction (isolement) de l'ADN à partir d'échantillons biologiques de provenance variée; (ii) amplification par PCR d'un segment spécifique d'ADN; (iii) détermination de la séquence nucléotidique du segment d'ADN amplifié; (iv) comparaison de la séquence obtenue avec une base de données (si nécessaire, analyse phylogénétique) et détermination de l'espèce la plus proche. Cette approche nous a permis d'identifier sans ambiguïté la totalité des échantillons analysés, représentés par des tissus d'origine variée (sang, biopsies d'organe ou de tissu) d'espèces de mammifères sauvages.
Resumo:
Rapport de synthèse : Mesures de l'aorte ascendante par scanner synchronisé au rythme cardiaque: une étude pilote pour établir des valeurs normatives dans le cadre des futures thérapies par transcathéter. Objectif : L'objectif de cette étude est d'établir les valeurs morphométriques normatives de l'aorte ascendante à l'aide de l'angiographie par scanner synchronisé au rythme cardiaque, afin d'aider au développement des futurs traitements par transcathéter. Matériels et méthodes : Chez soixante-dix-sept patients (âgé de 22 à 83 ans, âge moyen: 54,7 ans), une angiographie par scanner synchronisé au rythme cardiaque a été réalisée pour évaluation des vaisseaux coronaires. Les examens ont été revus afin d'étudier l'anatomie de la chambre de chasse du ventricule gauche jusqu'au tronc brachio-céphalique droit. A l'aide de programmes de reconstructions multiplanaires et de segmentation automatique, différents diamètres et longueurs considérés comme importants pour les futurs traitements par transcathéter ont été mesurés. Les valeurs sont exprimées en moyennes, médianes, maximums, minimums, écart-types et en coefficients de variation. Les variations de diamètre de l'aorte ascendante durant le cycle cardiaque ont été aussi considérées. Résultats : Le diamètre moyen de la chambre de chasse du ventricule gauche était de 20.3+/-3.4 mm. Au niveau du sinus coronaire de l'aorte, il était de 34.2+/-4.1 mm et au niveau de la jonction sinotubulaire il était de 29.7+/-3.4 mm. Le diamètre moyen de l'aorte ascendante était de 32.7+/-3.8 mm. Le coefficient de variation de ces mesures variait de 12 à 17%. La distance moyenne entre l'insertion proximale des valvules aortiques et le départ du tronc brachio-céphalique droit était de 92.6+/-11.8 mm. La distance moyenne entre l'insertion proximale des valvules aortiques et l'origine de l'artère coronaire proximale était de 12.1+/-3.7 mm avec un coefficient de variation de 31%. La distance moyenne entre les deux ostia coronaires était de 7.2+/-3.1 mm avec un coefficient de variation de 43%. La longueur moyenne du petit arc de l'aorte ascendante entre l'artère coronaire gauche et le tronc brachio-céphalique droit était de 52.9+/-9.5 mm. La longueur moyenne de la continuité fibreuse entre la valve aortique et la valvule mitrale antérieure était de 14.6+/-3.3 mm avec un coefficient de variation de 23%. L'aire moyenne de la valve aortique était de 582.0+/-131.9 mm2. La variation du diamètre antéro-postérieur et transverse de l'aorte ascendante était respectivement de 8.4% et de 7.3%. Conclusion Il existe d'importantes variations inter-individuelles dans les mesures de l'aorte ascendante avec cependant des variations intra-individuelles faibles durant le cycle cardiaque. De ce fait, une approche personnalisée pour chaque patient est recommandée dans la confection des futures endoprothèses de l'aorte ascendante. Le scanner synchronisé au rythme cardiaque jouera un rôle prépondérant dans le bilan préthérapeutique. Abstract : The aim of this study was to provide an insight into normative values of the ascending aorta in regards to novel endovascular procedures using ECG-gated multi-detector CT angiography. Seventy-seven adult patients without ascending aortic abnormalities were evaluated. Measurements at relevant levels of the aortic root and ascending aorta were obtained. Diameter variations of the ascending aorta during cardiac cycle were also considered. Mean diameters (mm) were as follows: LV outflow tract 20.3+/-3.4, coronary sinus 34.2+/-4.1, sinotubular junction 29.7+-3.4 and mid ascending aorta 32.7+/-3.8 with coefficients of variation (CV) ranging from 12 to 17%. Mean distances (mm) were: from the plane passing through the proximal insertions of the aortic valve cusps to the right brachio-cephalic artery (BCA) 92.6111.8, from the plane passing through the proximal insertions of the aortic valve cusps to the proximal coronary ostium 12.1+/-3.7, and between both coronary ostia 7.2+/-3.1, minimal arc of the ascending aorta from left coronary ostium to right BCA 52.9 X9.5, and the fibrous continuity between the aortic valve and the anterior leaflet of the mitral valve 14.óf3.3, CV 13-43%. Mean aortic valve area was 582+-131.9 mm2. The variations of the antero-posterior and transverse diameters of the ascending aorta during the cardiac cycle were 8.4% and 7.3%, respectively. Results showed large inter-individual variations in diameters and distances but with limited intra-individual variations during the cardiac cycle. A personalized approach for planning endovascular devices must be considered.
Resumo:
Quatre cristaux du canal ASIC1a ont été publiés et soutiennent une stoechiométrie trimérique. Cependant, ces données contredisant de précédentes analyses fonctionnelles effectuées sur des canaux de la même famille, notre intérêt fut porté sur l'oligomérisation d'ASIC1a. Dans ce sens, un nouvel essai couplant la méthode d'analyse par substitution de cystéines (SCAM) avec l'utilisation de réactifs sulfhydryls bifonctionnels (crosslinkers) a été mis en place. Le but étant de stabiliser, puis sélectionner les canaux fonctionnels, pour ensuite les séparer selon leur taille par SDS-PAGE. Grâce à cette technique, nous avons démontré que le complexe stabilisé a une taille coïncidant avec une organisation tétramérique. En plus de son oligomérisation, le chemin emprunté par les ions pour traverser le canal n'est pas clairement défini dans ces structures. De ce fait, utilisant une approche électrophysiologique, nous avons étudié le lien entre la structure et la fonction du vestibule extracellulaire d'ASIC1a. Dans ce but, nous nous sommes intéressés l'accessibilité de cystéines spécifiques localisées dans ce vestibule pour des réactifs méthanethiosulfonates (MTS). Ainsi, nous avons pu corréler les cinétiques de modification de ces cystéines par les MTS avec les effets sur le courant sodique, et donc avoir des informations supplémentaires sur la voie empruntée par les ions. De plus, la simulation informatique de liaison de ces réactifs illustre le remplissage total de ce vestibule. Fonctionnellement, cette interaction ne perturbe pas le passage de ions, c'est pourquoi il nous apparaît probable que le vestibule présente une taille plus large que celle illustrée par les cristaux. Dans un deuxième temps, notre intérêt fut porté sur ENaC. Ce canal est composé des trois sous-unités (a, ß et y) et est exprimé dans divers épithéliums, dont les tubules des reins. Il participe à l'homéostasie sodique et est essentiellement régulé par voie hormonale via l'aldostérone et la Vasopressine, mais également par des sérines protéases ou le Na+. Nous avons étudié la répercussion fonctionnelle de la mutation aS243P, découverte chez un nouveau-né prématuré atteint de pseudohypoaldostéronisme de type 1. Cette maladie autosomale récessive se caractérise, généralement, par une hyponatrémie liée à d'importantes pertes de sel dans les urines, une hyperkaliémie, ainsi qu'un niveau élevé d'aldostérone. Tout d'abord aucune des expériences biochimiques et électrophysiologiques n'a pu démontrer un défaut d'expression ou une forte diminution de l'activité soutenant les données cliniques. Cependant, en challengeant aS243PßyENaC avec une forte concentration de Na+ externe, une hypersensibilité de canal fut observée. En effet, ni les phénomènes régulateurs de « feedback inhibition » ou de « Na+ self-inhibition » n'étaient semblables au canal sauvage. De ce fait, ils apparaissaient exacerbés en présence de la mutation, amenant ainsi à une diminution de la réabsorption de Na+. Ceci corrobore entièrement l'hyponatrémie diagnostiquée. Le rein d'un prématuré étant immature, la quantité de Na+ atteignant la partie distale du néphron est plus élevée, du fait que les autres mécanismes de réabsorption en amont ne sont probablement pas encore en place. Cette hypothèse est renforcée par l'existence d'un frère présentant la même mutation, mais qui, né à terme, ne présentait aucun signe d'hyponatrémie. - The main topic of my thesis is the structure-function relationship of the ENaC/Deg family of ion channels, namely the Acid-Sensing Ion Channel ASIC1a and the Epithelial Na Channel ENaC. The primary part of this research is dedicated to the structure of ASIC1a. Four channel crystals have been published, which support a trimeric stoichiometry, although these data contradict previous functional experiments on other ENaC/Deg members. We are therefore interested in ASIC1a oligomerization and have set up a new assay combining the Substituted- Cysteine Accessibility Method (SCAM) with Afunctional sulfhydryl reagents (crosslinkers) allowing its study. The aim was to first stabilize the channels, then select those that are functional and then resolve them according to their size on SDS-PAGE. We demonstrated that the stabilized complex has a molecular weight corresponding to a tetrameric stoichiometry. In addition to our interest in the oligomerization of the ENaC/Deg family of ion channels, we also wanted to investigate the thus far undefined way of permeation for these channels. Therefore, taking the advantage of a more electrophysiological approach, we studied the accessibility of specific cysteines for methanethiosulfonate reagents (MTS) and were able to correlate the MTS association kinetics on cysteine residues with Na+ currents. These results have given us an insight into ion permeation and our functional evidence indicates that the extracellular is larger than that depicted by the crystal structures. As a side project, we focused on ENaC, which is made up of three subunits (a, ß and y) and is expressed in various epithelia, especially in the distal nephron of the kidneys. It plays a role in Na+ homeostasis and is essentially regulated by hormones via aldosterone and vasopressin, but also by serine proteases or Na+. We have studied the functional impact of the aS243P mutation, discovered in a premature baby suffering from pseudohypoaldosteronism of type 1. This autosomal recessive disease is characterized by hyponatremia, hyperkalemia and high aldosterone levels. Firstly, neither biochemical nor electrophysiological experiments indicated an expression defect or a strong decrease in activity. However, challenging aS243PßyENaC with increased external Na+ concentration showed channel hypersensitivity. Indeed, both the "feedback inhibition" and the "Na+ self-inhibition" regulatory mechanisms are impaired, leading to a decrease in Na+ reabsorption, entirely supports the diagnosis. The kidneys in preterm infants are immature and Na+ levels reaching the distal nephron are higher than normally observed. We hypothesize that the upstream reabsorption machinery is unlikely to be sufficiently matured and this assumption is supported by an asymptomatic sibling carrying the same mutation, but born at term. - La cellule, unité fonctionnelle du corps humain, est délimitée par une membrane plasmique servant de barrière biologique entre les milieux intra et extracellulaires. Une communication entre cellules est indispensable pour un fonctionnement adéquat. Sa survie dépend, entre autres, du maintien de la teneur en ions dans chacun des milieux qui doivent pouvoir être réabsorbés, ou sécrétés, selon les besoins. Les protéines insérées dans la membrane forment un canal et sont un moyen de communication permettant spécifiquement à des ions tel que le sodium (Na+) de traverser. Le Na+ se trouve dans la plupart des aliments et le sel, et est spécifiquement réabsorbé au niveau des reins grâce au canal sodique épithélial ENaC. Cette réabsorption se fait de l'urine primaire vers l'intérieur de la cellule, puis est transporté vers le sang. Pour maintenir un équilibre, une régulation de ce canal est nécessaire. En effet, des dysfonctionnements impliquant la régulation ou l'activité d'ENaC lui-même sont à l'origine de maladies telles que la mucoviscidose, l'hypertension ou encore, le pseudohypoaldostéronisme (PHA). Cette maladie est caractérisée, notamment, par d'importantes pertes de sel dans les urines. Des pédiatres ont diagnostiqué un PHA chez un nouveau-né, ce dernier présentant une modification du canal ENaC, nous avons recréé cette protéine afin d'étudier l'impact de ce changement sur son activité. Nous avons démontré que la régulation d'ENaC était effectivement perturbée, conduisant ainsi à une forte réduction de la réabsorption sodique. Afin de développer des molécules capables de moduler l'activité de protéines. Il est nécessaire d'en connaître la structure. Celle du canal sodique sensible à l'acidification ASIC1, un canal cousin d'ENaC, est connue. Ces données structurales contredisant cependant les analyses fonctionnelles, nous nous sommes penchés une nouvelle fois sur ASIC1. Une protéine est une macromolécule biologique composée d'une chaîne d'acides aminés (aa). De l'enchaînement d'aa à la protéine fonctionnelle, quatre niveaux de structuration existent. Chaque aa donne une indication quant au repliement et plus particulièrement la cystéine. Arborant un groupe sulfhydryle (SH) capable de former une liaison spécifique et stable avec un autre SH, celle-ci est souvent impliquée dans la structure tridimensionnelle de la protéine. Ce type de liaison intervient également dans la stabilisation de la structure quaternaire, qui est l'association de plusieurs protéines identiques (homomère), ou pas (hétéromère). Dans cette partie, nous avons remplacé des aa par des cystéines à des endroits spécifiques. Le but était de stabiliser plusieurs homomères d'ASICl ensemble avec des réactifs créant des ponts entre deux SH. Ainsi, nous avons pu déterminer le nombre de protéines ASIC1 participant à la formation d'un canal fonctionnel. Nos résultats corroborent les données fonctionnelles soutenant un canal tétramérique. Nous avons également étudié l'accessibilité de ces nouvelles cystéines afin d'obtenir des informations supplémentaires sur la structure du chemin emprunté par le Na+ à travers ASIC1 et plus particulièrement du vestibule extracellulaire.
Resumo:
La douleur est définie par l'International association for the study of pain (IASP) comme une expérience sensorielle et émotionnelle désagréable, associée à une lésion tissulaire réelle ou à une lésion potentielle, ou décrite en des termes évoquant une telle lésion. Sa fonction est de signaler une menace potentielle pour l'intégrité de l'organisme. Mais ce ressenti peut persister ou être présent en l'absence d'une telle menace. Il s'agit dans ce cas d'une douleur pathologique dont les mécanismes étiologiques et physiopathologiques ne sont pas encore bien compris.¦Ce travail de maîtrise a pour objectif l'étude d'une mutation génétique responsable d'un syndrome douloureux chronique. Cette mutation génétique a été décelée chez une famille de patients lausannois atteints de PEPD (paroxysmal extreme pain disorder) et touche le canal sodique Nav1.7. Ce canal est exprimé principalement dans les neurones des ganglions sensitifs et des ganglions sympathiques. Il est considéré comme responsable de la transmission de la douleur vers le SNC car des mutations « perte de fonction » de ce canal sont à l'origine d'une insensibilité congénitale à la douleur. Les mutations « gain de fonction » de ce canal sont à l'origine de syndromes douloureux chroniques tel le syndrome PEPD ou l'érythromélalgie. La mutation présente chez les patients lausannois est située entre les segments transmembranaires S4 et S5 sur le 4ème domaine de la sous-unité α du canal sodique Nav1.7. Cette mutation ne touche qu'un seul acide aminé, en position 1612 où une leucine est remplacée par une proline.¦Les méthodes employées dans ce travail sont la mutagenèse pour générer des plasmides contenant le gène SCN9A muté (T4835C) codant pour le canal Nav1.7 muté (L1612P), l'amplification de ces plasmides dans des bactéries et la transfection de cellules HEK293 avec les plasmides contenant le gène SCN9A muté (T4835C). Nous avons ainsi pu induire l'expression du canal muté dans des cellules HEK293. Ces cellules pourront être utilisées par la suite pour enregistrer les courants ioniques transitant à travers les canaux exprimés à la membrane plasmique. Cela permettra de comparer les propriétés électrophysiologiques du canal Nav1.7 muté L1612P avec celles du canal non muté. Nous avons également recherché l'expression d'ARNm codant pour les composants des canaux sodiques (sous-unités α et β) dans les cellules HEK293 non transfectées par la technique de qRT-PCR. Ceci afin de répertorier les composants des canaux sodiques exprimés constitutivement par les cellules HEK293 qui pourraient avoir une influence sur les mesures électrophysiologiques qui seront effectuées sur ces cellules.¦Ce travail a permis de générer des plasmides contenant le gène SCN9A muté T4835C qui sont des outils nécessaires à la réalisation d'études plus détaillées sur le fonctionnement et les propriétés du canal Nav1.7 muté L1612P. Ce travail a également permis, par la méthode de la qRT-PCR, une analyse de l'expression d'ARNm codant pour la sous-unité α du canal Nav1.7 et des sous-unités β 1 à 4 par les cellules HEK293. Les résultats ainsi obtenus permettent de mieux caractériser le transcriptome des cellules HEK293 et seront utiles pour interpréter avec plus de précisions les expérimentations électrophysiologiques utilisant ces cellules. L'étude électrophysiologique des cellules HEK293 exprimant le canal Nav1.7 muté par la technique du patch clamp est en cours. Elle sera poursuivie dans le cadre d'un travail de recherche dépassant le cadre de ce travail de maîtrise. Les cellules HEK293 exprimant le canal Nav1.7 muté (L1612P) pourront être également utilisées pour tester l'effet de divers médicaments sur ce canal. Ce qui pourrait d'une part permettre d'optimiser le traitement des patients souffrant de PEPD et d'autre part être utile pour tout traitement à but antalgique.
Resumo:
(Résumé de l'ouvrage) L'histoire des religions autant dans ses procédés que dans ses concepts est fondée sur la comparaison. Tels le mythe, le sacrifice, l'initiation ou la purification, ces concepts comparatifs ont fini par être neutralisés dans une ontologie à prétention universelle. Des religions on en est revenu à la religion, pour le plus grand profit des théologiens chrétiens, protestants et catholiques, qui y ont trouvé une nouvelle légitimité académique. Raison supplémentaire pour revenir sur les démarches comparatives et pour en critiquer les effets totalisants : la comparaison s'impose comme méthode à condition d'être contrastive et différentielle. Elle induit un regard relativisant et décentré ; ce regard oblique d'une part rend justice aux spécificités des manifestations et pratiques religieuses décrites dans leur diversité ; d'autre part il est la condition même, en sciences humaines en général, d'une position critique, antidote indispensable aux replis disciplinaires et institutionnels de nos contemporains. Les contributions réunies ici à la suite d'une journée d'échange passée à comparer les démarches comparatives en histoire des religions entraînent lectrices et lecteurs des rites du polythéisme grec aux pratiques contemporaines du yoga, en passant par différentes prétentions universalisantes du monothéisme chrétien, par les pratiques de l'hospitalité en régime rabbinique et en hindouisme brahmanique, mais aussi par la question du salut individuel en philosophie néoplatonicien, ne ou en théologie augustinienne, par les gestes de la prière dans les religions amérindiennes et dans la mystique chrétienne ou par les prophétismes chrétien et musulman ; ceci par le biais de méthodes comparatives se fondant sur une démarche historique, structurale, discursive ou cognitive.
Resumo:
The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.
Resumo:
La gouvernance de l'Internet est une thématique récente dans la politique mondiale. Néanmoins, elle est devenue au fil des années un enjeu économique et politique important. La question a même pris une importance particulière au cours des derniers mois en devenant un sujet d'actualité récurrent. Forte de ce constat, c ette recherche retrace l'histoire de la gouvernance de l'Internet depuis son émergence comme enjeu politique dans les années 1980 jusqu'à la fin du Sommet Mondial sur la Société de l'Information (SMSI) en 2005. Plutôt que de se focaliser sur l'une ou l'autre des institutions impliquées dans la régulation du réseau informatique mondial, cette recherche analyse l'émergence et l'évolution historique d'un espace de luttes rassemblant un nombre croissant d'acteurs différents. Cette évolution est décrite à travers le prisme de la relation dialectique entre élites et non-élites et de la lutte autour de la définition de la gouvernance de l'Internet. Cette thèse explore donc la question de comment les relations au sein des élites de la gouvernance de l'Internet et entre ces élites et les non-élites expliquent l'emergence, l'évolution et la structuration d'un champ relativement autonome de la politique mondiale centré sur la gouvernance de l'Internet. Contre les perspectives dominantes réaliste et libérales, cette recherche s'ancre dans une approche issue de la combinaison des traditions hétérodoxes en économie politique internationale et des apports de la sociologie politique internationale. Celle-ci s'articule autour des concepts de champ, d'élites et d'hégémonie. Le concept de champ, développé par Bourdieu inspire un nombre croissant d'études de la politique mondiale. Il permet à la fois une étude différenciée de la mondialisation et l'émergence d'espaces de lutte et de domination au niveau transnational. La sociologie des élites, elle, permet une approche pragmatique et centrée sur les acteurs des questions de pouvoir dans la mondialisation. Cette recherche utilise plus particulièrement le concept d'élite du pouvoir de Wright Mills pour étudier l'unification d'élites a priori différentes autour de projets communs. Enfin, cette étude reprend le concept néo-gramscien d'hégémonie afin d'étudier à la fois la stabilité relative du pouvoir d'une élite garantie par la dimension consensuelle de la domination, et les germes de changement contenus dans tout ordre international. A travers l'étude des documents produits au cours de la période étudiée et en s'appuyant sur la création de bases de données sur les réseaux d'acteurs, cette étude s'intéresse aux débats qui ont suivi la commercialisation du réseau au début des années 1990 et aux négociations lors du SMSI. La première période a abouti à la création de l'Internet Corporation for Assigned Names and Numbers (ICANN) en 1998. Cette création est le résultat de la recherche d'un consensus entre les discours dominants des années 1990. C'est également le fruit d'une coalition entre intérêts au sein d'une élite du pouvoir de la gouvernance de l'Internet. Cependant, cette institutionnalisation de l'Internet autour de l'ICANN excluait un certain nombre d'acteurs et de discours qui ont depuis tenté de renverser cet ordre. Le SMSI a été le cadre de la remise en cause du mode de gouvernance de l'Internet par les États exclus du système, des universitaires et certaines ONG et organisations internationales. C'est pourquoi le SMSI constitue la seconde période historique étudiée dans cette thèse. La confrontation lors du SMSI a donné lieu à une reconfiguration de l'élite du pouvoir de la gouvernance de l'Internet ainsi qu'à une redéfinition des frontières du champ. Un nouveau projet hégémonique a vu le jour autour d'éléments discursifs tels que le multipartenariat et autour d'insitutions telles que le Forum sur la Gouvernance de l'Internet. Le succès relatif de ce projet a permis une stabilité insitutionnelle inédite depuis la fin du SMSI et une acceptation du discours des élites par un grand nombre d'acteurs du champ. Ce n'est que récemment que cet ordre a été remis en cause par les pouvoirs émergents dans la gouvernance de l'Internet. Cette thèse cherche à contribuer au débat scientifique sur trois plans. Sur le plan théorique, elle contribue à l'essor d'un dialogue entre approches d'économie politique mondiale et de sociologie politique internationale afin d'étudier à la fois les dynamiques structurelles liées au processus de mondialisation et les pratiques localisées des acteurs dans un domaine précis. Elle insiste notamment sur l'apport de les notions de champ et d'élite du pouvoir et sur leur compatibilité avec les anlayses néo-gramsciennes de l'hégémonie. Sur le plan méthodologique, ce dialogue se traduit par une utilisation de méthodes sociologiques telles que l'anlyse de réseaux d'acteurs et de déclarations pour compléter l'analyse qualitative de documents. Enfin, sur le plan empirique, cette recherche offre une perspective originale sur la gouvernance de l'Internet en insistant sur sa dimension historique, en démontrant la fragilité du concept de gouvernance multipartenaire (multistakeholder) et en se focalisant sur les rapports de pouvoir et les liens entre gouvernance de l'Internet et mondialisation. - Internet governance is a recent issue in global politics. However, it gradually became a major political and economic issue. It recently became even more important and now appears regularly in the news. Against this background, this research outlines the history of Internet governance from its emergence as a political issue in the 1980s to the end of the World Summit on the Information Society (WSIS) in 2005. Rather than focusing on one or the other institution involved in Internet governance, this research analyses the emergence and historical evolution of a space of struggle affecting a growing number of different actors. This evolution is described through the analysis of the dialectical relation between elites and non-elites and through the struggle around the definition of Internet governance. The thesis explores the question of how the relations among the elites of Internet governance and between these elites and non-elites explain the emergence, the evolution, and the structuration of a relatively autonomous field of world politics centred around Internet governance. Against dominant realist and liberal perspectives, this research draws upon a cross-fertilisation of heterodox international political economy and international political sociology. This approach focuses on concepts such as field, elites and hegemony. The concept of field, as developed by Bourdieu, is increasingly used in International Relations to build a differentiated analysis of globalisation and to describe the emergence of transnational spaces of struggle and domination. Elite sociology allows for a pragmatic actor-centred analysis of the issue of power in the globalisation process. This research particularly draws on Wright Mill's concept of power elite in order to explore the unification of different elites around shared projects. Finally, this thesis uses the Neo-Gramscian concept of hegemony in order to study both the consensual dimension of domination and the prospect of change contained in any international order. Through the analysis of the documents produced within the analysed period, and through the creation of databases of networks of actors, this research focuses on the debates that followed the commercialisation of the Internet throughout the 1990s and during the WSIS. The first time period led to the creation of the Internet Corporation for Assigned Names and Numbers (ICANN) in 1998. This creation resulted from the consensus-building between the dominant discourses of the time. It also resulted from the coalition of interests among an emerging power elite. However, this institutionalisation of Internet governance around the ICANN excluded a number of actors and discourses that resisted this mode of governance. The WSIS became the institutional framework within which the governance system was questioned by some excluded states, scholars, NGOs and intergovernmental organisations. The confrontation between the power elite and counter-elites during the WSIS triggered a reconfiguration of the power elite as well as a re-definition of the boundaries of the field. A new hegemonic project emerged around discursive elements such as the idea of multistakeholderism and institutional elements such as the Internet Governance Forum. The relative success of the hegemonic project allowed for a certain stability within the field and an acceptance by most non-elites of the new order. It is only recently that this order began to be questioned by the emerging powers of Internet governance. This research provides three main contributions to the scientific debate. On the theoretical level, it contributes to the emergence of a dialogue between International Political Economy and International Political Sociology perspectives in order to analyse both the structural trends of the globalisation process and the located practices of actors in a given issue-area. It notably stresses the contribution of concepts such as field and power elite and their compatibility with a Neo-Gramscian framework to analyse hegemony. On the methodological level, this perspective relies on the use of mixed methods, combining qualitative content analysis with social network analysis of actors and statements. Finally, on the empirical level, this research provides an original perspective on Internet governance. It stresses the historical dimension of current Internet governance arrangements. It also criticise the notion of multistakeholde ism and focuses instead on the power dynamics and the relation between Internet governance and globalisation.