98 resultados para chromatographie liquide


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The epithelial sodium channel (ENaC) is composed of three homologous subunits α, ß, and γ. This channel is involved in the regulation of sodium balance, which influences the periciliary liquid level in the lung, and blood pressure via the kidney. ENaC expressed in Xenopus laevis oocytes is preferentially and rapidly assembled into heteromeric αßγ complexes. Expression of homomeric α or heteromeric αß and αγ complexes lead to channel expression at the cell surface wíth low activities. Recent studies have demonstrated that α and γ (but not ß) ENaC subunits undergo proteolytic cleavage by endogenous proteases (i.e. furin) correlating with increased channel activity. We therefore assayed the full-length subunits and their cleavage products at the cell surface, as well as in the intracellular pool for all homo- and heteromeric combínations (α, ß, γ, ßγ, αß, αγ, ßγ and αßγ) and measured the corresponding channel activities as amiloride-sensitive sodíum transport (INa). We showed that upon assembly, cleavage of the y ENaC subunit ís responsible for increasing INa. We further demonstrated that in disease states such as cystic fibrosis (CF) where there is disequilibrium in the proteaseprotease inhibitor balance, ENaC is over-activated by the serine protease elastase (NE). We demonstrated that elevated NE concentrations can cleave cell surface expressed γ ENaC (but not α, or ß ENaC), suggesting a causal relationship between γ ENaC cleavage and ENaC activation, taking place at the plasma membrane. In addition, we demonstrated that the serine protease inhibitor (serpin) serpinH1, which is co-expressed with ENaC in the distal nephron is capable of inhibiting the channel by preventing cleavage of the γ ENaC subunit. Aldosterone mediated increases in INa aze known to be inhibted by TGFß. TGFß is also known to increase serpinHl expression. The demonstrated inhibition of γ ENaC cleavage and channel activation by serpinH1 may be responsible for the effect of TGFß on aldosterone stimulation in the distal nephron. In summary, we show that cleavage of the γ subunit, but not the α or ß subunit is linked to channel activation in three seperate contexts. Résumé Le canal épithélial à sodium (ENaC) est constitué de trois sous-unités homologues α, ß, and γ. Ce canal est impliqué dans le maintien de la balance sodique qui influence le niveau du liquide périciliaire du poumon et la pression sanguine via le rein. Dans les ovocytes de Xenopus laevis ENaC est préférentiellement et rapidement exprimé en formant un complexe hétéromérique αßγ. En revanche, l'expression homomérique de α ou hétéromérique des complexes αß et αγ conduit à une expression à la surface cellulaire d'un canal ENaC ne possédant qu'une faible activité. Des études récentes ont mis en évidence que les sous-unités α et γ d'ENaC (mais pas ß) sont coupées par des protéases endogènes (les farines) et que ces clivages augmentent l'activité du canal. Nous avons donc analysé, aussi bien à la surface cellulaire que dans le cytoplasme, les produits des clivages de combinaison homo- et hétéromérique des sous-unités d'ENaC (α, ß, γ, ßγ, αß, αγ, ßγ et αßγ). En parallèle, nous avons étudié l'activité correspondante à ces canaux par la mesure du transport de sodium sensible à l'amiloride (INa). Nous avons montré que lors de l'assemblage des sous-unités d'ENaC, le clivage de γ correspond à l'augmentation de INa. Nous avons également mis en évidence que dans une maladie telle que la fibrose cystique (CF) caractérisée par un déséquilibre de la balance protéase-inhibiteur de protéase, ENaC est suractivé par une sérine protéase nommée élastase (NE). L'augmentation de la concentration de NE clive γ ENaC exprimé à la surface cellulaire (mais pas α, ni ß ENaC) suggérant une causalité entre le clivage d'ENaC et son activation à la membrane plasmique. De plus, nous avons démontré que l'inhibiteur de sérine protéase (serpin) serpinH1, qui est co-exprimé avec ENaC dans le néphron distal, inhibe l'activité du canal en empêchant le clivage de la sous-unité γ ENaC. Il est connu que le INa induit par l'aldostérone peut être inhibé par TGFß. Or TGFß augmente l'expression de serpinH1. L'inhibition du clivage de γ ENaC et de l'activation du canal par la serpinH1 que nous avons mis en évidence pourrait ainsi être responsable de l'effet de TGFß sur la stimulation du courant par l'aldostérone dans le néphron distal. En résumé, nous avons montré que le clivage de la sous-unité γ, mais pas des sous-unités α et ß, est lié à l'activation du canal dans trois contextes distincts. Résumé tout public Le corps humain est composé d'environ 10 000 milliards de cellules et d'approximativement 60% d'eau. Les cellules du corps sont les unités fondamentales de la vie et elles sont dépendantes de certains nutriments et molécules. Ces nutriments et molécules sont dissous dans l'eau qui est présente dans et hors des cellules. Le maintien d'une concentration adéquate - de ces nutriments et de ces molécules dans l'eau à l'intérieur et à l'extérieur des cellules est -..essentiel pour leur survie. L'eau hors des cellules est nommée le fluide extracellulaire et peut être subdivisée en fluide interstitiel, qui se trouve autour des cellules, et en plasma, qui est le fluide des vaisseaux sanguins. Les fluides, les nutriments et les molécules sont constamment échangés entre les cellules, le fluide interstitiel, et le plasma. Le plasma circule dans le système circulatoire afin de distribuer les nutriments et molécules dans tout le corps et afin d'enlever les déchets cellulaires. Le rein joue un rôle essentiel dans la régulation du volume et de la concentration du plasma en éliminant sélectivement les nutriments et les molécules via la formation de l'urine. L'être humain possède deux reins, constitués chacun d'environ 1 million de néphrons. Ces derniers sont responsables de réabsorber et de sécréter sélectivement les nutriments et les molécules. Le canal épithélial à sodium (ENaC) est localisé à la surface cellulaire des néphrons et est responsable de la réabsorption du sodium (Na+). Le Na+ est présent dans quasiment toute la nourriture que nous mangeons et représente, en terme de molécule, 50% du sel de cuisine. Si trop de sodium est consommé, ENaC est inactif, si bien que le Na+ n'est pas réabsorbé et quitte le corps par l'urine. Ce mécanisme permet d'éviter que la concentration plasmatique de Na+ ne devienne trop grande, ce qui résulterait en une augmentation de la pression sanguine. Si trop peu de Na+ est consommé, ENaC réabsorbe le Na+ de l'urine primaire ce qui permet de conserver la concentration de Na+ et de prévenir une diminution de la pression sanguine par une perte de Na+. ENaC est aussi présent dans les cellules des poumons qui sont les organes permettant la respiration. La respiration est aussi essentielle pour la survie des cellules. Les poumons ne doivent pas contenir trop de liquide afin de permettre la respiration, mais en même temps ils ne doivent pas non plus être trop secs. En effet, ceci tuerait les cellules et empêcherait aussi la respiration. ENaC permet de maintenir un niveau d'humidité approprié dans les poumons en absorbant du Na+ ce qui entraîne un mouvement osmotique d'eau. L'absorption de sodium par ENaC ~ est augmentée par les protéases (in vitro et ex vivo). Les protéases sont des molécules qui peuvent couper d'autres molécules à des endroits précis. Nous avons démonté que certaines protéases augmentent l'absorption de Na+ en coupant ENaC à des endroits spécifiques. L'inhibition de ces protéases diminue le transport de Na+ et empêche le clivage d'ENaC. Dans certaines maladies telle que la mucoviscidose, des protéases sont suractivées et augmentent l'activité d'ENaC de manière inappropriée conduisant à une trop forte absorption de Na+ et à un déséquilibre de la muqueuse des poumons. Cette étude est donc particulièrement importante dans le cadre de la recherche thérapeutique de ce genre de maladie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary: Decrease in glutathione (GSH) levels was observed in cerebrospinal fluid, prefrontal cortex and post-mortem striatum of schizophrenia patients. Evidences suggest a defect in GSH synthesis at the levels of the rate-limiting synthesizing enzyme, glutamate cysteine ligase (GCL). Indeed, polymorphisms in the gene of the modifier subunit of GCL (GCLM) was shown to be associated with the disease in three different populations, GCLM gene expression is decreaséd in fibroblasts from patients and the increase in GCL activity induced by an oxidative stress is lower in patients' fibroblasts compared to controls. GSH being a major antioxydant and redox regulator, its presence is of high importance for protecting cells against oxidative stress. The aim of the present work was to use various substances to increase GSH levels by diverse strategies. Since the synthesizing enzyme GCL is defective, bypassing this enzyme was the first strategy we used. GSH ethyl ester (GSHEE), a membrane permeable analog of GSH, succeeded in replenishing GSH levels in cultured neurons and astrocytes previously depleted in GSH by L-buthionine-(S,R)-sulfoximine (BSO), an inhibitor of GCL. GSHEE also abolished dopamine-induced decrease of NMDA-mediated calcium response observed in BSO-treated neurons. y-Glutamylcysteine ethyl ester (GCSE), a membrane permeable analog of the product of GCL, increased GSH levels only in astrocytes. The second strategy was to boost the defective enzyme GCL. While quercetin (flavonoid) could increase GSH levels only in astrocytes, curcumin (polyphenol) and tertbutylhydroquinone (quinone) were successful in both neurons and astrocytes, via an increase in the gene expression of the two subunits of GCL and, consequently, an increase in the activity of the enzyme. However, FK506, an immunosupressant, was unefficient. Treating astrocytes from GCLM KO mice showed that the modulatory subunit is necessary for the action of the substances. Finally, since cysteine is the limiting precursor in the synthesis of GSH, we hypothesized that we could increase GSH levels by providing more of this precursor. N-acetyl-cysteine (NAC), a cysteine donor, was administered to schizophrenia patients, using adouble-blind and cross-over protocol. NAC significantly improved the mismatch negativity (MMN), a component of the auditory evoked potentials, thought to reflect selective current flowing through open, unblocked NMDA channels. Considering that NMDA function is reduced when GSH levels are low, increasing these levels with NAC could improve NMDA function as reflected by the improvement in the generation of the MMN. Résumé: Les taux de glutathion (GSH) dans le liquide céphalo-rachidien, le cortex préfrontal ainsi que le striatum post-mortem de patients schizophrènes, sont diminués. L'enzyme limitante dans la synthèse du GSH, la glutamyl-cysteine ligase (GCL), est défectueuse. En effet, des polymorphismes dans le gène de la sous-unité modulatrice de GCL (GCLM) sont associés à la maladie, l'expression du gène GCLM est diminuée dans les fibroblastes de patients et, lors d'un stress oxidative, l'augmentation de l'activité de GCL est plus faible chez les patients que chez les contrôles. Le GSH étant un important antioxydant et régulateur du status redox, sa présence est primordiale afin de protéger les cellules contre les stress oxydatifs. Au cours du présent travail, une variété de substances ont été utilisées dans le but d'augmenter les taux de GSH. Passer outre l'enzyme de synthèse GCL qui est défectueuse fut la première stratégie utilisée. L'éthylester de GSH (GSHEE), un analogue du GSH qui pénètre la membrane cellulaire, a augmenté les taux de GSH dans des neurones et des astrocytes déficitaires en GSH dû au L-buthionine-(S,R)-sulfoximine (BSO), un inhibiteur du GCL. Dans ces neurones, le GSHEE a aussi aboli la diminution de la réponse NMDA, induite parla dopamine. L'éthyl-ester de y-glutamylcysteine (GCEE), un analogue du produit de la GCL qui pénètre la membrane cellulaire, a augmenté les taux de GSH seulement dans les astrocytes. La seconde stratégie était d'augmenter l'activité de l'enzyme GCL. Tandis que la quercétine (flavonoïde) n'a pu augmenter les taux de GSH que dans les astrocytes, la curcumin (polyphénol) et le tert-butylhydroquinone (quinone) furent efficaces dans les deux types de cellules, via une augmentation de l'expression des gènes des deux sous-unités de GCL et de l'activité de l'enzyme. Le FK506 (immunosupresseur) n' a démontré aucune efficacité. Traiter des astrocytes provenant de souris GCLM KO a permis d'observer que la sous-unité modulatoire est nécessaire à l'action des substances. Enfin, puisque la cysteine est le substrat limitant dans la synthèse du GSH, fournir plus de ce présurseur pourrait augmenter les taux de GSH. Nacétyl-cystéine (NAC), un donneur de cystéine, a été administrée à des schizophrènes, lors d'une étude en double-aveugle et cross-over. NAC a amélioré le mismatch negativity (MMN), un composant des potentials évoqués auditifs, qui reflète le courant circulant via les canaux NMDA. Puisque la fonctionnalité des R-NMDA est diminuée lorsque les taux de GSH sont bas, augmenter ces taux avec NAC pourrait améliorer la fonction des R-NMDA, réflété par une augmentation de l'amplitude du MMN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte Lié au vieillissement et à la sédentarisation de la population, ainsi qu'à la chronicisation du cancer, l'emploi de cathéters veineux centraux permanents (CVCP) n'a cessé d'augmenter. La complication majeure de ces dispositifs, induisant de forts taux de morbi-mortalité, est l'infection. Actuellement, le diagnostic de ces infections reste surtout basé sur la clinique et les hémocultures. Lorsque le doute persiste, une ablation chirurgicale suivie de la mise en culture des prélèvements chirurgicaux et du cathéter permettent de poser le diagnostic. En clinique, après ces examens, nous constatons que seule la moitié des cathéters retirés étaient réellement infectés. Alors que la tomographie par émission de positons fusionnée à la tomographie (PET/CT) a montré de bons résultats dans la détection des infections chroniques, la valeur diagnostique du PET/CT au fluorodeoxyglucose marqué au 18F (18F-FDG) pour les infections de CVCP n'a encore jamais été déterminée dans une étude prospective. Objectifs Au travers de cette étude prospective, ouverte et monocentrique, nous chercherons à connaître la valeur diagnostique du PET/CT au 18F-FDG dans la détection d'infections de CVCP et ainsi d'en déterminer son utilité. Nous essaierons aussi de déterminer la différence de valeur diagnostique du PET/CT au 18F-FDG par rapport aux méthodes conventionnelles (paramètres cliniques et culture du liquide d'aspiration), afin de se déterminer sur l'éventuelle utilité diagnostique de celui-ci. Méthodes Cadre : Etude prospective d'au moins 20 patients, avec 2 groupes contrôles d'au moins 10 patients ayant chacun respectivement une faible et une forte probabilité d'infection, soit au moins 40 patients au total. Population : patients adultes avec CVCP devant être retiré. Cette étude prévoit un examen PET/CT au 18F-FDG effectué auprès de patients nécessitant une ablation de CVCP sur suspicion d'infection, sans confirmation possible par les moyens diagnostiques non chirurgicaux. Deux acquisitions seront réalisées 45 et 70 minutes après l'injection de 5,5MBq/Kg de 18F-FDG. Le groupe contrôle à faible probabilité d'infection, sera formé de patients bénéficiant de l'ablation définitive d'un CVCP pour fin de traitement durant le laps de temps de l'étude, et ayant bénéficié au préalable d'un examen PET/CT pour raison X. Après avoir retiré chirurgicalement le CVCP, nous utiliserons la culture microbiologique des deux extrémités du CVCP comme étalon d'or (gold standard) de l'infection. Le groupe contrôle à forte probabilité d'infection sera formé de patients nécessitant une ablation de CVCP sur infection de CVCP confirmée par les moyens diagnostiques non chirurgicaux (culture positive du liquide de l'aspiration). Lors de l'examen PET/CT, ces patients auront aussi deux acquisitions réalisées 45 et 70 minutes après l'injection de 5,5MBq/Kg de 18F-FDG. Les résultats de ces examens seront évalués par deux spécialistes en médecine nucléaire qui détermineront le niveau de suspicion de l'infection sur une échelle de Likert allant de I à V, sur la base du nombre de foyers, de la localisation du foyer, de l'intensité de la captation de 18F-FDG au voisinage du cathéter et du rapport tissu/arrière-plan. Par la suite, nous retirerons chirurgicalement le CVCP. Nous utiliserons la culture microbiologique du pus (si présent), des deux extrémités du CVCP ainsi que l'histologie des tissus formant un tunnel autour du cathéter comme étalon d'or de l'infection. Les résultats seront analysés à l'aide de courbes ROC (Receiver Operating Characteristic) afin de déterminer la valeur diagnostique du PET/CT dans l'infection de CVCP. Les résultats des examens des patients avec suspicion clinique d'infection seront ensuite analysés séparément, afin de déterminer la différence de valeur diagnostique du PET/CT au 18F-FDG par rapport aux méthodes conventionnelles. Résultats escomptés Ce projet veut chercher à savoir si le PET/CT au 18F-FDG peut être un moyen diagnostique valide dans les infections de CVCP, s'avérer utile lorsque les autres moyens diagnostiques sont non conclusifs. Plus-value escomptée Actuellement, lors d'incertitude sur le diagnostic d'infection de CVCP, une opération chirurgicale est effectuée à titre préventif afin d'enlever le cathéter en cause, cependant seulement la moitié de ces cathéters sont réellement infectés en pratique. Le PET/CT au 18F-FDG, grâce à sa sensibilité élevée et probablement une bonne valeur prédictive négative, pourrait éviter à une partie des patients un retrait inutile du cathéter, diminuant ainsi les risques chirurgicaux et les coûts liés à de telles opérations, tout en préservant le capital d'accès vasculaire futur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Engineered nanomaterials (ENMs) exhibit special physicochemical properties and thus are finding their way into an increasing number of industries, enabling products with improved properties. Their increased use brings a greater likelihood of exposure to the nanoparticles (NPs) that could be released during the life cycle of nano-abled products. The field of nanotoxicology has emerged as a consequence of the development of these novel materials, and it has gained ever more attention due to the urgent need to gather information on exposure to them and to understand the potential hazards they engender. However, current studies on nanotoxicity tend to focus on pristine ENMs, and they use these toxicity results to generalize risk assessments on human exposure to NPs. ENMs released into the environment can interact with their surroundings, change characteristics and exhibit toxicity effects distinct from those of pristine ENMs. Furthermore, NPs' large surface areas provide extra-large potential interfaces, thus promoting more significant interactions between NPs and other co-existing species. In such processes, other species can attach to a NP's surface and modify its surface functionality, in addition to the toxicity in normally exhibits. One particular occupational health scenario involves NPs and low-volatile organic compounds (LVOC), a common type of pollutant existing around many potential sources of NPs. LVOC can coat a NP's surface and then dominate its toxicity. One important mechanism in nanotoxicology is the creation of reactive oxygen species (ROS) on a NP's surface; LVOC can modify the production of these ROS. In summary, nanotoxicity research should not be limited to the toxicity of pristine NPs, nor use their toxicity to evaluate the health effects of exposure to environmental NPs. Instead, the interactions which NPs have with other environmental species should also be considered and researched. The potential health effects of exposure to NPs should be derived from these real world NPs with characteristics modified by the environment and their distinct toxicity. Failure to suitably address toxicity results could lead to an inappropriate treatment of nano- release, affect the environment and public health and put a blemish on the development of sustainable nanotechnologies as a whole. The main objective of this thesis is to demonstrate a process for coating NP surfaces with LVOC using a well-controlled laboratory design and, with regard to these NPs' capacity to generate ROS, explore the consequences of changing particle toxicity. The dynamic coating system developed yielded stable and replicable coating performance, simulating an important realistic scenario. Clear changes in the size distribution of airborne NPs were observed using a scanning mobility particle sizer, were confirmed using both liquid nanotracking analyses and transmission electron microscopy (TEM) imaging, and were verified thanks to the LVOC coating. Coating thicknesses corresponded to the amount of coating material used and were controlled using the parameters of the LVOC generator. The capacity of pristine silver NPs (Ag NPs) to generate ROS was reduced when they were given a passive coating of inert paraffin: this coating blocked the reactive zones on the particle surfaces. In contrast, a coating of active reduced-anthraquinone contributed to redox reactions and generated ROS itself, despite the fact that ROS generation due to oxidation by Ag NPs themselves was quenched. Further objectives of this thesis included development of ROS methodology and the analysis of ROS case studies. Since the capacity of NPs to create ROS is an important effect in nanotoxicity, we attempted to refine and standardize the use of 2'7-dichlorodihydrofluorescin (DCFH) as a chemical tailored for the characterization of NPs' capacity for ROS generation. Previous studies had reported a wide variety of results, which were due to a number of insufficiently well controlled factors. We therefore cross-compared chemicals and concentrations, explored ways of dispersing NP samples in liquid solutions, identified sources of contradictions in the literature and investigated ways of reducing artificial results. The most robust results were obtained by sonicating an optimal sample of NPs in a DCFH-HRP solution made of 5,M DCFH and 0.5 unit/ml horseradish peroxidase (HRP). Our findings explained how the major reasons for previously conflicting results were the different experimental approaches used and the potential artifacts appearing when using high sample concentrations. Applying our advanced DCFH protocol with other physicochemical characterizations and biological analyses, we conducted several case studies, characterizing aerosols and NP samples. Exposure to aged brake wear dust engenders a risk of potential deleterious health effects in occupational scenarios. We performed microscopy and elemental analyses, as well as ROS measurements, with acellular and cellular DCFH assays. TEM images revealed samples to be heterogeneous mixtures with few particles in the nano-scale. Metallic and non-metallic elements were identified, primarily iron, carbon and oxygen. Moderate amounts of ROS were detected in the cell-free fluorescent tests; however, exposed cells were not dramatically activated. In addition to their highly aged state due to oxidation, the reason aged brake wear samples caused less oxidative stress than fresh brake wear samples may be because of their larger size and thus smaller relative reactive surface area. Other case studies involving welding fumes and differently charged NPs confirmed the performance of our DCFH assay and found ROS generation linked to varying characteristics, especially the surface functionality of the samples. Les nanomatériaux manufacturés (ENM) présentent des propriétés physico-chimiques particulières et ont donc trouvés des applications dans un nombre croissant de secteurs, permettant de réaliser des produits ayant des propriétés améliorées. Leur utilisation accrue engendre un plus grand risque pour les êtres humains d'être exposés à des nanoparticules (NP) qui sont libérées au long de leur cycle de vie. En conséquence, la nanotoxicologie a émergé et gagné de plus en plus d'attention dû à la nécessité de recueillir les renseignements nécessaires sur l'exposition et les risques associés à ces nouveaux matériaux. Cependant, les études actuelles sur la nanotoxicité ont tendance à se concentrer sur les ENM et utiliser ces résultats toxicologiques pour généraliser l'évaluation des risques sur l'exposition humaine aux NP. Les ENM libérés dans l'environnement peuvent interagir avec l'environnement, changeant leurs caractéristiques, et montrer des effets de toxicité distincts par rapport aux ENM originaux. Par ailleurs, la grande surface des NP fournit une grande interface avec l'extérieur, favorisant les interactions entre les NP et les autres espèces présentes. Dans ce processus, d'autres espèces peuvent s'attacher à la surface des NP et modifier leur fonctionnalité de surface ainsi que leur toxicité. Un scénario d'exposition professionnel particulier implique à la fois des NP et des composés organiques peu volatils (LVOC), un type commun de polluant associé à de nombreuses sources de NP. Les LVOC peuvent se déposer sur la surface des NP et donc dominer la toxicité globale de la particule. Un mécanisme important en nanotoxicologie est la création d'espèces réactives d'oxygène (ROS) sur la surface des particules, et les LVOC peuvent modifier cette production de ROS. En résumé, la recherche en nanotoxicité ne devrait pas être limitée à la toxicité des ENM originaux, ni utiliser leur toxicité pour évaluer les effets sur la santé de l'exposition aux NP de l'environnement; mais les interactions que les NP ont avec d'autres espèces environnementales doivent être envisagées et étudiées. Les effets possibles sur la santé de l'exposition aux NP devraient être dérivés de ces NP aux caractéristiques modifiées et à la toxicité distincte. L'utilisation de résultats de toxicité inappropriés peut conduire à une mauvaise prise en charge de l'exposition aux NP, de détériorer l'environnement et la santé publique et d'entraver le développement durable des industries de la nanotechnologie dans leur ensemble. L'objectif principal de cette thèse est de démontrer le processus de déposition des LVOC sur la surface des NP en utilisant un environnement de laboratoire bien contrôlé et d'explorer les conséquences du changement de toxicité des particules sur leur capacité à générer des ROS. Le système de déposition dynamique développé a abouti à des performances de revêtement stables et reproductibles, en simulant des scénarios réalistes importants. Des changements clairs dans la distribution de taille des NP en suspension ont été observés par spectrométrie de mobilité électrique des particules, confirmé à la fois par la méthode dite liquid nanotracking analysis et par microscopie électronique à transmission (MET), et a été vérifié comme provenant du revêtement par LVOC. La correspondance entre l'épaisseur de revêtement et la quantité de matériau de revêtement disponible a été démontré et a pu être contrôlé par les paramètres du générateur de LVOC. La génération de ROS dû aux NP d'argent (Ag NP) a été diminuée par un revêtement passif de paraffine inerte bloquant les zones réactives à la surface des particules. Au contraire, le revêtement actif d'anthraquinone réduit a contribué aux réactions redox et a généré des ROS, même lorsque la production de ROS par oxydation des Ag NP avec l'oxygène a été désactivé. Les objectifs associés comprennent le développement de la méthodologie et des études de cas spécifique aux ROS. Etant donné que la capacité des NP à générer des ROS contribue grandement à la nanotoxicité, nous avons tenté de définir un standard pour l'utilisation de 27- dichlorodihydrofluorescine (DCFH) adapté pour caractériser la génération de ROS par les NP. Des etudes antérieures ont rapporté une grande variété de résultats différents, ce qui était dû à un contrôle insuffisant des plusieurs facteurs. Nous avons donc comparé les produits chimiques et les concentrations utilisés, exploré les moyens de dispersion des échantillons HP en solution liquide, investigué les sources de conflits identifiées dans les littératures et étudié les moyens de réduire les résultats artificiels. De très bon résultats ont été obtenus par sonication d'une quantité optimale d'échantillons de NP en solution dans du DCFH-HRP, fait de 5 nM de DCFH et de 0,5 unité/ml de Peroxydase de raifort (HRP). Notre étude a démontré que les principales raisons causant les conflits entre les études précédemment conduites dans la littérature étaient dues aux différentes approches expérimentales et à des artefacts potentiels dus à des concentrations élevées de NP dans les échantillons. Utilisant notre protocole DCFH avancé avec d'autres caractérisations physico-chimiques et analyses biologiques, nous avons mené plusieurs études de cas, caractérisant les échantillons d'aérosols et les NP. La vielle poussière de frein en particulier présente un risque élevé d'exposition dans les scénarios professionnels, avec des effets potentiels néfastes sur la santé. Nous avons effectué des analyses d'éléments et de microscopie ainsi que la mesure de ROS avec DCFH cellulaire et acellulaire. Les résultats de MET ont révélé que les échantillons se présentent sous la forme de mélanges de particules hétérogènes, desquels une faible proportion se trouve dans l'échelle nano. Des éléments métalliques et non métalliques ont été identifiés, principalement du fer, du carbone et de l'oxygène. Une quantité modérée de ROS a été détectée dans le test fluorescent acellulaire; cependant les cellules exposées n'ont pas été très fortement activées. La raison pour laquelle les échantillons de vielle poussière de frein causent un stress oxydatif inférieur par rapport à la poussière de frein nouvelle peut-être à cause de leur plus grande taille engendrant une surface réactive proportionnellement plus petite, ainsi que leur état d'oxydation avancé diminuant la réactivité. D'autres études de cas sur les fumées de soudage et sur des NP différemment chargées ont confirmé la performance de notre test DCFH et ont trouvé que la génération de ROS est liée à certaines caractéristiques, notamment la fonctionnalité de surface des échantillons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une des meilleures techniques pour décontaminer l'environnement d'éléments toxiques (comme par exemple le dibenzofuan, DBF et le 4-chlorophenol, 4CP) déposés par l'homme, à bas coûts et sans le perturber considérablement, est sans doute la biorémédiation, et particulièrement la bioaugmentation. Malheureusement, si plusieurs microorganismes ont démontré leur efficacité à dégrader les composés toxiques en conditions de laboratoire, plusieurs tentatives afin de les utiliser dans l'environnement n'ont pas abouti. Ces échecs sont probablement le résultat des pauvres connaissances des réactions de ces mêmes microorganismes dans l'environnement. L'objectif de mon travail a été de mieux comprendre les réponses de ces bactéries au niveau de leurs gènes lorsqu'elles sont introduites ou prospèrent dans des conditions plus proches de la réalité, mais encore suffisamment contrôlées pour pouvoir élucider leur comportement. Le fait de résister à des conditions de sécheresse a été considéré en tant que facteur clé dans la survie des bactéries amenées à être utilisées pour la biorémédiation; cela implique une série de mécanismes utilisés par la cellule pour faire face au stress hydrique. Le chapitre II, par une approche métagénomique, compare les réactions de trois souches prometteuses pour la biorémédiation (Arthrobacter chlorophenolicus A6, Sphingomonas wittichii RW1 and Pseudomonas veronii 1YdBTEX2) vis-à-vis du stress hydrique simulé en conditions de laboratoire. L'objectif ici est de découvrir et de décrire les stratégies de résistance au stress, communes ou spécifiques, employées par les bactéries. Mes résultats montrent que les trois souches ont des sensibilités différentes au stress hydrique. Entre les traits communs trouvés, il y a une diminution de l'expression des gènes flagellaires ainsi qu'une augmentation de l'expression de solutes compatibles, mais qui sont souche-spécifiques. J'ai étudié plus en détail la réponse génomique de RW1 par rapport aux inoculations ainsi que sa croissance dans le sable contaminé et non-stérile (chapitre III), et je les ai comparé à des cultures en milieu liquide. Mes résultats indiquent que RW1 peut résister efficacement et peut croître dans des conditions presque sèches et peut également dégrader le contaminant (DBF, dans le cas présent) si les pré-cultures sont réalisées dans le même type de contaminant. Par contre, notre hypothèse du chapitre II se révèle fausse car le comportement de RW1 est très diffèrent de celui observé dans des conditions avec stress hydrique induit par l'addition de sel ou de PEG. Plus intéressant, les réponses de RW1 en milieu liquide sont très différentes de celles observées dans le sable, révélant ainsi que cette souche peut reconnaître le milieu dans lequel elle se trouve. Les mêmes expériences en sable contaminé, cette fois-ci avec 4CP, ont été réalisées pour A6 (chapitre IV) dans l'espoir de compléter la comparaison entre le stress hydrique et l'adaptation dans le sol. Malheureusement, il n'a pas été possible d'obtenir d'échantillons de bonne qualité pour les hybridations des microarrays afin d'étudier la réponse transcriptionnelle dans les différentes phases de croissance dans le sable (contaminé ou non). Toutefois, j'ai appris qu'Arthrobacter ne peut pas croitre dans les sols hautement contaminés si les conditions du sol sont très sèches, elles ont en effet besoin de suffisamment d'eau pour dégrader des quantités importantes de 4CP. Ces observations dirigent l'attention sur le fait que les études sur l'efficacité de l'inoculation de bactéries doivent être testées dans des conditions le plus proche possible de l'environnement ciblé, tout comme les concentrations optimales pour l'inoculum. Finalement, nous avons étudié le comportement de A6 dans la phytosphère avec deux dégrés d'humidité (chapitre V). A6 ne montre pas de réaction particulière face aux changements d'humidité, et à nouveau, ces réponses ne peuvent être liées aux changements d'expression des gènes observées dans les conditions de stress hydrique simulées. Cette étude a permis d'identifier la présence de composés phénoliques dans les feuilles qui peuvent potentiellement améliorer les propriétés de dégradation ou qui permettent d'effectuer de façon plus rapide la réaction de dégradation des contaminants dans un processus de phytoremédiation par A. chlorophenolicus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : la Physiopathologie maternelle de la prééclampsie s'associe typiquement à un état inflammatoire systémique modéré. La protéine "high mobility group box 1" (HMGB-1) est une protéine nucléaire ubiquitaire. En cas de stress cellulaire, elle est relâchée dans le milieu extrace llua li re et peut ainsi exercer son activité pro-inflammatoire. En cas de prééclampsie, le liquide amniotique et le cytoplasme des cellules trophoblastiques contiennent des quantités anormalement élevées de HMGB-1, mais il n'est toujours pas universellement admis que ces concentrations se retrouvent dans le sang maternel. Méthodes : nous avons recruté 32 femmes au troisième trimestre de grossesse, 16 avec et 16 sans prééclampsie. Nous avons également observé 16 femmes non enceintes et en bonne santé, appariées selon l'âge avec les femmes enceintes. Nous avons mesuré la concentration sérique de HMGB-1 chez les femmes enceintes avant, puis 24-48 heures après leur accouchement, en utilisant un kit ELISA commercial. Le même dosage a été réalisé chez les femmes non enceintes, mais à une seule reprise, au moment de leur inclusion dans l'étude. Résultats : le jour de leur inclusion dans l'étude, la concentration médiane [intervalle interquartile] de HMGB-1 chez les femmes enceintes prééclamptiques était de 2.1 ng/ml [1.1 - 3.2], de 1.1 [1.0-1.2] chez les grossesses saines (p < 0.05 vs groupe prééclamptiques) et de 0.6 [0.5 - 0.8] chez les patientes non enceintes (p < 0.01 vs deux autres groupes). Pour les deux groupes de femmes enceintes, les concentrations mesurées en post-partum ne variaient pas significativement de celles mesurées avant l'accouchement. Conclusion : avec ou sans prééclampsie, le troisième triemstre de la grossesse est associé à une élévation des taux circulants de HMGB-1. Cette augmentation est exagérée en cas de prééclampsie. L'origine de ces concentrations élevées reste à déterminer, mais elle semble impliquer d'autres organes que le placenta lui-même.