307 resultados para chromatographie liquide


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte Lié au vieillissement et à la sédentarisation de la population, ainsi qu'à la chronicisation du cancer, l'emploi de cathéters veineux centraux permanents (CVCP) n'a cessé d'augmenter. La complication majeure de ces dispositifs, induisant de forts taux de morbi-mortalité, est l'infection. Actuellement, le diagnostic de ces infections reste surtout basé sur la clinique et les hémocultures. Lorsque le doute persiste, une ablation chirurgicale suivie de la mise en culture des prélèvements chirurgicaux et du cathéter permettent de poser le diagnostic. En clinique, après ces examens, nous constatons que seule la moitié des cathéters retirés étaient réellement infectés. Alors que la tomographie par émission de positons fusionnée à la tomographie (PET/CT) a montré de bons résultats dans la détection des infections chroniques, la valeur diagnostique du PET/CT au fluorodeoxyglucose marqué au 18F (18F-FDG) pour les infections de CVCP n'a encore jamais été déterminée dans une étude prospective. Objectifs Au travers de cette étude prospective, ouverte et monocentrique, nous chercherons à connaître la valeur diagnostique du PET/CT au 18F-FDG dans la détection d'infections de CVCP et ainsi d'en déterminer son utilité. Nous essaierons aussi de déterminer la différence de valeur diagnostique du PET/CT au 18F-FDG par rapport aux méthodes conventionnelles (paramètres cliniques et culture du liquide d'aspiration), afin de se déterminer sur l'éventuelle utilité diagnostique de celui-ci. Méthodes Cadre : Etude prospective d'au moins 20 patients, avec 2 groupes contrôles d'au moins 10 patients ayant chacun respectivement une faible et une forte probabilité d'infection, soit au moins 40 patients au total. Population : patients adultes avec CVCP devant être retiré. Cette étude prévoit un examen PET/CT au 18F-FDG effectué auprès de patients nécessitant une ablation de CVCP sur suspicion d'infection, sans confirmation possible par les moyens diagnostiques non chirurgicaux. Deux acquisitions seront réalisées 45 et 70 minutes après l'injection de 5,5MBq/Kg de 18F-FDG. Le groupe contrôle à faible probabilité d'infection, sera formé de patients bénéficiant de l'ablation définitive d'un CVCP pour fin de traitement durant le laps de temps de l'étude, et ayant bénéficié au préalable d'un examen PET/CT pour raison X. Après avoir retiré chirurgicalement le CVCP, nous utiliserons la culture microbiologique des deux extrémités du CVCP comme étalon d'or (gold standard) de l'infection. Le groupe contrôle à forte probabilité d'infection sera formé de patients nécessitant une ablation de CVCP sur infection de CVCP confirmée par les moyens diagnostiques non chirurgicaux (culture positive du liquide de l'aspiration). Lors de l'examen PET/CT, ces patients auront aussi deux acquisitions réalisées 45 et 70 minutes après l'injection de 5,5MBq/Kg de 18F-FDG. Les résultats de ces examens seront évalués par deux spécialistes en médecine nucléaire qui détermineront le niveau de suspicion de l'infection sur une échelle de Likert allant de I à V, sur la base du nombre de foyers, de la localisation du foyer, de l'intensité de la captation de 18F-FDG au voisinage du cathéter et du rapport tissu/arrière-plan. Par la suite, nous retirerons chirurgicalement le CVCP. Nous utiliserons la culture microbiologique du pus (si présent), des deux extrémités du CVCP ainsi que l'histologie des tissus formant un tunnel autour du cathéter comme étalon d'or de l'infection. Les résultats seront analysés à l'aide de courbes ROC (Receiver Operating Characteristic) afin de déterminer la valeur diagnostique du PET/CT dans l'infection de CVCP. Les résultats des examens des patients avec suspicion clinique d'infection seront ensuite analysés séparément, afin de déterminer la différence de valeur diagnostique du PET/CT au 18F-FDG par rapport aux méthodes conventionnelles. Résultats escomptés Ce projet veut chercher à savoir si le PET/CT au 18F-FDG peut être un moyen diagnostique valide dans les infections de CVCP, s'avérer utile lorsque les autres moyens diagnostiques sont non conclusifs. Plus-value escomptée Actuellement, lors d'incertitude sur le diagnostic d'infection de CVCP, une opération chirurgicale est effectuée à titre préventif afin d'enlever le cathéter en cause, cependant seulement la moitié de ces cathéters sont réellement infectés en pratique. Le PET/CT au 18F-FDG, grâce à sa sensibilité élevée et probablement une bonne valeur prédictive négative, pourrait éviter à une partie des patients un retrait inutile du cathéter, diminuant ainsi les risques chirurgicaux et les coûts liés à de telles opérations, tout en préservant le capital d'accès vasculaire futur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Engineered nanomaterials (ENMs) exhibit special physicochemical properties and thus are finding their way into an increasing number of industries, enabling products with improved properties. Their increased use brings a greater likelihood of exposure to the nanoparticles (NPs) that could be released during the life cycle of nano-abled products. The field of nanotoxicology has emerged as a consequence of the development of these novel materials, and it has gained ever more attention due to the urgent need to gather information on exposure to them and to understand the potential hazards they engender. However, current studies on nanotoxicity tend to focus on pristine ENMs, and they use these toxicity results to generalize risk assessments on human exposure to NPs. ENMs released into the environment can interact with their surroundings, change characteristics and exhibit toxicity effects distinct from those of pristine ENMs. Furthermore, NPs' large surface areas provide extra-large potential interfaces, thus promoting more significant interactions between NPs and other co-existing species. In such processes, other species can attach to a NP's surface and modify its surface functionality, in addition to the toxicity in normally exhibits. One particular occupational health scenario involves NPs and low-volatile organic compounds (LVOC), a common type of pollutant existing around many potential sources of NPs. LVOC can coat a NP's surface and then dominate its toxicity. One important mechanism in nanotoxicology is the creation of reactive oxygen species (ROS) on a NP's surface; LVOC can modify the production of these ROS. In summary, nanotoxicity research should not be limited to the toxicity of pristine NPs, nor use their toxicity to evaluate the health effects of exposure to environmental NPs. Instead, the interactions which NPs have with other environmental species should also be considered and researched. The potential health effects of exposure to NPs should be derived from these real world NPs with characteristics modified by the environment and their distinct toxicity. Failure to suitably address toxicity results could lead to an inappropriate treatment of nano- release, affect the environment and public health and put a blemish on the development of sustainable nanotechnologies as a whole. The main objective of this thesis is to demonstrate a process for coating NP surfaces with LVOC using a well-controlled laboratory design and, with regard to these NPs' capacity to generate ROS, explore the consequences of changing particle toxicity. The dynamic coating system developed yielded stable and replicable coating performance, simulating an important realistic scenario. Clear changes in the size distribution of airborne NPs were observed using a scanning mobility particle sizer, were confirmed using both liquid nanotracking analyses and transmission electron microscopy (TEM) imaging, and were verified thanks to the LVOC coating. Coating thicknesses corresponded to the amount of coating material used and were controlled using the parameters of the LVOC generator. The capacity of pristine silver NPs (Ag NPs) to generate ROS was reduced when they were given a passive coating of inert paraffin: this coating blocked the reactive zones on the particle surfaces. In contrast, a coating of active reduced-anthraquinone contributed to redox reactions and generated ROS itself, despite the fact that ROS generation due to oxidation by Ag NPs themselves was quenched. Further objectives of this thesis included development of ROS methodology and the analysis of ROS case studies. Since the capacity of NPs to create ROS is an important effect in nanotoxicity, we attempted to refine and standardize the use of 2'7-dichlorodihydrofluorescin (DCFH) as a chemical tailored for the characterization of NPs' capacity for ROS generation. Previous studies had reported a wide variety of results, which were due to a number of insufficiently well controlled factors. We therefore cross-compared chemicals and concentrations, explored ways of dispersing NP samples in liquid solutions, identified sources of contradictions in the literature and investigated ways of reducing artificial results. The most robust results were obtained by sonicating an optimal sample of NPs in a DCFH-HRP solution made of 5,M DCFH and 0.5 unit/ml horseradish peroxidase (HRP). Our findings explained how the major reasons for previously conflicting results were the different experimental approaches used and the potential artifacts appearing when using high sample concentrations. Applying our advanced DCFH protocol with other physicochemical characterizations and biological analyses, we conducted several case studies, characterizing aerosols and NP samples. Exposure to aged brake wear dust engenders a risk of potential deleterious health effects in occupational scenarios. We performed microscopy and elemental analyses, as well as ROS measurements, with acellular and cellular DCFH assays. TEM images revealed samples to be heterogeneous mixtures with few particles in the nano-scale. Metallic and non-metallic elements were identified, primarily iron, carbon and oxygen. Moderate amounts of ROS were detected in the cell-free fluorescent tests; however, exposed cells were not dramatically activated. In addition to their highly aged state due to oxidation, the reason aged brake wear samples caused less oxidative stress than fresh brake wear samples may be because of their larger size and thus smaller relative reactive surface area. Other case studies involving welding fumes and differently charged NPs confirmed the performance of our DCFH assay and found ROS generation linked to varying characteristics, especially the surface functionality of the samples. Les nanomatériaux manufacturés (ENM) présentent des propriétés physico-chimiques particulières et ont donc trouvés des applications dans un nombre croissant de secteurs, permettant de réaliser des produits ayant des propriétés améliorées. Leur utilisation accrue engendre un plus grand risque pour les êtres humains d'être exposés à des nanoparticules (NP) qui sont libérées au long de leur cycle de vie. En conséquence, la nanotoxicologie a émergé et gagné de plus en plus d'attention dû à la nécessité de recueillir les renseignements nécessaires sur l'exposition et les risques associés à ces nouveaux matériaux. Cependant, les études actuelles sur la nanotoxicité ont tendance à se concentrer sur les ENM et utiliser ces résultats toxicologiques pour généraliser l'évaluation des risques sur l'exposition humaine aux NP. Les ENM libérés dans l'environnement peuvent interagir avec l'environnement, changeant leurs caractéristiques, et montrer des effets de toxicité distincts par rapport aux ENM originaux. Par ailleurs, la grande surface des NP fournit une grande interface avec l'extérieur, favorisant les interactions entre les NP et les autres espèces présentes. Dans ce processus, d'autres espèces peuvent s'attacher à la surface des NP et modifier leur fonctionnalité de surface ainsi que leur toxicité. Un scénario d'exposition professionnel particulier implique à la fois des NP et des composés organiques peu volatils (LVOC), un type commun de polluant associé à de nombreuses sources de NP. Les LVOC peuvent se déposer sur la surface des NP et donc dominer la toxicité globale de la particule. Un mécanisme important en nanotoxicologie est la création d'espèces réactives d'oxygène (ROS) sur la surface des particules, et les LVOC peuvent modifier cette production de ROS. En résumé, la recherche en nanotoxicité ne devrait pas être limitée à la toxicité des ENM originaux, ni utiliser leur toxicité pour évaluer les effets sur la santé de l'exposition aux NP de l'environnement; mais les interactions que les NP ont avec d'autres espèces environnementales doivent être envisagées et étudiées. Les effets possibles sur la santé de l'exposition aux NP devraient être dérivés de ces NP aux caractéristiques modifiées et à la toxicité distincte. L'utilisation de résultats de toxicité inappropriés peut conduire à une mauvaise prise en charge de l'exposition aux NP, de détériorer l'environnement et la santé publique et d'entraver le développement durable des industries de la nanotechnologie dans leur ensemble. L'objectif principal de cette thèse est de démontrer le processus de déposition des LVOC sur la surface des NP en utilisant un environnement de laboratoire bien contrôlé et d'explorer les conséquences du changement de toxicité des particules sur leur capacité à générer des ROS. Le système de déposition dynamique développé a abouti à des performances de revêtement stables et reproductibles, en simulant des scénarios réalistes importants. Des changements clairs dans la distribution de taille des NP en suspension ont été observés par spectrométrie de mobilité électrique des particules, confirmé à la fois par la méthode dite liquid nanotracking analysis et par microscopie électronique à transmission (MET), et a été vérifié comme provenant du revêtement par LVOC. La correspondance entre l'épaisseur de revêtement et la quantité de matériau de revêtement disponible a été démontré et a pu être contrôlé par les paramètres du générateur de LVOC. La génération de ROS dû aux NP d'argent (Ag NP) a été diminuée par un revêtement passif de paraffine inerte bloquant les zones réactives à la surface des particules. Au contraire, le revêtement actif d'anthraquinone réduit a contribué aux réactions redox et a généré des ROS, même lorsque la production de ROS par oxydation des Ag NP avec l'oxygène a été désactivé. Les objectifs associés comprennent le développement de la méthodologie et des études de cas spécifique aux ROS. Etant donné que la capacité des NP à générer des ROS contribue grandement à la nanotoxicité, nous avons tenté de définir un standard pour l'utilisation de 27- dichlorodihydrofluorescine (DCFH) adapté pour caractériser la génération de ROS par les NP. Des etudes antérieures ont rapporté une grande variété de résultats différents, ce qui était dû à un contrôle insuffisant des plusieurs facteurs. Nous avons donc comparé les produits chimiques et les concentrations utilisés, exploré les moyens de dispersion des échantillons HP en solution liquide, investigué les sources de conflits identifiées dans les littératures et étudié les moyens de réduire les résultats artificiels. De très bon résultats ont été obtenus par sonication d'une quantité optimale d'échantillons de NP en solution dans du DCFH-HRP, fait de 5 nM de DCFH et de 0,5 unité/ml de Peroxydase de raifort (HRP). Notre étude a démontré que les principales raisons causant les conflits entre les études précédemment conduites dans la littérature étaient dues aux différentes approches expérimentales et à des artefacts potentiels dus à des concentrations élevées de NP dans les échantillons. Utilisant notre protocole DCFH avancé avec d'autres caractérisations physico-chimiques et analyses biologiques, nous avons mené plusieurs études de cas, caractérisant les échantillons d'aérosols et les NP. La vielle poussière de frein en particulier présente un risque élevé d'exposition dans les scénarios professionnels, avec des effets potentiels néfastes sur la santé. Nous avons effectué des analyses d'éléments et de microscopie ainsi que la mesure de ROS avec DCFH cellulaire et acellulaire. Les résultats de MET ont révélé que les échantillons se présentent sous la forme de mélanges de particules hétérogènes, desquels une faible proportion se trouve dans l'échelle nano. Des éléments métalliques et non métalliques ont été identifiés, principalement du fer, du carbone et de l'oxygène. Une quantité modérée de ROS a été détectée dans le test fluorescent acellulaire; cependant les cellules exposées n'ont pas été très fortement activées. La raison pour laquelle les échantillons de vielle poussière de frein causent un stress oxydatif inférieur par rapport à la poussière de frein nouvelle peut-être à cause de leur plus grande taille engendrant une surface réactive proportionnellement plus petite, ainsi que leur état d'oxydation avancé diminuant la réactivité. D'autres études de cas sur les fumées de soudage et sur des NP différemment chargées ont confirmé la performance de notre test DCFH et ont trouvé que la génération de ROS est liée à certaines caractéristiques, notamment la fonctionnalité de surface des échantillons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une des meilleures techniques pour décontaminer l'environnement d'éléments toxiques (comme par exemple le dibenzofuan, DBF et le 4-chlorophenol, 4CP) déposés par l'homme, à bas coûts et sans le perturber considérablement, est sans doute la biorémédiation, et particulièrement la bioaugmentation. Malheureusement, si plusieurs microorganismes ont démontré leur efficacité à dégrader les composés toxiques en conditions de laboratoire, plusieurs tentatives afin de les utiliser dans l'environnement n'ont pas abouti. Ces échecs sont probablement le résultat des pauvres connaissances des réactions de ces mêmes microorganismes dans l'environnement. L'objectif de mon travail a été de mieux comprendre les réponses de ces bactéries au niveau de leurs gènes lorsqu'elles sont introduites ou prospèrent dans des conditions plus proches de la réalité, mais encore suffisamment contrôlées pour pouvoir élucider leur comportement. Le fait de résister à des conditions de sécheresse a été considéré en tant que facteur clé dans la survie des bactéries amenées à être utilisées pour la biorémédiation; cela implique une série de mécanismes utilisés par la cellule pour faire face au stress hydrique. Le chapitre II, par une approche métagénomique, compare les réactions de trois souches prometteuses pour la biorémédiation (Arthrobacter chlorophenolicus A6, Sphingomonas wittichii RW1 and Pseudomonas veronii 1YdBTEX2) vis-à-vis du stress hydrique simulé en conditions de laboratoire. L'objectif ici est de découvrir et de décrire les stratégies de résistance au stress, communes ou spécifiques, employées par les bactéries. Mes résultats montrent que les trois souches ont des sensibilités différentes au stress hydrique. Entre les traits communs trouvés, il y a une diminution de l'expression des gènes flagellaires ainsi qu'une augmentation de l'expression de solutes compatibles, mais qui sont souche-spécifiques. J'ai étudié plus en détail la réponse génomique de RW1 par rapport aux inoculations ainsi que sa croissance dans le sable contaminé et non-stérile (chapitre III), et je les ai comparé à des cultures en milieu liquide. Mes résultats indiquent que RW1 peut résister efficacement et peut croître dans des conditions presque sèches et peut également dégrader le contaminant (DBF, dans le cas présent) si les pré-cultures sont réalisées dans le même type de contaminant. Par contre, notre hypothèse du chapitre II se révèle fausse car le comportement de RW1 est très diffèrent de celui observé dans des conditions avec stress hydrique induit par l'addition de sel ou de PEG. Plus intéressant, les réponses de RW1 en milieu liquide sont très différentes de celles observées dans le sable, révélant ainsi que cette souche peut reconnaître le milieu dans lequel elle se trouve. Les mêmes expériences en sable contaminé, cette fois-ci avec 4CP, ont été réalisées pour A6 (chapitre IV) dans l'espoir de compléter la comparaison entre le stress hydrique et l'adaptation dans le sol. Malheureusement, il n'a pas été possible d'obtenir d'échantillons de bonne qualité pour les hybridations des microarrays afin d'étudier la réponse transcriptionnelle dans les différentes phases de croissance dans le sable (contaminé ou non). Toutefois, j'ai appris qu'Arthrobacter ne peut pas croitre dans les sols hautement contaminés si les conditions du sol sont très sèches, elles ont en effet besoin de suffisamment d'eau pour dégrader des quantités importantes de 4CP. Ces observations dirigent l'attention sur le fait que les études sur l'efficacité de l'inoculation de bactéries doivent être testées dans des conditions le plus proche possible de l'environnement ciblé, tout comme les concentrations optimales pour l'inoculum. Finalement, nous avons étudié le comportement de A6 dans la phytosphère avec deux dégrés d'humidité (chapitre V). A6 ne montre pas de réaction particulière face aux changements d'humidité, et à nouveau, ces réponses ne peuvent être liées aux changements d'expression des gènes observées dans les conditions de stress hydrique simulées. Cette étude a permis d'identifier la présence de composés phénoliques dans les feuilles qui peuvent potentiellement améliorer les propriétés de dégradation ou qui permettent d'effectuer de façon plus rapide la réaction de dégradation des contaminants dans un processus de phytoremédiation par A. chlorophenolicus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : la Physiopathologie maternelle de la prééclampsie s'associe typiquement à un état inflammatoire systémique modéré. La protéine "high mobility group box 1" (HMGB-1) est une protéine nucléaire ubiquitaire. En cas de stress cellulaire, elle est relâchée dans le milieu extrace llua li re et peut ainsi exercer son activité pro-inflammatoire. En cas de prééclampsie, le liquide amniotique et le cytoplasme des cellules trophoblastiques contiennent des quantités anormalement élevées de HMGB-1, mais il n'est toujours pas universellement admis que ces concentrations se retrouvent dans le sang maternel. Méthodes : nous avons recruté 32 femmes au troisième trimestre de grossesse, 16 avec et 16 sans prééclampsie. Nous avons également observé 16 femmes non enceintes et en bonne santé, appariées selon l'âge avec les femmes enceintes. Nous avons mesuré la concentration sérique de HMGB-1 chez les femmes enceintes avant, puis 24-48 heures après leur accouchement, en utilisant un kit ELISA commercial. Le même dosage a été réalisé chez les femmes non enceintes, mais à une seule reprise, au moment de leur inclusion dans l'étude. Résultats : le jour de leur inclusion dans l'étude, la concentration médiane [intervalle interquartile] de HMGB-1 chez les femmes enceintes prééclamptiques était de 2.1 ng/ml [1.1 - 3.2], de 1.1 [1.0-1.2] chez les grossesses saines (p < 0.05 vs groupe prééclamptiques) et de 0.6 [0.5 - 0.8] chez les patientes non enceintes (p < 0.01 vs deux autres groupes). Pour les deux groupes de femmes enceintes, les concentrations mesurées en post-partum ne variaient pas significativement de celles mesurées avant l'accouchement. Conclusion : avec ou sans prééclampsie, le troisième triemstre de la grossesse est associé à une élévation des taux circulants de HMGB-1. Cette augmentation est exagérée en cas de prééclampsie. L'origine de ces concentrations élevées reste à déterminer, mais elle semble impliquer d'autres organes que le placenta lui-même.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contient : 1 « Estat du payement » des « gens de guerre... en garnison au païs de Piedmont et marquisat de Saluces... Paris, le XXIIIIe jour de may, l'an mil cinq cens soixante sept ». Signé : « CHARLES » ; 2 « Estat des lieutenans generaux du roy, gouverneurs et cappitaines des villes et places, gentilzhommes et autres, entretenus au païs de Piedmont... pour les mois de janvier, fevrier et mars M.V.C.LXXI » ; 3 « Permission d'aller trouver le roy » Charles IX, accordée au « chevallier Monluc, gouverneur de Pinerol », par « LODOVICO, duc de Nyvernois, prince de Menthoue,... gouverneur et lieutenant general pour le roy deça les montz... A Pinerol, le vingtiesme jour d'octobre mil cinq cens soixante sept » ; 4 « Estatz et appoinctemens des gouverneurs et autres personnes au pays de Piedmont » ; 5 « Inventaire des pieces d'artillerie, harquebouzes à crocq, pouldres, bouletz et autres municions d'artillerie... aux villes et places fortes de... Piedmont, marquisat de Saluces, chasteau d'Exilles en Daulphiné ». Copie ; 6 « Inventaire general des pieces d'artillerye et autres munitions estans es villes et places fortes du païs de Piedmont qui sont soubz l'obeissance du roy » ; 7 « Estat par estimation de la recepte et despence du revenu de la recette generale de Piedmont pour l'année mil cinq cens soixante huict » ; 8 « Estat par estimation de partie du revenu liquide du dommayne que le roy a au marquisat de Saluces, en l'année mil V.C. soixante huict » ; 9 « Estat abregé des parties inopinés ordonnés par le seigneur Ludovic de Birague, lieutenant general pour le roy au gouvernement du païs de Piedmont en l'absence de monseigneur le duc de Nevers, durant l'année entiere finie en decembre mil V.C. soixante huit et jusques au dernier julliet M.V.C.LXIX » ; 10 « Estat de la recepte et despence faicte par le tresorier Petremol pour l'exercice de la guerre du costé de Piedmont, pour l'année M.V.C.LXIX, en vertu des mandemens... de messieurs les tresoriers de l'espargne jusques au XIIIe jour de fevrier M.V.C.LXX » ; 11 « Suisses de la garde du lieutenant general au pays de Piedmont et marquisat de Saluces » ; 12 « Estat abregé de la despence faicte pour le payement des estatz... et entretenemens ordonnez sur l'estat de Piedmont, en l'année M. V.C.LXX » ; 13 « Inventaire des pieces d'artillerie, pouldres, boulletz et aultres munitions d'icelle qui sont pour le roy aux villes et places fortes du gouvernement de Piedmont et marquisat de Saluces... Faict le premier jour d'octobre l'an mil V.C. soixante sept » ; 14 « Estat des pieces d'artillerie qui sont de present au magazin et chasteau de Pynerol... Faict à Pynerol, le vingt neufme jour de janvier, l'an mil V.C. soixante et dix » ; 15 « Estat de ce qui est necessaire faire pour le faict de l'artillerie deça les monts, tant à Pynerol, Carmaignolles que à Savillan » ; 16 « Despartement des assignations baillées à l'extraordinaire de la guerre du costé de Piedmont... 1572 » ; 17 « Estat des compagnies qui retournent en Piemont » ; 18 « Estat par le menu de la despence en laquelle il est besoing et necessaire d'employer la somme de quatre mil livres tournois ordonnée par Sa Majesté en la presente année M.V.C. soixante sept, pour le radoub et remontaige de partie des pieces d'artillerie estans en son païs de Piemont et marquisat de Salluces, raffraichissement de pouldres... 1567 » ; 19 « Estat de la recette et deppence faite pour la fortiffication des trois places de Piemont » ; 20 Ordre de payement donné au « tresorier de l'extraordinaire de la guerre, maistre Jherosme... 1568 ». Minute ; 21 Lettre de « LEFEVRE,... à monseigneur le duc de Nevers, gouverneur et lieutenant general pour le roy en Piedmont... De Paris, ce XIIe jour de novembre 1571 » ; 22 « Estat du departement faict par monseigneur le duc de Nyvernois,... de la somme de quatre cens livres tournois... employez sur l'estat de l'extraordinaire des guerres au chapitre de Piedmont, pour appoincter plusieurs capitaines et gentilzhommes durant la presente année mil cinq cens soixante huict » ; 23 Lettre, en italien, de « LODOVICO GONZAGA [duc de Nevers]... al capitano Francesco Ghiglino,... Di Pineruolo, li 18 d'ottobre 1567 » ; 24 Lettre, en italien, de « LODOVICO GONZAGA [duc de Nevers]... al signor Alessandro Purpurato,... Di Pinaruolo, li 16 di ottobre 1567 » ; 25 Copie d'une « lectre de creance » délivrée par LOUIS DE GONZAGUE, duc de Nevers, au « sieur de La Chastre, gentilhomme ordinaire de la chambre du roy » Charles IX ; 26 « Estat... pour le paiement... des gens de guerre au pays de Piedmont et marquisat de Saluces. 1560 » ; 27 « Estat des assignations donés au tresorier Le Fevre pour l'extraordinaire de Piemont et autres provinces soubs sa charge, pour la presente anée 1572 » ; 28 « Estat des diminutions faictes en l'estat de l'extraordinaire des guerres sur le chapitre de Piedmont pour le moys d'avril mil cinq cens soixante sept » ; 29 Pouvoirs donnés à son secrétaire « Guy Cottignon » par « Ludovico, duc de Nivernoys,... A Carmaignolles, le XVIIIe jour d'octobre, l'an mil cinq cens soixante sept ». Copie ; 30 « Estat de la recepte et despence faicte au marquisat de Salluces par Mr Henry de Savoye, receveur general audit pays, durant l'année mil cinq cens soixante neuf » ; 31 « Estat de la recepte et despence du revenu ordinaire des terres que Sa Majesté tient en Piemont, faicte par Mr Henry de Savoye,... durant l'année mil cinq cens soixante neuf »

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les plaquettes sanguines sont les principaux acteurs de l’hémostase primaire et de la thrombose, deux éléments majeurs de la physiopathologie vasculaire. Plusieurs médicaments régulent les fonctions plaquettaires mais peu de tests sont validés pour suivre leur efficacité en fonction de l’évolution clinique des patients. Mon doctorat a eu pour but de développer de nouvelles approches d’évaluation de la fonction plaquettaire. Deux essais cliniques réalisés sur des patients atteints de syndrome coronarien stable ont constitué la première partie de mon doctorat. La première étude met en évidence la nécessité d'une standardisation des tests biologiques pour la détection de patients répondant moins au clopidogrel, un inhibiteur du récepteur plaquettaire de l'ADP P2Y12. L’étude suivante montre le potentiel thérapeutique, chez ces patients, de l’inhibition conjointe de P2Y12 et du second récepteur plaquettaire de l'ADP P2Y1, sur la fonction plaquettaire. De plus, le suivi en temps réel par vidéomiscroscopie a permis de distinguer des effets précoces et tardifs des antiplaquettaires sur la formation du thrombus en chambre de perfusion. La seconde partie de mon doctorat concerne les microdomaines membranaires de type « lipid rafts » qui tiennent une place fondamentale dans les fonctions cellulaires et plaquettaires. Ainsi plusieurs récepteurs dépendent de ces microdomaines, régulant la fonction plaquettaire et les effets des médicaments antiplaquettaires. Cependant, les techniques d’étude de ces microdomaines sont complexes et peu adaptées aux études cliniques. Profitant de nouvelles sondes fluorescentes sensibles au niveau d’ordre liquide membranaire (OLM), nous avons développé une méthode de mesure de l’OLM par cytométrie de flux spectrale. Grâce à cette approche, nous avons montré que l’activation plaquettaire diminue l’OLM alors qu’il est augmenté chez des patients traités par un inhibiteur de la synthèse du cholestérol ou par le clopidogrel. Nous avons également mis en évidence, en condition de forces de cisaillement élevées correspondant à celles retrouvées au niveau de sténoses artérielles, une sous-population plaquettaire présentant un OLM plus bas. Le passage dans le domaine clinique de ces approches fondamentales qui privilégient l’étude dynamique des plaquettes pourrait permettre d’améliorer le diagnostique et le suivi de traitement de pathologies cardiovasculaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transcription, la maturation d’ARN, et le remodelage de la chromatine sont tous des processus centraux dans l'interprétation de l'information contenue dans l’ADN. Bien que beaucoup de complexes de protéines formant la machinerie cellulaire de transcription aient été étudiés, plusieurs restent encore à identifier et caractériser. En utilisant une approche protéomique, notre laboratoire a purifié plusieurs composantes de la machinerie de transcription de l’ARNPII humaine par double chromatographie d’affinité "TAP". Cette procédure permet l'isolement de complexes protéiques comme ils existent vraisemblablement in vivo dans les cellules mammifères, et l'identification de partenaires d'interactions par spectrométrie de masse. Les interactions protéiques qui sont validées bioinformatiquement, sont choisies et utilisées pour cartographier un réseau connectant plusieurs composantes de la machinerie transcriptionnelle. En appliquant cette procédure, notre laboratoire a identifié, pour la première fois, un groupe de protéines, qui interagit physiquement et fonctionnellement avec l’ARNPII humaine. Les propriétés de ces protéines suggèrent un rôle dans l'assemblage de complexes à plusieurs sous-unités, comme les protéines d'échafaudage et chaperonnes. L'objectif de mon projet était de continuer la caractérisation du réseau de complexes protéiques impliquant les facteurs de transcription. Huit nouveaux partenaires de l’ARNPII (PIH1D1, GPN3, WDR92, PFDN2, KIAA0406, PDRG1, CCT4 et CCT5) ont été purifiés par la méthode TAP, et la spectrométrie de masse a permis d’identifier de nouvelles interactions. Au cours des années, l’analyse par notre laboratoire des mécanismes de la transcription a contribué à apporter de nouvelles connaissances et à mieux comprendre son fonctionnement. Cette connaissance est essentielle au développement de médicaments qui cibleront les mécanismes de la transcription.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le p-tert-octylphénol est un produit présent dans l’environnement et issu de la dégradation des alkylphénols éthoxylés. Ce composé a la capacité de se lier au récepteur œstrogénique et d’exercer ainsi un léger effet œstrogénique. Les objectifs de cette étude étaient de 1) développer une méthode d'identification de l'octylphénol dans le sang et les tissus à l'aide de la chromatographie en phase gazeuse jumelée à la spectrométrie de masse, 2) caractériser la toxicocinétique sanguine et tissulaire de l’octylphénol chez le rat Sprague-Dawley mâle et femelle et 3) développer un modèle toxicocinétique à base physiologique permettant de décrire la cinétique sanguine et tissulaire de l’octylphénol inchangé. Pour ce faire, des rats mâle et femelle Sprague-Dawley ont reçu des doses uniques d’octylphénol par les voies intraveineuse, orale et sous-cutanée. Deux autres groupes ont reçu des doses répétées d'octylphénol par voie orale pour une durée de 35 jours consécutifs pour les femelles ou 60 jours pour les mâles. Les concentrations sanguines et tissulaires d’octylphénol ont été mesurées à différents moments après administration à partir d’une méthode d’analyse développée dans nos laboratoires dans le cadre de ce projet. Les expériences impliquant des administrations uniques ont montré que les concentrations sanguines et tissulaires d'octylphénol étaient en général plus élevées chez les femelles que chez les mâles. Des expériences réalisées avec des microsomes hépatiques ont confirmé que ces différences étaient vraisemblablement reliées au métabolisme de l'octylphénol. Les expériences impliquant des administrations répétées ont montré qu'il n'y avait pas d'accumulation d'octylphénol dans l'organisme aux doses étudiées. Les résultats obtenus expérimentalement ont servi à développer et valider un modèle toxicocinétique à base physiologique. Ce modèle a permis de simuler adéquatement les concentrations sanguines et tissulaires d'octylphénol suite à des expositions intraveineuses, orales et sous-cutanées. En conclusion, cette étude a fourni des données essentielles sur la toxicocinétique de l'octylphénol. Ces données sont nécessaires pour établir la relation entre la dose externe et la dose interne et vont contribuer à une meilleure évaluation des risques liés à l'octylphénol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pathologie de la fibrose kystique (FK) est causée par des mutations du gène codant pour le canal Cl- CFTR. Au niveau respiratoire, cette dysfonction du transport transépithélial de Cl- occasionne une altération de la composition et du volume du liquide de surface des voies aériennes. Une accumulation de mucus déshydraté favorise alors la colonisation bactérienne et une réponse inflammatoire chronique, entraînant des lésions épithéliales sévères au niveau des voies aériennes et des alvéoles pouvant culminer en défaillance respiratoire. Le principal objectif de mon projet de maîtrise était d’étudier les processus de réparation de l’épithélium alvéolaire sain, l’épithélium bronchique sain et FK à l’aide d’un modèle in vitro de plaies mécaniques. Nos résultats démontrent la présence d’une boucle autocrine EGF/EGFR contrôlant les processus de migration cellulaire et de réparation des lésions mécaniques. D’autre part, nos expériences montrent que l’EGF stimule l’activité et l’expression des canaux K+ KATP, KvLQT1 et KCa3.1 des cellules épithéliales respiratoires. L’activation de ces canaux est cruciale pour les processus de réparation puisque la majeure partie de la réparation stimulée à l’EGF est abolie en présence d’inhibiteurs de ces canaux. Nous avons également observé que les cellules FK présentent un délai de réparation, probablement causé par un défaut de la réponse EGF/EGFR et une activité/expression réduite des canaux K+. Nos résultats permettent de mieux comprendre les mécanismes de régulation des processus de réparation de l’épithélium sain et FK. De plus, ils ouvrent de nouvelles options thérapeutiques visant à promouvoir, à l’aide d’activateurs de canaux K+ et de facteurs de croissance, la régénération de l’épithélium respiratoire chez les patients atteints de FK.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’infertilité affecte environ 15% des couples en âge de se reproduire. Dans près de la moitié des cas, des facteurs masculins sont à la base de l’infertilité, quoique les causes exactes demeurent souvent inconnues. Les spermatozoïdes de mammifères subissent une série d’étapes de maturation avant d’acquérir la capacité de féconder un ovocyte. Les premiers changements ont lieu à l’intérieur de l’épididyme, où les spermatozoïdes gagnent la capacité de se mouvoir ainsi que de reconnaître et d’interagir avec l’ovocyte. Suite à l’éjaculation, ils doivent subir une seconde série de modifications à l’intérieur du tractus génital femelle, nommée capacitation. Nous avons préalablement démontré que chez le bovin, la famille de protéines BSP (Binder of SPerm) est essentielle à la capacitation. Des homologues des BSP ont aussi été isolés du fluide séminal de porc, de bouc, de bélier, de bison et d’étalon. Malgré la détection d’antigènes apparentés aux BSP dans le fluide séminal de souris et d’humain, les homologues des BSP n’ont jamais été caractérisés chez ces espèces. Nous avons émis l’hypothèse que des homologues des BSP seraient exprimés chez la souris et l’humain et joueraient un rôle dans la maturation des spermatozoïdes. Nous avons démontré que des séquences homologues aux BSP sont présentes dans les génomes murin et humain. Le génome murin contient trois séquences; Bsph1, Bsph2a et Bsph2b, tandis qu’une seule séquence (BSPH1) a été identifée chez l’humain. Les séquences d’ADNc de Bsph1, Bsph2a et BSPH1 ont été clonées, tandis que Bsph2b serait probablement un pseudogène. Les trois gènes sont exprimés uniquement dans l’épididyme et font partie d’une sous-famille distincte à l’intérieur de la famille des BSP. Chez les ongulés, les BSP sont exprimées par les vésicules séminales, sont ajoutées aux spermatozoïdes lors de l’éjaculation et représentent une proportion significative des protéines du plasma séminal. Au contraire, les BSP épididymaires ne sont retrouvées qu’en faibles quantités dans le fluide séminal. L’étude de leur rôle dans les fonctions spermatiques était donc plus difficile que chez les ongulés, où l’isolement des protéines natives du plasma séminal à l’aide de techniques de chromatographie était possible. Afin d’étudier sa fonction, nous avons exprimé BSPH1 recombinante dans E. coli. Les ponts disulfure des domaines de type-II caractéristiques de ces protéines ont fait en sorte que l’expression de BSPH1 fusionnée à une étiquette hexahistidine ou glutathion-S-transférase a donné lieu à des protéines insolubles dans les corps d’inclusion. La production de BSPH1 soluble a été possible grâce à l’ajout d’une étiquette thiorédoxine et l’expression dans une souche au cytoplasme oxidatif. BSPH1 a été purifiée par affinité et sa liaison aux partenaires connus des BSP, la phosphatidylcholine, les lipoprotéines de faible densité et la membrane des spermatozoïdes, suggérait que la protéine recombinante possédait sa conformation native et pouvait être utilisée pour des essais fonctionnels. La forme native de BSPH1 a été détectée dans le plasma séminal humain suite au fractionnement par gel filtration. La liaison de BSPH1 native à une colonne d’affinité à l’héparine a indiqué qu’elle partage aussi cette propriété de liaison avec la famille des BSP, et pourrait lier les GAGs semblables à l’héparine du tractus génital féminin. Une colonne d’immunoaffinité anti-BSPH1 a été préparée à l’aide d’anticorps générés contre des protéines recombinantes, et a permis d’isoler BSPH1 native à partir d’extraits de spermatozoïdes humains. Nos résultats montrent que BSPH1 native serait localisée dans les microdomaines « rafts » de la membrane. Sa masse moléculaire apparente était de 32 kDa, ce qui est supérieur à la masse prédite selon sa séquence en acides aminés, indiquant la présence probable de modifications post-traductionnelles, ou d’une migration anormale. L’effet de BSPH1 recombinante et des anticorps anti-BSPH1 sur la motilité, la viabilité et la capacitation a aussi été étudié. Les deux dernières variables ont été mesurées par un essai de cytométrie en flux, optimisé dans cette étude. Aucun effet des protéines recombinantes ou des anticorps sur la motilité et la viabilité des spermatozoïdes n’a été noté. Quoiqu’une stimulation modeste, quoique significative, de la capacitation ait été observée à la plus faible concentration de BSPH1, les concentrations plus élevées n’ont pas montré d’effet. De la même manière, les anticorps anti-BSPH1 n’ont pas eu d’effet significatif sur la capacitation. Ces résultats suggèrent que BSPH1 produite dans E. coli n’affecte pas la capacitation de façon marquée. Cependant, puisque BSPH1 native possède probablement des modifications post-traductionnelles, une protéine recombinante produite dans des cellules de mammifères pourrait affecter les fonctions spermatiques. De manière alternative, les BSP épididymaires remplissent peut-être un rôle différent dans les fonctions spermatiques que celles sécrétées par les vésicules séminales des ongulés. Les résultats décrits dans cette thèse pourraient contribuer à améliorer le diagnostic de l’infertilité masculine, ainsi que les techniques de reproduction assistée et éventuellement, pourraient mener au développement de contraceptifs masculins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons démontré l’utilité du groupement protecteur tert-butylsulfonyle (N-Bus) pour la chimie des acides aminés et des peptides. Celui-ci est préparé en deux étapes, impliquant la réaction d’une amine avec le chlorure de tert-butylsulfinyle, suivie par l’oxydation par du m-CPBA, pour obtenir les tert-butylsulfonamides correspondants avec d’excellents rendements. Le groupement N-Bus peut être clivé par traitement avec 0.1 N TfOH/DCM/anisole à 0oC en 10h pour régénérer le sel d’ammonium. Une variété d’acides aminés N-Bus protégés ainsi que d’autres aminoacides peuvent alors être utilisés pour préparer divers dipeptides et tripeptides. A l’exception du groupe N-Fmoc, les conditions de déprotection du groupe N-Bus clivent également les groupements N-Boc, N-Cbz et O-Bn. Une déprotection sélective et orthogonale des groupes N-Boc, N-Cbz, N-Fmoc et O-Bn est également possible en présence du groupe protecteur N-Bus. Le nouvel acide aminé non-naturel (3R, 2R) 3–méthyl-D-leucine (β-Me-Leu) et son régioisomère 2-méthyle ont été synthétisés par ouverture d’une N-Ts aziridine en présence d’un excès de LiMe2Cu. Chacun des régioisomères du mélange (1:1,2) a été converti en la méthylleucine correspondante, puis couplé à l’acide D-phényllactique puis au motif 2-carboxyperhydroindole 4-amidinobenzamide en présence de DEPBT. Des élaborations ultérieures ont conduit à des analogues peptidiques non-naturels d’aeruginosines telles que la chlorodysinosine A. Les deux analogues ont ensuite été évalués pour leur activité inhibitrice de la thrombine et la trypsine. La présumée aeruginosine 3-sulfate 205B et son anomère β ont été synthétisés avec succès à partir de 5 sous-unités : la 3-chloroleucine, l’acide D-phényllactique, le D-xylose, le 2-carboxy-6-hydroxyoctahydroindole et l’agmatine. La comparaison des données RMN 1H et 13C reportées avec celles obtenues avec l’aeruginosine synthétique 205B révèle une différence majeure pour la position du groupe présumé 3'-sulfate sur l’unité D-xylopyranosyle. Nous avons alors synthétisés les dérivés méthyl-α-D-xylopyranosides avec un groupement sulfate à chacune des positions hydroxyles, afin de démontrer sans ambiguïté la présence du sulfate en position C-4' par comparaison des données spectroscopiques RMN 1H et 13C. La structure de l’aeruginosine 205B a alors été révisée. Une des étapes-clés de cette synthèse consiste en la formation du glycoside avec le groupe hydroxyle en C-6 orienté en axial sur la sous-unité Choi. Le 2-thiopyridylcarbonate s’est avéré une méthode efficace pour l’activation anomérique. Le traitement par AgOTf et la tétraméthylurée en solution dans un mélange éther-DCM permet d’obtenir l’anomère α désiré, qui peut alors être aisément séparé de l’anomère β par chromatographie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’électrofilage est une technique permettant de fabriquer des fibres polymériques dont le diamètre varie entre quelques nanomètres et quelques microns. Ces fibres ont donc un rapport surface/volume très élevé. Les fibres électrofilées pourraient trouver des applications dans le relargage de médicaments et le génie tissulaire, comme membranes et capteurs chimiques, ou dans les nanocomposites et dispositifs électroniques. L’électrofilage était initialement utilisé pour préparer des toiles de fibres désordonnées, mais il est maintenant possible d’aligner les fibres par l’usage de collecteurs spéciaux. Cependant, il est important de contrôler non seulement l’alignement macroscopique des fibres mais aussi leur orientation au niveau moléculaire puisque l’orientation influence les propriétés mécaniques, optiques et électriques des polymères. Les complexes moléculaires apparaissent comme une cible de choix pour produire des nanofibres fortement orientées. Dans les complexes d’inclusion d’urée, les chaînes polymères sont empilées dans des canaux unidimensionnels construits à partir d’un réseau tridimensionnel de molécules d’urée liées par des ponts hydrogène. Ainsi, les chaînes polymère sonts très allongées à l’échelle moléculaire. Des nanofibres du complexe PEO-urée ont été préparées pour la première fois par électrofilage de suspensions et de solutions. Tel qu’attendu, une orientation moléculaire inhabituellement élevée a été observée dans ces fibres. De tels complexes orientés pourraient être utilisés à la fois dans des études fondamentales et dans la préparation de matériaux hiérarchiquement structurés. La méthode d’électrofilage peut parfois aussi être utilisée pour préparer des matériaux polymériques métastables qui ne peuvent pas être préparés par des méthodes conventionnelles. Ici, l’électrofilage a été utilisé pour préparer des fibres des complexes stables (α) et "métastables" (β) entre le PEO et l’urée. La caractérisation du complexe β, qui était mal connu, révèle un rapport PEO:urée de 12:8 appartenant au système orthorhombique avec a = 1.907 nm, b = 0.862 nm et c = 0.773 nm. Les chaînes de PEO sont orientées selon l’axe de la fibre. Leur conformation est significativement affectée par les ponts hydrogène. Une structure en couches a été suggérée pour la forme β, plutôt que la structure conventionnelle en canaux adoptée par la forme α. Nos résultats indiquent que le complexe β est thermodynamiquement stable avant sa fonte et peut se transformer en forme α et en PEO liquide par un processus de fonte et recristallisation à 89 ºC. Ceci va dans le sens contraire aux observations faites avec le complexe β obtenu par trempe du complexe α fondu. En effet, le complexe β ainsi obtenu est métastable et contient des cristaux d’urée. Il peut subir une transition de phases cinétique solide-solide pour produire du complexe α dans une vaste gamme de températures. Cette transition est induite par un changement de conformation du PEO et par la formation de ponts hydrogène intermoléculaires entre l’urée et le PEO. Le diagramme de phases du système PEO-urée a été tracé sur toute la gamme de compositions, ce qui a permis d’interpréter la formation de plusieurs mélanges qui ne sont pas à l’équilibre mais qui sont été observés expérimentalement. La structure et le diagramme de phases du complexe PEO-thiourée, qui est aussi un complexe très mal connu, ont été étudiés en détail. Un rapport molaire PEO :thiourée de 3:2 a été déduit pour le complexe, et une cellule monoclinique avec a = 0.915 nm, b = 1.888 nm, c = 0.825 nm et β = 92.35º a été déterminée. Comme pour le complexe PEO-urée de forme β, une structure en couches a été suggérée pour le complexe PEO-thiourée, dans laquelle les molécules de thiourée seraient disposées en rubans intercalés entre deux couches de PEO. Cette structure en couches pourrait expliquer la température de fusion beaucoup plus faible des complexes PEO-thiourée (110 ºC) et PEO-urée de forme β (89 ºC) en comparaison aux structures en canaux du complexe PEO-urée de forme α (143 ºC).