1000 resultados para Paramètres atmosphériques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce papier fournit et discute les résultats d'une grande enquête quantitative sur la pratique religieuse en ville de Fribourg. L'enquête a pu fournir de manière quantifiée les paramètres d'une situation, certes connue : baisse de la pratique, augmentation de la participation des migrants, vieillissement des fidèles et des prêtres. L'enquête aura aussi permis d'observer que certains styles de messes sont préférés à d'autres, que le sentiment d'appartenance est affecté par les réorganisations. Ces paramètres permettent de rendre visible une « révolution silencieuse » du catholicisme, pris dans un étau entre un certain conservatisme des fidèles - qui n'aiment pas que les choses changent - et une hiérarchie catholique - qui a ses lignes de conduites pastorales et éthiques -, que retiennent, chacun à leur façon, une partie des fidèles dans une pratique faible ou peu fréquente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De plus en plus de substances chimiques sont émises et détectées dans l'environnement.Parmi ces substances, on trouve les herbicides qui sont utilisés en agriculture pour luttercontre la présence des mauvaises herbes. Après leur application sur les sols, les herbicidespeuvent être entrainés par les eaux de pluie jusque dans les ruisseaux et les rivières. Lesconcentrations de ces substances varient donc de manière importante dans les systèmesaquatiques en période de pluie ou en période de temps sec. Des pics élevés de concentrationssont suivis de période de concentrations très faibles ou nulles. Les herbicides présents dans lescours d'eau peuvent engendrer des effets toxiques sur les algues et les plantes aquatiques. Orles tests classiques d'écotoxicologie effectués en laboratoire sont réalisés en exposant lesespèces vivantes à des polluants de manière continue. Ils ne permettent donc pas d'évaluer leseffets des concentrations fluctuantes comme celles des herbicides. Le but de cette thèse estd'étudier et de modéliser les effets des concentrations fluctuantes d'herbicide sur les espècesde microalgues vertes Scenedesmus vacuolatus et Pseudokirchneriella subcapitata. Desexpériences en laboratoire ont également été effectuées dans le but de valider le modèle.Quatre herbicides ont été testés. Il s'agit de l'atrazine (utilisé jusqu'à récemment pour lemaïs), du diuron (utilisé dans la vigne), de l'isoproturon (utilisé pour les céréales) et du Smétolachlore(utilisé pour le maïs). Les résultats de ce travail de thèse indiquent que les effetsdes concentrations fluctuantes d'herbicide peuvent être modélisés sur des algues d'eau douce.Le modèle est relativement simple pour les inhibiteurs de la photosynthèse tels que l'atrazine,le diuron ou l'isoproturon. Il nécessite la connaissance de deux paramètres, le taux decroissance de l'algue sans polluant et la courbe dose-réponse pour chaque substance.Cependant, des expériences supplémentaires doivent être réalisées si la substance étudiéeinduit un délai de l'effet et du rétablissement ou si une algue est cultivée avec une autre alguedans le même milieu de croissance. Le modèle pourrait également être adapté pour tenircompte des mélanges de substances. Appliqué pour prédire les effets sur les algues descénarios réels, le modèle montre que les longs pics de concentrations jouent le rôle le plusimportant. Il est donc crucial de les mesurer lors du monitoring des cours d'eau. D'autre part,une évaluation du risque effectuée avec ce modèle montre que l'impact des pics deconcentrations sur les espèces les plus sensibles est total. Cela met en évidence, une fois deplus, l'importance de tenir compte de ces concentrations fluctuantes dans l'évaluation durisque environnemental des herbicides, mais également des autres polluants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La polymyalgia rheumatica (PMR) est une pathologie relativement fré­ quente affectant presque exclusivement des personnes de plus de 50 ans, se manifestant principalement par des douleurs des ceintures scapulaire et pelvienne, et une raideur matinale. Le diagnostic de PMR repose sur la présentation clinique caractéristique, l'élévation des paramètres inflammatoires biologiques (VS et CRP), une valeur de procalcitonine classiquement normale, la réponse rapide aux corticostéroïdes et l'exclusion de pathologies confondantes. Une artérite gigantocellulaire (AGC) sous­jacente ou une autre affection doivent être suspectées chez des patients restant symptomatiques ou conservant des paramètres inflammatoires élevés malgré une corticothé­ rapie bien conduite. Dans la phase de sevrage des corticostéroïdes, une récidive des symptômes et une ré­ascension des marqueurs inflammatoires peuvent survenir chez 25 à 50% des patients. En cas de récidives cliniques successives lors du sevrage de la corticothérapie, un traitement immunosuppresseur de fond à visée d'épargne des corticostéroïdes peut être considéré, en particulier si des effets secondaires liés à la corticothérapie sont constatés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les prévisions démographiques pour le canton de Vaud estiment que le nombre de résidents âgés de 65-79 ans s'accroîtra de presque 50% entre 2010 et 2030, tandis que l'effectif des plus âgés (80 ans et plus) augmentera de presque 80%. Dans ce contexte de vieillissement accéléré de la population, ce travail estime l'évolution du nombre de séjours au CHUV attribuables aux patients âgés. Une précédente analyse de la Statistique médicale des hôpitaux décrivait les séjours hospitaliers des patients âgés au CHUV, et les comparait à ceux des patients plus jeunes. La même source de données a été utilisée pour effectuer des projections pour les hospitalisations somatiques, psychiatriques, les séjours en lit B, en soins intensifs, et les séjours attribuables à certaines pathologies liées au vieillissement. En l'absence d'hypothèses ou de tendances fortes relatives aux autres facteurs qui pourraient influencer le recours à l'hôpital ou les durées de séjour, les paramètres observés sur les séjours enregistrés au CHUV durant les années 2006-2009 sont maintenus constants (taux d'hospitalisation par sexe et groupe d'âge, par pathologie, taux de recours au CHUV plutôt qu'à un autre hôpital, proportion de patients orientés en lits B). Les projections du nombre de séjours sont ainsi fortement liées aux prévisions démographiques, et diffèrent de celles-ci en raison de la répartition spécifique des séjours par âge et par sexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exposition à certaines particules fongiques et bactéries présentes dans les aérosols de l'environnement intérieur a été associée au développement ou à l'exacerbation d'affections respiratoires telles que l'asthme, la rhinite allergique ou encore l'aspergillose (1-4). Le réservoir principal identifié dans cet environnement pour les bactéries aéroportées est constitué par les habitants eux-mêmes, alors que celui des particules fongiques est l'environnement extérieur, ou, lorsque les conditions sont réunies, l'environnement intérieur (5-7). Néanmoins, la nature et la taille de ces particules fongiques, ainsi que l'impact de l'occupation humaine sur ces paramètres n'ont été que peu explorés. Les articles de cette note s'intéressent justement à ces aspects et illustrent l'importance de leur prise en compte dans l'évaluation du risque d'exposition aux microorganismes dans l'environnement intérieur. L'étude de Hospodsky et coll. (2014) apporte une information quantitative sur le niveau d'émission de bactéries et particules fongiques résultant d'une occupation humaine dans des environnements intérieurs sains. Alors que l'étude de Afanou et coll. (2014) montre la complexité des particules fongiques qui peuvent être générées dans l'environnement intérieur, différentes espèces de moisissures pouvant participer en proportions différentes au nombre de particules submicroniques1 grâce à leurs fragments de spores ou hyphes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is well established that cytotoxic T lymphocytes play a pivotal role in the protection against intracellular pathogens and tumour cells. Such protective immune responses rely on the specific T cell receptor (TCR)-mediated recognition by CD8 T cells of small antigenic peptides presented in the context of class-I Major Histocompatibility Complex molecules (pMHCs) on the surface of infected or malignant cells. The strength (affinity/avidity) of this interaction is a major correlate of protection. Although tumour-reactive CD8 T cells can be observed in cancer patients, anti-tumour immune responses are often ineffective in controlling or eradicating the disease due to the relative low TCR affinity of these cells. To overcome this limitation, tumour-specific CD8 T cells can be genetically modified to express TCRs of improved binding strength against a defined tumour antigen before adoptive cell transfer into cancer patients. We previously generated a panel of TCRs specific for the cancer-testis antigen NY-ESO-l,57.165 with progressively increased affinities for the pMHC complex, thus providing us with a unique tool to investigate the causal link between the surface expression of such TCRs and T cell activation and function. We recently demonstrated that anti-tumour CD8 T cell reactivity could only be improved within physiological affinity limits, beyond which drastic functional declines were observed, suggesting the presence of multiple regulatory mechanisms limiting T cell activation and function in a TCR affinity-dependent manner. The overarching goal of this thesis was (i) to assess the precise impact of TCR affinity on T cell activation and signalling at the molecular level and (ii) to gain further insights on the mechanisms that regulate and delimitate maximal/optimized CD8 T cell activation and signalling. Specifically, by combining several technical approaches we characterized the activation status of proximal (i.e. CD3Ç, Lek, and ZAP-70) and distal (i.e. ERK1/2) signalling molecules along the TCR affinity gradient. Moreover, we assessed the extent of TCR downmodulation, a critical step for initial T cell activation. CD8 T cells engineered with the optimal TCR affinity variants showed increased activation levels of both proximal and distal signalling molecules when compared to the wild-type T cells. Our analyses also highlighted the "paradoxical" status of tumour-reactive CD8 T cells bearing very high TCR affinities, which retained strong proximal signalling capacity and TCR downmodulation, but were unable to propagate signalling distally (i.e. pERKl/2), resulting in impaired cell-mediated functions. Importantly, these very high affinity T cells displayed maximal levels of SHP-1 and SHP-2 phosphatases, two negative regulatory molecules, and this correlated with a partial pERKl/2 signalling recovery upon pharmacological SHP-l/SHP-2 inhibition. These findings revealed the putative presence of inhibitory regulators of the TCR signalling cascade acting very rapidly following tumour-specific stimulation. Moreover, the very high affinity T cells were only able to transiently express enhanced proximal signalling molecules, suggesting the presence of an additional level of regulation that operates through the activation of negative feedback loops over time, limiting the duration of the TCR-mediated signalling. Overall, the determination of TCR-pMHC binding parameters eliciting optimal CD8 T cell activation, signalling, and effector function while guaranteeing high antigen specificity, together with the identification of critical regulatory mechanisms acting proximally in the TCR signalling cascade, will directly contribute to optimize and support the development of future TCR-based adoptive T cell strategies for the treatment of malignant diseases. -- Les lymphocytes T CD8 cytotoxiques jouent un rôle prédominant dans la protection contre les pathogènes intracellulaires et les cellules tumorales. Ces réponses immunitaires dépendent de la spécificité avec laquelle les récepteurs T (TCR) des lymphocytes CD8 reconnaissent les peptides antigéniques présentés par les molécules du complexe Majeur de Histocompatibilité de classe I (pCMH) à la surface des cellules infectées ou malignes. La force (ou affinité/avidité) de l'interaction du TCR-pCMH est un corrélat majeur de protection. Les réponses immunitaires sont cependant souvent inefficaces et ne permettent pas de contrôler ou d'éliminer les cellules tumorales chez les patients atteint du cancer, et ce à cause de la relative faible reconnaissance des TCRs exprimés par les lymphocytes T CD8 envers les antigènes tumoraux. Afin de surmonter cette limitation, les cellules T anti-tumorales peuvent être génétiquement modifiées en les dotant de TCRs préalablement optimisés afin d'augmenter leur reconnaissance ou affinité contre les antigènes tumoraux, avant leur ré¬infusion dans le patient. Nous avons récemment généré des cellules T CD8 exprimant un panel de TCRs spécifiques pour l'antigène tumoral NY-ESO-l157.16J avec des affinités croissantes, permettant ainsi d'investiguer la causalité directe entre l'affinité du TCR-pCMH et la fonction des cellules T CD8. Nous avons démontré que la réactivité anti-tumorale pouvait être améliorée en augmentant l'affinité du TCR dans une intervalle physiologique, mais au delà duquel nous observons un important déclin fonctionnel. Ces résultats suggèrent la présence de mécanismes de régulation limitant l'activation des cellules T de manière dépendante de l'affinité du TCR. Le but de cette thèse a été (i) de définir l'impact précis de l'affinité du TCR sur l'activation et la signalisation des cellules T CD8 au niveau moléculaire et (ii) d'acquérir de nouvelles connaissances sur les mécanismes qui régulent et délimitent l'activation et la signalisation maximale des cellules T CD8 optimisées. Spécifiquement, en combinant plusieurs approches technologiques, nous avons caractérisé l'état d'activation de différentes protéines de la voie de signalisation proximale (CD3Ç, Lek et ZAP-70) et distale (ERK1/2) le long du gradient d'affinité du TCR, ainsi que l'internalisation du TCR, une étape clef dans l'activation initiale des cellules T. Les lymphocytes T CD8 exprimant des TCRs d'affinité optimale ont montré des niveaux d'activation augmentés des molécules proximales et distales par rapport aux cellules de type sauvage (wild-type). Nos analyses ont également mis en évidence un paradoxe chez les cellules T CD8 équipées avec des TCRs de très haute affinité. En effet, ces cellules anti-tumorales sont capables d'activer leurs circuits biochimiques au niveau proximal et d'internaliser efficacement leur TCR, mais ne parviennent pas à propager les signaux biochimiques dépendants du TCR jusqu'au niveau distal (via phospho-ERKl/2), avec pour conséquence une limitation de leur capacité fonctionnelle. Finalement, nous avons démontré que SHP-1 et SHP-2, deux phosphatases avec des propriétés régulatrices négatives, étaient majoritairement exprimées dans les cellules T CD8 de très hautes affinités. Une récupération partielle des niveaux d'activation de ERK1/2 a pu être observée après l'inhibition pharmacologique de ces phosphatases. Ces découvertes révèlent la présence de régulateurs moléculaires qui inhibent le complexe de signalisation du TCR très rapidement après la stimulation anti-tumorale. De plus, les cellules T de très hautes affinités ne sont capables d'activer les molécules de la cascade de signalisation proximale que de manière transitoire, suggérant ainsi un second niveau de régulation via l'activation de mécanismes de rétroaction prenant place progressivement au cours du temps et limitant la durée de la signalisation dépendante du TCR. En résumé, la détermination des paramètres impliqués dans l'interaction du TCR-pCMH permettant l'activation de voies de signalisation et des fonctions effectrices optimales ainsi que l'identification des mécanismes de régulation au niveau proximal de la cascade de signalisation du TCR contribuent directement à l'optimisation et au développement de stratégies anti-tumorales basées sur l'ingénierie des TCRs pour le traitement des maladies malignes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse traite du rôle qu'un facteur de risque génétique développé chez les patients souffrant de schizophrénie, à savoir un déficit de la synthèse du glutathion, peut jouer dans les anomalies de la connectivité cérébrale trouvées chez ces patients. L'essentiel du travail a été consacré à évaluer la structure de la substance blanche dans l'ensemble du cerveau chez un modèle animal par une méthode similaire à celle utilisée en recherche clinique avec l'imagerie par résonance magnétique (IRM). Cette approche de translation inverse chez la souris knock-out de glutamate-cystéine ligase modulateur sous-unité (Gclm KO), avait l'objectif d'étudier l'effet des défenses redox déficientes sur le développement des connexions cérébrales, tout en excluant celui des facteurs non liés au génotype. Après avoir établi le protocole de recherche, l'influence d'une manipulation environnementale a également été étudiée. Pour effectuer une analyse statistique fiable des données d'IRM obtenues, nous .avons d'abord créé un atlas du cerveau de la souris afin de l'utiliser comme modèle pour une segmentation précise des différentes régions du cerveau sur les images IRM obtenues in vivo. Les données provenant de chaque région d'intérêt ont ensuite été étudiées séparément. La qualité de cette méthode a été évaluée dans une expérience de simulation pour déduire la puissance statistique réalisable dans chaque région en fonction du nombre d'animaux utilisés. Ces outils d'analyse nous ont permis d'évaluer l'intégrité de la substance blanche dans le cerveau des souris durant le développement grâce à une expérience longitudinale, en utilisant l'imagerie du tenseur de diffusion (DTI). Nous avons ainsi observé des anomalies dans les paramètres dérivés du tenseur (diffusivité et anisotropie) dans la Commissure Antérieure et le Fimbria/Fornix des souris Gclm KO, par rapport aux animaux contrôles. Ces résultats suggèrent une substance blanche endommagée dans ces régions. Dans une expérience électrophysiologique, Pascal Steullet a montré que ces anomalies ont des conséquences fonctionnelles caractérisées par une réduction de la vitesse de conduction dans les fibres nerveuses. Ces données renforcent les conclusions des analyses d'imagerie. Le mécanisme par lequel une dérégulation redox affecte la structure de la substance blanche reste encore à définir, car une analyse immunohistochimique des protéines constituantes de la couche de myéline des fibres concernées n'a pas donné de résultats concluants. Nous avons également constaté un élargissement des ventricules dans les jeunes souris Gclm KO, mais pas chez les adultes et des anomalies neurochimiques déjà connues chez ces animaux (Duarte et al. 2011), à savoir une réduction du Glutathion et une augmentation de l'acide N-acétylaspartique, de l'Alanine et du ratio Glutamine/Glutamate. Nous avons ensuite testé l'effet d'un stress environnemental supplémentaire, l'élevage en isolement social, sur le phénotype. Ce stress n'a eu aucun effet sur la structure de la substance blanche évaluée par DTI, mais a réduit la concentration de myo-Inositol et augmenté le ratio de Glutamine/Glutamate dans le cortex frontal. Nous avons aussi reproduit dans ce groupe indépendant d'animaux les effets du génotype sur le profil neurochimique, sur la taille des ventricules et aussi sur les paramètres dérivés du tenseur de diffusion dans le Fimbria/Fornix, mais pas dans la Commissure Antérieure. Nos résultats montrent qu'une dérégulation redox d'origine génétique perturbe la structure et la fonction de la substance blanche dans des régions spécifiques, causant ainsi l'élargissement des ventricules. Ces phénotypes rassemblent certaines caractéristiques neuro-anatomiques de la schizophrénie, mais les mécanismes qui en sont responsables demeurent encore inconnus. L'isolement social n'a pas d'effet sur la structure de la substance blanche évaluée par DTI, alors qu'il est prouvé qu'il affecte la maturation des oligodendrocytes. La neurochimie corticale et en particulier le rapport Glutamine/Glutamate a été affecté par le dérèglement redox ainsi que par l'isolement social. En conséquence, ce ratio représente un indice prometteur dans la recherche sur l'interaction du stress environnemental avec le déséquilibre redox dans le domaine de la schizophrénie. -- The present doctoral thesis is concerned with the role that a genetic risk factor for the development of schizophrenia, namely a deficit in Glutathione synthesis, may play in the anomalies of brain connectivity found in patients. Most of the effort was devoted to perform a whole-brain assessment of white matter structure in the Glutamate-Cysteine ligase modulatory knockout mouse model (Gclm KO) using Magnetic Resonance Imaging (MRI) techniques similar to those used in state-of-the-art clinical research. Such reverse translational approach taking brain imaging from the bedside to the bench aimed to investigate the role that deficient redox defenses may play in the development of brain connections while excluding all influencing factors beside the genotype. After establishing the protocol, the influence of further environmental manipulations was also studied. Analysis of MRI images acquired in vivo was one of the main challenges of the project. Our strategy consisted in creating an atlas of the mouse brain to use as segmentation guide and then analyze the data from each region of interest separately. The quality of the method was assessed in a simulation experiment by calculating the statistical power achievable in each brain region at different sample sizes. This analysis tool enabled us to assess white matter integrity in the mouse brain along development in a longitudinal experiment using Diffusion Tensor Imaging (DTI). We discovered anomalies in diffusivity parameters derived from the tensor in the Anterior Commissure and Fimbria/Fornix of Gclm KO mice when compared to wild-type animals, which suggest that the structure of these tracts is compromised in the KO mice. In an elegant electrophysiological experiment, Pascal Steullet has provided evidence that these anomalies have functional consequences in form of reduced conduction velocity in the concerned tracts, thus supporting the DTI findings. The mechanism by which redox dysregulation affects WM structure remains unknown, for the immunohistochemical analysis of myelin constituent proteins in the concerned tracts produced inconclusive results. Our experiments also detected an enlargement of the lateral ventricles in young but not adult Gclm KO mice and confirmed neurochemical anomalies already known to affect this animals (Duarte et al. 2011), namely a reduction in Glutathione and an increase in Glutamine/Glutamate ratio, N-acetylaspartate and Alanine. Using the same methods, we tested the effect of an additional environmental stress on the observed phenotype: rearing in social isolation had no effect on white matter structure as assessed by DTI, but it reduced the concentration of myo-Inositol and increased the Glutamine/Glutamate ratio in the frontal cortex. We could also replicate in this separate group of animals the effects of genotype on the frontal neurochemical profile, ventricular size and diffusivity parameters in the Fimbria/Fornix but not in the Anterior Commissure. Our data show that a redox dysregulation of genetic origin may disrupt white matter structure and function in specific tracts and cause a ventricular enlargement, phenotypes that resemble some neuroanatomical features of schizophrenia. The mechanism responsible remains however unknown. We have also demonstrated that environmental stress in form of social isolation does not affect white matter structure as assessed by DTI even though it is known to affect oligodendrocyte maturation. Cortical neurochemistry, and specifically the Glutamine to Glutamate balance was affected both by redox dysregulation and social isolation, and is thus a good target for further research on the interaction of redox imbalance and environmental stress in schizophrenia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Parmi les infections nosocomiales, le Staphylocoque méticilline résistant (MRSA) est le germe pathogène le plus couramment identifié dans les hôpitaux du monde entier. La stratégie de contrôle des MRSA au CHUV implique le dépistage des patients à risque. Avec la méthode de dépistage par culture, le temps d'attente est de plusieurs jours. Ceci occasionne des problèmes dans la gestion des flux des patients, principalement à cause des mesures d'isolement. Pour réduire le temps d'attente, l'hôpital envisage d'utiliser une méthode de diagnostic rapide par "polymerase chain reaction" (PCR). Méthodologie : Les données concernant les dépistages réalisés, dans trois services durant l'année 2007, ont été utilisées. Le nombre de jours d'isolement a d'abord été déterminé par patient et par service. Ensuite une analyse des coûts a été effectuée afin d'évaluer la différence des coûts entre les deux méthodes pour chaque service. Résultats : Le principal impact économique de la méthode par PCR dépend principalement du nombre de jours d'isolements évités par rapport à la méthode de culture. Aux services de soins, l'analyse a été menée sur 192 dépistages. Quand la différence de jours d'isolement est de deux jours, le coût des dépistages diminue de plus de 12kCHF et le nombre de jours d'isolement diminue de 384 jours. Au centre interdisciplinaire des urgences, sur 96 dépistages, le gain potentiel avec la méthode PCR est de 6kCHF avec une diminution de 192 jours d'isolement. Aux soins intensifs adultes, la méthode de dépistage par PCR est la méthode la plus rentable avec une diminution des coûts entre 4KCHF et 20K CHF et une diminution des jours d'isolement entre 170 et 310. Pour les trois services analysés, les résultats montrent un rapport coût-efficacité favorable pour la méthode PCR lorsque la diminution des jours d'isolement est supérieure à 1.3 jour. Quand la différence de jours d'isolement est inférieure à 1.3, il faut tenir compte d'autres paramètres, comme le coût de matériel qui doit être supérieur à 45.5 CHF, et du nombre d'analyses par dépistage, qui doit être inférieur à 3, pour que la PCR reste l'alternative la plus intéressante. Conclusions : La méthode par PCR montre des avantages potentiels importants, tant économiques qu'organisationnels qui limitent ou diminuent les contraintes liées à la stratégie de contrôle des MRSA au CHUV. [Auteure, p. 3]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de ce mémoire est d'évaluer les conséquences du nouveau financement hospitalier de la LAMaI sur les hôpitaux publics et plus particulièrement sur l'Hôpital du Valais. Les nouvelles dispositions votées le 21 décembre 2007 par le Parlement ont pour but d'accroître la concurrence entre les hôpitaux et de mettre sur un pied d'égalité les établissements privés et publics. Ce document traite des principales modifications législatives et de leur entrée en vigueur, des nouveautés concernant le calcul des coûts et des tarifs à la charge de l'assurance obligatoire des soins avec l'inclusion des investissements et la nouvelle défmition des frais de formation, de l'introduction des forfaits par pathologie SwissDRG, des problématiques de l'ouverture des frontières cantonales et de la concurrence. Selon les hypothèses retenues, des effets peu importants sont à prévoir en Valais pour l'ouverture des frontières, la liste hospitalière et la répartition du tarif entre assureurs et cantons. Par contre on estime que la prise en compte des investissements augmentera les coûts de l'Hôpital du Valais de 5 à 13% alors les activités d'intérêt général se chiffrent entre 4 et 22 Mio. Les conséquences de l'introduction de la concurrence voulue par le législateur sont plus difficiles à évaluer, car elles dépendent de paramètres encore inconnus tels que le gain espéré et le comportement des parties. Une concurrence par les prix prétéritera les hôpitaux publics si leurs spécificités, telles que les urgences, les soins intensifs et l'obligation d'admission, ne sont pas prises en compte dans la structure tarifaire, le prix ou la planification. Le changement de comportement du patient, des assureurs, des médecins traitants voire des cantons ou des médias constitue également une inconnue qui pourrait avoir de fortes conséquences et contraindre les hôpitaux publics à développer leurs concepts de marketing et de communication. [Auteur, p. 2]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nombreux sont les groupes de recherche qui se sont intéressés, ces dernières années, à la manière de monitorer l'entraînement des sportifs de haut niveau afin d'optimaliser le rendement de ce dernier tout en préservant la santé des athlètes. Un des problèmes cardinaux d'un entraînement sportif mal conduit est le syndrome du surentraînement. La définition du syndrome susmentionné proposée par Kreider et al. est celle qui est actuellement acceptée par le « European College of Sport Science » ainsi que par le « American College of Sports Medicine», à savoir : « An accumulation of training and/or non-training stress resulting in long-term decrement in performance capacity with or without related physiological and psychological signs and symptoms of maladaptation in which restoration of performance capacity may take several weeks or months. » « Une accumulation de stress lié, ou non, à l'entraînement, résultant en une diminution à long terme de la capacité de performance. Cette dernière est associée ou non avec des signes et des symptômes physiologiques et psychologiques d'inadaptation de l'athlète à l'entraînement. La restauration de ladite capacité de performance peut prendre plusieurs semaines ou mois. » Les recommandations actuelles, concernant le monitoring de l'entraînement et la détection précoce du syndrome du surentrainement, préconisent, entre autre, un suivi psychologique à l'aide de questionnaires (tel que le Profile of Mood State (POMS)), un suivi de la charge d'entraînement perçue par l'athlète (p.ex. avec la session rating of perceived exertion (RPE) method selon C. Foster), un suivi des performances des athlètes et des charges d'entraînement effectuées ainsi qu'un suivi des problèmes de santé (blessures et maladies). Le suivi de paramètres sanguins et hormonaux n'est pas recommandé d'une part pour des questions de coût et de faisabilité, d'autre part car la littérature scientifique n'a, jusqu'ici, pas été en mesure de dégager des évidences à ce sujet. A ce jour, peu d'études ont suivi ces paramètres de manière rigoureuse, sur une longue période et chez un nombre d'athlète important. Ceci est précisément le but de notre étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

LncRNAs are transcripts greater than 200 nucleotides in length with no apparent coding potential. They exert important regulatory functions in the genome. Their role in cardiac fibrosis is however unexplored. To identify IncRNAs that could modulate cardiac fibrosis, we profiled the long non-coding transcriptome in the infarcted mouse heart, and identified 1500 novel IncRNAs. These IncRNAs have unique characteristics such as high tissue and cell type specificity. Their expression is highly correlated with parameters of cardiac dimensions and function. The majority of these novel IncRNAs are conserved in human. Importantly, human IncRNAs appear to be differentially expressed in heart disease. Using a computational pipeline, we identified a super-enhancer-associated IncRNA, which is dynamically expressed after myocardial infarction. We named this particular transcript Wisper for «Wisp2 super-enhancer- derived IncRNA ». Interestingly, Wisper expression is overexpressed in cardiac fibroblasts as compared to cardiomyocytes or to fibroblasts isolated from other organs than the heart. The importance of Wisper in the biology of fibroblasts was demonstrated in knockdown experiments. Differentiation of cardiac fibroblast into myofibroblasts in vitro is significantly impaired upon Wisper knockdown. Wisper downregulation in cardiac fibroblasts results in a dramatic reduction of fibrotic gene expression, a diminished cell proliferation and an increase in apoptotic cell death. In vivo, depletion of Wisper during the acute phase of the response to infarction is detrimental via increasing the risk of cardiac rupture. On the other hand, Wisper knockdown following infarction in a prevention study reduces fibrosis and preserves cardiac function. Since WISPER is detectable in the human heart, where it is associated with severe cardiac fibrosis, these data suggest that Wisper could represent a novel therapeutic target for limiting the extent of the fibrotic response in the heart. -- Les long ARN non-codants (IncRNAs) sont des ARN de plus de 200 nucléotides qui ne codent pas pour des protéines. Ils exercent d'importantes fonctions dans le génome. Par contre, leur importance dans le développement de la fibrose cardiaque n'a pas été étudiée. Pour identifier des IncRNAs jouant un rôle dans ce processus, le transcriptome non-codant a été étudié dans le coeur de'souris après un infarctus du myocarde. Nous avons découverts 1500 nouveaux IncRNAs. Ces transcrits ont d'uniques caractéristiques. En particulier ils sont extrêmement spécifiques de sous-populations de cellules cardiaques. Par ailleurs, leur expression est remarquablement corrélée avec les paramètres définissant les dimensions du coeur et la fonction cardiaque. La majorité de ces IncRNAs sont conservés chez l'humain. Certains sont modulés dans des pathologies cardiaques. En utilisant une approche bioinformatique, nous avons identifié un IncRNA qui est associé à des séquences amplificatrices et qui est particulièrement enrichi dans les fibroblastes cardiaques. Ce transcrit a été nommé Wisper pour «Wisp2 super-enhancer-derived IncRNA ». L'importance de Wisper dans la biologie des fibroblastes cardiaques est démontrée dans des expériences de déplétion. En l'absence de Wisper, l'expression de protéines impliquées dans le développement de la fibrose est dramatiquement réduite dans les fibroblastes cardiaques. Ceux-ci montrent une prolifération réduite. Le niveau d'apoptose est largement augmenté. In vivo, la déplétion de Wisper pendant la phase aiguë de l'infarctus rehausse le risque de rupture cardiaque. Au contraire, la réduction de l'expression de Wisper pendant la phase chronique diminue la fibrose cardiaque et améliore la fonction du coeur. Puisque Wisper est exprimé dans le coeur humain, ce transcrit représente une nouvelle cible thérapeutique pour limiter la réponse fibrotique dans le coeur.