999 resultados para Évaluation des processus


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Une expertise collective sur l'évaluation des risques liés aux nanomatériaux pour la population générale et pour l'environnement a identifié plusieurs centaines de produits de grande consommation contenant des nanomatériaux, présents dans notre quotidien : textiles, cosmétiques, alimentaires, équipements sportifs, matériaux de construction... Des études nouvelles suggèrent la possibilité de risques pour la santé et pour l'environnement de certains produits. Face à cette situation d'incertitude, l'Afsset recommande d'agir sans attendre au nom du principe de précaution et de 1) Rendre obligatoire la traçabilité des nanomatériaux. Cela passe par une obligation de déclaration par les industriels, 2) la mise en place un étiquetage clair qui mentionne la présence de nanomatériaux dans les produits et informe sur la possibilité de relargage à l'usage, 3) d'aller jusqu'à l'interdiction de certains usages des nanomatériaux pour lesquels l'utilité est faible par rapport aux dangers potentiels, 4) l'harmonisation des cadres réglementaires français et européens pour généraliser les meilleures pratiques : déclaration, autorisation, substitution. En particulier, une révision de REACh s'impose pour prendre en compte les nanomatériaux manufacturés de manière spécifique et quel que soit leur tonnage. L'expertise fait également des recommandations pour construire une méthode renouvelée d'évaluation des risques sanitaires qui soit adaptée aux spécificités des nanomatériaux. Pour cela l'Afsset a testé les méthodologies classiques d'évaluation des risques sur 4 produits particuliers et courants : la chaussette antibactérienne (nanoparticules d'argent), le ciment autonettoyant et le lait solaire (nanoparticules de dioxyde de titane), la silice alimentaire à l'état nanométrique. Ces 4 produits représentent bien les voies d'exposition de l'homme (cutanée, inhalation, ingestion) et la possibilité de dispersion environnementale. Ces travaux font apparaître une urgence à faire progresser les connaissances sur les expositions et les dangers potentiels des nanomatériaux. Aujourd'hui, seuls 2% des études publiées sur les nanomatériaux concernent leurs risques pour la santé et l'environnement. Le premier effort devra porter sur la normalisation des caractéristiques des nanomatériaux. Les priorités de la recherche devront cibler la toxicologie, l'écotoxicologie et la mesure des expositions. Enfin, l'Afsset prévoit de s'autosaisir pour définir en 2 ans, avec son groupe de travail, un outil simplifié d'évaluation des risques. Il s'agit d'une grille de cotation des risques qui permet de catégoriser les produits en plusieurs gammes de risques. Face à ce chantier considérable, une mise en réseau entre les organismes européens et internationaux pour se partager le travail est nécessaire. Elle a commencé autour de l'OCDE qui coordonne des travaux d'évaluation des risques et de l'ISO qui travaille à la mise en place de nouvelles normes. [Auteurs]

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Une fois déposé, un sédiment est affecté au cours de son enfouissement par un ensemble de processus, regroupé sous le terme diagenèse, le transformant parfois légèrement ou bien suffisamment pour le rendre méconnaissable. Ces modifications ont des conséquences sur les propriétés pétrophysiques qui peuvent être positives ou négatives, c'est-à-dire les améliorer ou bien les détériorer. Une voie alternative de représentation numérique des processus, affranchie de l'utilisation des réactions physico-chimiques, a été adoptée et développée en mimant le déplacement du ou des fluides diagénétiques. Cette méthode s'appuie sur le principe d'un automate cellulaire et permet de simplifier les phénomènes sans sacrifier le résultat et permet de représenter les phénomènes diagénétiques à une échelle fine. Les paramètres sont essentiellement numériques ou mathématiques et nécessitent d'être mieux compris et renseignés à partir de données réelles issues d'études d'affleurements et du travail analytique effectué. La représentation des phénomènes de dolomitisation de faible profondeur suivie d'une phase de dédolomitisation a été dans un premier temps effectuée. Le secteur concerne une portion de la série carbonatée de l'Urgonien (Barrémien-Aptien), localisée dans le massif du Vercors en France. Ce travail a été réalisé à l'échelle de la section afin de reproduire les géométries complexes associées aux phénomènes diagénétiques et de respecter les proportions mesurées en dolomite. De plus, la dolomitisation a été simulée selon trois modèles d'écoulement. En effet, la dédolomitisation étant omniprésente, plusieurs hypothèses sur le mécanisme de dolomitisation ont été énoncées et testées. Plusieurs phases de dolomitisation per ascensum ont été également simulées sur des séries du Lias appartenant aux formations du groupe des Calcaire Gris, localisées au nord-est de l'Italie. Ces fluides diagénétiques empruntent le réseau de fracturation comme vecteur et affectent préférentiellement les lithologies les plus micritisées. Cette étude a permis de mettre en évidence la propagation des phénomènes à l'échelle de l'affleurement. - Once deposited, sediment is affected by diagenetic processes during their burial history. These diagenetic processes are able to affect the petrophysical properties of the sedimentary rocks and also improve as such their reservoir capacity. The modelling of diagenetic processes in carbonate reservoirs is still a challenge as far as neither stochastic nor physicochemical simulations can correctly reproduce the complexity of features and the reservoir heterogeneity generated by these processes. An alternative way to reach this objective deals with process-like methods, which simplify the algorithms while preserving all geological concepts in the modelling process. The aim of the methodology is to conceive a consistent and realistic 3D model of diagenetic overprints on initial facies resulting in petrophysical properties at a reservoir scale. The principle of the method used here is related to a lattice gas automata used to mimic diagenetic fluid flows and to reproduce the diagenetic effects through the evolution of mineralogical composition and petrophysical properties. This method developed in a research group is well adapted to handle dolomite reservoirs through the propagation of dolomitising fluids and has been applied on two case studies. The first study concerns a mid-Cretaceous rudist and granular platform of carbonate succession (Urgonian Fm., Les Gorges du Nan, Vercors, SE France), in which several main diagenetic stages have been identified. The modelling in 2D is focused on dolomitisation followed by a dédolomitisation stage. For the second study, data collected from outcrops on the Venetian platform (Lias, Mont Compomolon NE Italy), in which several diagenetic stages have been identified. The main one is related to per ascensum dolomitisation along fractures. In both examples, the evolution of the effects of the mimetic diagenetic fluid on mineralogical composition can be followed through space and numerical time and help to understand the heterogeneity in reservoir properties. Carbonates, dolomitisation, dédolomitisation, process-like modelling, lattice gas automata, random walk, memory effect.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette thèse est consacrée à l'analyse des parcours de vie d'un groupe d'anciens et anciennes élèves d'un établissement scolaire d'élite français (les Ecoles normales supérieures de Fontenay-aux-roses, Saint-Cloud et Lyon - promotions 1981-1987). A partir d'une approche longitudinale, son but est de montrer comment l'articulation entre la socialisation familiale, scolaire, professionnelle et conjugale participe à l'orientation progressive des parcours de vie des normalien-ne-s. Elle vise ainsi à remettre en question l'idée, largement répandue, selon laquelle l'intégration d'un cursus scolaire aussi sélectif et prestigieux que celui des ENS garantirait à Lou.te.s les élèves les mêmes chances d'accès aux positions dominantes de l'espace social. Alliant l'analyse de trois types de données (archives, questionnaires, entretiens), cette thèse met en évidence la manière dont inégalités relatives à l'origine sociale et au sexe se recomposent, une fois les portes de l'institution franchies. Elle montre que, dans un contexte socio-historique marqué par une forte expansion scolaire, il est plus que jamais nécessaire d'opérer une articulation systématique entre l'analyse des conditions sociales de réussite scolaire et l'analyse des conditions sociales d'exploitation des titres scolaires, afin de rendre compte des processus complexes de reproduction des inégalités et d'esquisser certaines de leur conditions de dépassement. Abstract: This thesis is dedicated to the life course analysis of alumni from one of the most prestigious French Grandes écoles (the Ecoles Normales Supérieures of Fontenay-aux- roses, Saint-Cloud and Lyon - classes of 1981.-1987). Through a longitudinal perspective, it aims to analyze how family, educational, professional and conjugal socialization processes combine to shape the life course of this particular group of graduates. The main goal of this research is to question the widespread belief that the French Grandes Ecoles guarantee automatic access to the very top of the professional and social hierarchy for all of their graduates. Based on a mixed methods research design (archive data, a questionnaire survey and semi-structured interviews), this thesis shows that, according to social origin and gender, ENS graduates actually adopt a diverse range of professional careers. It show how, in a socio-historical context characterized by a general increase in educational levels, any analysis of social inequalities should combine two levels of analysis: the social conditions of access to educational credentials, on the one hand, and the labor market value of formal qualifications, on the other hand. Our results suggest that the combined analysis of these two processes provide useful insight into the increasingly complex processes of social reproduction - and suggest fruitful perspectives for reducing some sources of inequality.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les approches multimodales dans l'imagerie cérébrale non invasive sont de plus en plus considérées comme un outil indispensable pour la compréhension des différents aspects de la structure et de la fonction cérébrale. Grâce aux progrès des techniques d'acquisition des images de Resonance Magnetique et aux nouveaux outils pour le traitement des données, il est désormais possible de mesurer plusieurs paramètres sensibles aux différentes caractéristiques des tissues cérébraux. Ces progrès permettent, par exemple, d'étudier les substrats anatomiques qui sont à la base des processus cognitifs ou de discerner au niveau purement structurel les phénomènes dégénératifs et développementaux. Cette thèse met en évidence l'importance de l'utilisation d'une approche multimodale pour étudier les différents aspects de la dynamique cérébrale grâce à l'application de cette approche à deux études cliniques: l'évaluation structurelle et fonctionnelle des effets aigus du cannabis fumé chez des consommateurs réguliers et occasionnels, et l'évaluation de l'intégrité de la substance grise et blanche chez des jeunes porteurs de la prémutations du gène FMR1 à risque de développer le FXTAS (Fragile-X Tremor Ataxia Syndrome). Nous avons montré que chez les fumeurs occasionnels de cannabis, même à faible concentration du principal composant psychoactif (THC) dans le sang, la performance lors d'une tâche visuo-motrice est fortement diminuée, et qu'il y a des changements dans l'activité des trois réseaux cérébraux impliqués dans les processus cognitifs: le réseau de saillance, le réseau du contrôle exécutif, et le réseau actif par défaut (Default Mode). Les sujets ne sont pas en mesure de saisir les saillances dans l'environnement et de focaliser leur attention sur la tâche. L'augmentation de la réponse hémodynamique dans le cortex cingulaire antérieur suggère une augmentation de l'activité introspective. Une investigation des ef¬fets au niveau cérébral d'une exposition prolongée au cannabis, montre des changements persistants de la substance grise dans les régions associées à la mémoire et au traitement des émotions. Le niveau d'atrophie dans ces structures corrèle avec la consommation de cannabis au cours des trois mois précédant l'étude. Dans la deuxième étude, nous démontrons des altérations structurelles des décennies avant l'apparition du syndrome FXTAS chez des sujets jeunes, asymptomatiques, et porteurs de la prémutation du gène FMR1. Les modifications trouvées peuvent être liées à deux mécanismes différents. Les altérations dans le réseau moteur du cervelet et dans la fimbria de l'hippocampe, suggèrent un effet développemental de la prémutation. Elles incluent aussi une atrophie de la substance grise du lobule VI du cervelet et l'altération des propriétés tissulaires de la substance blanche des projections afférentes correspondantes aux pédoncules cérébelleux moyens. Les lésions diffuses de la substance blanche cérébrale peu¬vent être un marquer précoce du développement de la maladie, car elles sont liées à un phénomène dégénératif qui précède l'apparition des symptômes du FXTAS. - Multimodal brain imaging is becoming a leading tool for understanding different aspects of brain structure and function. Thanks to the advances in Magnetic Resonance imaging (MRI) acquisition schemes and data processing techniques, it is now possible to measure different parameters sensitive to different tissue characteristics. This allows for example to investigate anatomical substrates underlying cognitive processing, or to disentangle, at a pure structural level degeneration and developmental processes. This thesis highlights the importance of using a multimodal approach for investigating different aspects of brain dynamics by applying this approach to two clinical studies: functional and structural assessment of the acute effects of cannabis smoking in regular and occasional users, and grey and white matter assessment in young FMR1 premutation carriers at risk of developing FXTAS. We demonstrate that in occasional smokers cannabis smoking, even at low concentration of the main psychoactive component (THC) in the blood, strongly decrease subjects' performance on a visuo-motor tracking task, and globally alters the activity of the three brain networks involved in cognitive processing: the Salience, the Control Executive, and the Default Mode networks. Subjects are unable to capture saliences in the environment and to orient attention to the task; the increase in Hemodynamic Response in the Anterior Cingulate Cortex suggests an increase in self-oriented mental activity. A further investigation on long term exposure to cannabis, shows a persistent grey matter modification in brain regions associated with memory and affective processing. The degree of atrophy in these structures also correlates with the estimation of drug use in the three months prior the participation to the study. In the second study we demonstrate structural changes in young asymptomatic premutation carriers decades before the onset of FXTAS that might be related to two different mechanisms. Alteration of the cerebellar motor network and of the hippocampal fimbria/ fornix, may reflect a potential neurodevelopmental effect of the premutation. These include grey matter atrophy in lobule VI and modification of white matter tissue property in the corresponding afferent projections through the Middle Cerebellar Peduncles. Diffuse hemispheric white matter lesions that seem to appear closer to the onset of FXTAS and be related to a neurodegenerative phenomenon may mark the imminent onset of FXTAS.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Résumé Introduction: Les accidents sont la première cause de mortalité et de morbidité chez les enfants et les adolescents des deux sexes dès le premier mois de vie. Ils ne sont pas le fruit du hasard et ne devraient plus être considérés comme une fatalité. Leur nombre peut être réduit de façon substantielle par une bonne compréhension des processus accidentels et une information adéquate des intervenants. Cependant, les stratégies de prévention doivent se fonder sur une analyse locale de la situation. C'est pourquoi nous avons développé en 1990 un programme d'enregistrement prospectif des accidents d'enfants et d'adolescents. Le présent travail a pour but d'analyser l'épidémiologie de la traumatologie sportive de l'enfant et de l'adolescent. Matériel et méthode: Nous disposons d'un programme d'enregistrement prospectif des accidents d'enfants et d'adolescents de 0 à 16 ans survenus dans le canton de Vaud, Suisse. De 1990 à 2000, nous avons enregistré 24'900 traumatismes aux urgences du Service de chirurgie pédiatrique du CHUV de Lausanne, dont 6'890 (28%) étaient des traumatismes sportifs. Les informations collectées dans cette étude concernent la date de l'accident, l'âge du patient, le sport pratiqué, le type de lésion(s) et le type de suivi (traitement ambulatoire, hospitalisation, etc) et permettent une analyse de l'épidémiologie de la traumatologie sportive de l'enfant sur 11 ans. Résultats: Nette prédominance masculine (1.6 :1). Plus de 50% des enfants ont entre 12 et 15 ans. Vélo, gymnastique et football dominent, représentant à eux seuls 45% des cas. La fréquence des accidents obéit, selon le sport concerné, à un rythme saisonnier et dépendant des vacances. Certaines activités comme la trottinette ou le snowboard apparaissent soudain à la faveur d'une mode. Le ski occasionne 48% de lésions des membres inférieurs, le roller 56% de lésions des membres supérieurs, le basket-ball 57% de lésions de la main, la natation et le plongeon 53% de lésions de la tête ou de la colonne cervicale. Les contusions représentent 27% des consultations. La fracture la plus courante est celle de l'avant-bras, représentant 34% des fractures de membres. Les fractures de la main représentent 69% des fractures de membres au basket-ball, contre 3% dans l'équitation où les fractures de l'humérus prédominent (42%). 10% des patients sont hospitalisés, et 55% seront revus ambulatoirement. Discussion: Chaque sport occasionne des lésions dont le type et la localisation lui sont propres et qui permettent dans la plupart des cas de reconnaître le mécanisme lésionnel et de déterminer des stéréotypes. Conclusion: Une meilleure connaissance des lésions occasionnées par chaque sport devrait permettre le développement de programmes de prévention mieux adaptés. Ils doivent associer le plus grand nombre de partenaires possibles, issus de tous les milieux et passant par une information de ceux-ci.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Engineered nanomaterials (ENMs) exhibit special physicochemical properties and thus are finding their way into an increasing number of industries, enabling products with improved properties. Their increased use brings a greater likelihood of exposure to the nanoparticles (NPs) that could be released during the life cycle of nano-abled products. The field of nanotoxicology has emerged as a consequence of the development of these novel materials, and it has gained ever more attention due to the urgent need to gather information on exposure to them and to understand the potential hazards they engender. However, current studies on nanotoxicity tend to focus on pristine ENMs, and they use these toxicity results to generalize risk assessments on human exposure to NPs. ENMs released into the environment can interact with their surroundings, change characteristics and exhibit toxicity effects distinct from those of pristine ENMs. Furthermore, NPs' large surface areas provide extra-large potential interfaces, thus promoting more significant interactions between NPs and other co-existing species. In such processes, other species can attach to a NP's surface and modify its surface functionality, in addition to the toxicity in normally exhibits. One particular occupational health scenario involves NPs and low-volatile organic compounds (LVOC), a common type of pollutant existing around many potential sources of NPs. LVOC can coat a NP's surface and then dominate its toxicity. One important mechanism in nanotoxicology is the creation of reactive oxygen species (ROS) on a NP's surface; LVOC can modify the production of these ROS. In summary, nanotoxicity research should not be limited to the toxicity of pristine NPs, nor use their toxicity to evaluate the health effects of exposure to environmental NPs. Instead, the interactions which NPs have with other environmental species should also be considered and researched. The potential health effects of exposure to NPs should be derived from these real world NPs with characteristics modified by the environment and their distinct toxicity. Failure to suitably address toxicity results could lead to an inappropriate treatment of nano- release, affect the environment and public health and put a blemish on the development of sustainable nanotechnologies as a whole. The main objective of this thesis is to demonstrate a process for coating NP surfaces with LVOC using a well-controlled laboratory design and, with regard to these NPs' capacity to generate ROS, explore the consequences of changing particle toxicity. The dynamic coating system developed yielded stable and replicable coating performance, simulating an important realistic scenario. Clear changes in the size distribution of airborne NPs were observed using a scanning mobility particle sizer, were confirmed using both liquid nanotracking analyses and transmission electron microscopy (TEM) imaging, and were verified thanks to the LVOC coating. Coating thicknesses corresponded to the amount of coating material used and were controlled using the parameters of the LVOC generator. The capacity of pristine silver NPs (Ag NPs) to generate ROS was reduced when they were given a passive coating of inert paraffin: this coating blocked the reactive zones on the particle surfaces. In contrast, a coating of active reduced-anthraquinone contributed to redox reactions and generated ROS itself, despite the fact that ROS generation due to oxidation by Ag NPs themselves was quenched. Further objectives of this thesis included development of ROS methodology and the analysis of ROS case studies. Since the capacity of NPs to create ROS is an important effect in nanotoxicity, we attempted to refine and standardize the use of 2'7-dichlorodihydrofluorescin (DCFH) as a chemical tailored for the characterization of NPs' capacity for ROS generation. Previous studies had reported a wide variety of results, which were due to a number of insufficiently well controlled factors. We therefore cross-compared chemicals and concentrations, explored ways of dispersing NP samples in liquid solutions, identified sources of contradictions in the literature and investigated ways of reducing artificial results. The most robust results were obtained by sonicating an optimal sample of NPs in a DCFH-HRP solution made of 5,M DCFH and 0.5 unit/ml horseradish peroxidase (HRP). Our findings explained how the major reasons for previously conflicting results were the different experimental approaches used and the potential artifacts appearing when using high sample concentrations. Applying our advanced DCFH protocol with other physicochemical characterizations and biological analyses, we conducted several case studies, characterizing aerosols and NP samples. Exposure to aged brake wear dust engenders a risk of potential deleterious health effects in occupational scenarios. We performed microscopy and elemental analyses, as well as ROS measurements, with acellular and cellular DCFH assays. TEM images revealed samples to be heterogeneous mixtures with few particles in the nano-scale. Metallic and non-metallic elements were identified, primarily iron, carbon and oxygen. Moderate amounts of ROS were detected in the cell-free fluorescent tests; however, exposed cells were not dramatically activated. In addition to their highly aged state due to oxidation, the reason aged brake wear samples caused less oxidative stress than fresh brake wear samples may be because of their larger size and thus smaller relative reactive surface area. Other case studies involving welding fumes and differently charged NPs confirmed the performance of our DCFH assay and found ROS generation linked to varying characteristics, especially the surface functionality of the samples. Les nanomatériaux manufacturés (ENM) présentent des propriétés physico-chimiques particulières et ont donc trouvés des applications dans un nombre croissant de secteurs, permettant de réaliser des produits ayant des propriétés améliorées. Leur utilisation accrue engendre un plus grand risque pour les êtres humains d'être exposés à des nanoparticules (NP) qui sont libérées au long de leur cycle de vie. En conséquence, la nanotoxicologie a émergé et gagné de plus en plus d'attention dû à la nécessité de recueillir les renseignements nécessaires sur l'exposition et les risques associés à ces nouveaux matériaux. Cependant, les études actuelles sur la nanotoxicité ont tendance à se concentrer sur les ENM et utiliser ces résultats toxicologiques pour généraliser l'évaluation des risques sur l'exposition humaine aux NP. Les ENM libérés dans l'environnement peuvent interagir avec l'environnement, changeant leurs caractéristiques, et montrer des effets de toxicité distincts par rapport aux ENM originaux. Par ailleurs, la grande surface des NP fournit une grande interface avec l'extérieur, favorisant les interactions entre les NP et les autres espèces présentes. Dans ce processus, d'autres espèces peuvent s'attacher à la surface des NP et modifier leur fonctionnalité de surface ainsi que leur toxicité. Un scénario d'exposition professionnel particulier implique à la fois des NP et des composés organiques peu volatils (LVOC), un type commun de polluant associé à de nombreuses sources de NP. Les LVOC peuvent se déposer sur la surface des NP et donc dominer la toxicité globale de la particule. Un mécanisme important en nanotoxicologie est la création d'espèces réactives d'oxygène (ROS) sur la surface des particules, et les LVOC peuvent modifier cette production de ROS. En résumé, la recherche en nanotoxicité ne devrait pas être limitée à la toxicité des ENM originaux, ni utiliser leur toxicité pour évaluer les effets sur la santé de l'exposition aux NP de l'environnement; mais les interactions que les NP ont avec d'autres espèces environnementales doivent être envisagées et étudiées. Les effets possibles sur la santé de l'exposition aux NP devraient être dérivés de ces NP aux caractéristiques modifiées et à la toxicité distincte. L'utilisation de résultats de toxicité inappropriés peut conduire à une mauvaise prise en charge de l'exposition aux NP, de détériorer l'environnement et la santé publique et d'entraver le développement durable des industries de la nanotechnologie dans leur ensemble. L'objectif principal de cette thèse est de démontrer le processus de déposition des LVOC sur la surface des NP en utilisant un environnement de laboratoire bien contrôlé et d'explorer les conséquences du changement de toxicité des particules sur leur capacité à générer des ROS. Le système de déposition dynamique développé a abouti à des performances de revêtement stables et reproductibles, en simulant des scénarios réalistes importants. Des changements clairs dans la distribution de taille des NP en suspension ont été observés par spectrométrie de mobilité électrique des particules, confirmé à la fois par la méthode dite liquid nanotracking analysis et par microscopie électronique à transmission (MET), et a été vérifié comme provenant du revêtement par LVOC. La correspondance entre l'épaisseur de revêtement et la quantité de matériau de revêtement disponible a été démontré et a pu être contrôlé par les paramètres du générateur de LVOC. La génération de ROS dû aux NP d'argent (Ag NP) a été diminuée par un revêtement passif de paraffine inerte bloquant les zones réactives à la surface des particules. Au contraire, le revêtement actif d'anthraquinone réduit a contribué aux réactions redox et a généré des ROS, même lorsque la production de ROS par oxydation des Ag NP avec l'oxygène a été désactivé. Les objectifs associés comprennent le développement de la méthodologie et des études de cas spécifique aux ROS. Etant donné que la capacité des NP à générer des ROS contribue grandement à la nanotoxicité, nous avons tenté de définir un standard pour l'utilisation de 27- dichlorodihydrofluorescine (DCFH) adapté pour caractériser la génération de ROS par les NP. Des etudes antérieures ont rapporté une grande variété de résultats différents, ce qui était dû à un contrôle insuffisant des plusieurs facteurs. Nous avons donc comparé les produits chimiques et les concentrations utilisés, exploré les moyens de dispersion des échantillons HP en solution liquide, investigué les sources de conflits identifiées dans les littératures et étudié les moyens de réduire les résultats artificiels. De très bon résultats ont été obtenus par sonication d'une quantité optimale d'échantillons de NP en solution dans du DCFH-HRP, fait de 5 nM de DCFH et de 0,5 unité/ml de Peroxydase de raifort (HRP). Notre étude a démontré que les principales raisons causant les conflits entre les études précédemment conduites dans la littérature étaient dues aux différentes approches expérimentales et à des artefacts potentiels dus à des concentrations élevées de NP dans les échantillons. Utilisant notre protocole DCFH avancé avec d'autres caractérisations physico-chimiques et analyses biologiques, nous avons mené plusieurs études de cas, caractérisant les échantillons d'aérosols et les NP. La vielle poussière de frein en particulier présente un risque élevé d'exposition dans les scénarios professionnels, avec des effets potentiels néfastes sur la santé. Nous avons effectué des analyses d'éléments et de microscopie ainsi que la mesure de ROS avec DCFH cellulaire et acellulaire. Les résultats de MET ont révélé que les échantillons se présentent sous la forme de mélanges de particules hétérogènes, desquels une faible proportion se trouve dans l'échelle nano. Des éléments métalliques et non métalliques ont été identifiés, principalement du fer, du carbone et de l'oxygène. Une quantité modérée de ROS a été détectée dans le test fluorescent acellulaire; cependant les cellules exposées n'ont pas été très fortement activées. La raison pour laquelle les échantillons de vielle poussière de frein causent un stress oxydatif inférieur par rapport à la poussière de frein nouvelle peut-être à cause de leur plus grande taille engendrant une surface réactive proportionnellement plus petite, ainsi que leur état d'oxydation avancé diminuant la réactivité. D'autres études de cas sur les fumées de soudage et sur des NP différemment chargées ont confirmé la performance de notre test DCFH et ont trouvé que la génération de ROS est liée à certaines caractéristiques, notamment la fonctionnalité de surface des échantillons.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette thèse comprend trois essais qui abordent l'information le processus d'ap-prentissage ainsi que le risque dans les marchés finances. Elle se concentre d'abord sur les implications à l'équilibre de l'hétérogénéité des agents à travers un processus d'apprentissage comprtemental et de mise à jour de l'information. De plus, elle examine les effets du partage des risques dans un reseau entreprise-fournisseur. Le premier chapitre étudie les effets du biais de disponibili sur l'évaluation des actifs. Ce biais décrit le fait que les agents surestiment l'importance de l'information acquise via l'expérience personnelle. L'hétérogénéité restante des différentes perceptions individuelles amène à une volonté d'échanges. Conformé¬ment aux données empiriques, les jeunes agents échangent plus mais en même temps souffrent d'une performance inférieure. Le deuxième chapitre se penche sur l'impact qu'ont les différences de modelisation entre les agents sur leurs percevons individuelles du processus de prix, dans le contexte des projections de modèles. Les agents sujets à un biais de projection pensent être représentatifs et interprètent les opinions des autres agents comme du bruit. Les agents, avec des modèles plus persistants, perçoivent que les prix réagissent de façon excessive lors des périodes de turbulence. Le troisième chapitre analyse l'impact du partage des risques dans la relation entreprise-fournisseur sur la décision optimale de financement de l'entreprise. Il étudie l'impact sur l'optimisation de la structure du capital ainsi que sur le coût du capital. Les résultats indiquent en particulier qu'un fournisseur avec un effet de levier faible est utile pour le financement d'un nouveau projet d'investissement. Pour des projets très rentables et des fournisseurs à faible effet de levier, le coût des capitaux propres de l'entreprise peut diminuer.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La transfusion de concentrés plaquettaires, dès 1958, a permis d'augmenter l'espérance et la qualité de vie des patients dans le domaine de l'onco-hématologie, notamment en réduisant les risques hémorragiques induits par les chimiothérapies intensives. Après le traumatisme de l'affaire du sang contaminé dans les années 1980-1990, la médecine transfusionnelle a adopté des exigences de sécurité et de qualité très strictes et régulées dans plusieurs pays par les instances politiques. Cependant même les mesures de qualité les plus strictes n'ont permis d'atteindre le risque « zéro », notamment en ce qui concerne les contaminations bactériennes. De plus, la prise de conscience de l'existence de nouveaux pathogènes (West Nile Virus, Chikungunya, Prions) a stimulé le développement de 3 techniques d'inactivation des pathogènes pouvant s'appliquer au plasma et aux concentrés plaquettaires : la technique INTERCEPT utilisant l'amotosalen/UVA, la technique MIRASOL avec la riboflavine/UV et la technique THERAFLEX avec les UVC. La Suisse a fait office de pionnière en étant le premier pays au monde à adopter de manière généralisée l'inactivation des pathogènes par la technique INTERCEPT pour les concentrés plaquettaires dès 2011 après sa validation par Swissmedic en 2009 et son implémentation réussie dans plusieurs centres de transfusion pilotes. Coïncidence? Le décès tragique d'un patient pédiatrique en 2009 suite à une contamination bactérienne par une transfusion de concentré plaquettaire a précédé cette décision. Les cliniciens ont besoin de disposer de concentrés plaquettaires sûrs d'un point de vue microbiologique mais également sur le plan hémostatique, d'où la nécessité de disposer de preuves solides sur l'efficacité thérapeutique de ces nouveaux produits. Ceci a fait l'objet de la revue publiée dans Blood Reviews « The clinical and biological impact of new pathogen inactivation technologies on platelets concentrates » dont l'originalité est de couvrir l'étude de l'effet des processus d'inactivation des pathogènes sur la fonction plaquettaire sous toutes ses facettes allant de la protéomique aux études d'hémovigilance. Ce travail montre l'efficacité de ces méthodes et leur sécurité et souligne que l'observation de taux de recirculation moindre peut être compensée par une augmentation du statut d'activation des plaquettes. Le deuxième article publié comme co-auteur dans le journal Blood Transfusion « In vitro evaluation of pathogen-inactivated buffy coat-derived platelet concentrates during storage: The psoralen-based photochemical treatment step-by-step » se pose la question de la modification des propriétés fonctionnelles des plaquettes dans une étude à deux bras (par comparaison entre plaquettes traitées et non traitées). En plus de deux tests utilisés en pratique clinique (agrégation plaquettaire et cytométrie de flux) un test expérimental d'adhésion plaquettaire au fibrinogène en condition statique a été développé en collaboration avec le Prof Angelillo-Scherrer dans le cadre du laboratoire de recherche et développement du SRTS-VD. Les résultats obtenus démontrent la conservation du métabolisme plaquettaire et des changements mineurs dans la capacité d'agrégation mais une augmentation de la capacité d'adhésion au fibrinogène des plaquettes traitées probablement via une augmentation de la conversion de l'intégrine ailb(B3 dans sa forme activée. Les techniques d'inactivation des pathogènes appliqués aux concentrés plaquettaires représentent un important progrès dans le domaine de la médecine transfusionnelle. Leur impact au niveau moléculaire reste cependant encore en partie inconnu et fait l'objet d'études. Le défi actuel consiste à réussir à les adopter aux concentrés érythrocytaires, ce qui révolutionnerait la médecine transfusionnelle.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les voies veineuses centrales (VVC) sont essentielles pour l'administration de la nutrition parentérale. Le risque de complications est dépendant de la qualité des soins apportés à la VVC qui influence de ce fait la qualité de vie des patients et le coût des soins. Beaucoup de complications des VVC, infectieuses ou non, peuvent être prévenues par l'existence de protocoles de soins appropriés et standardisés. L'information sur les soins des VVC et les éventuelles complications est essentielle pour le dépistage et le traitement précoce de ces complications ; elle doit faire l'objet de protocoles partagés entre les patients et les soignants. Cet article décrit une évaluation des pratiques professionnelles sous la forme d'un audit clinique destiné à améliorer la qualité de soins des patients en nutrition parentérale porteurs de VVC. Central venous access devices (CVAD) are essential for the administration of parenteral nutrition. The quality of the care of CVAD influences the risk of complications and so the quality of life of the patients and the costs of care. Numerous infectious or non-infectious complications of CVAD can be prevented by appropriate, standardized protocols of care. Information about the care of CVAD and complications is essential for the early recognition and treatment of complications and should be shared between patients and caregivers. This article describes an audit for CAVD care that can be used to improve quality of care in a professional practice evaluation program.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Parmi l'ensemble des variables étudiées par la recherche en psychothérapie, le thérapeute en tant que tel semble être le facteur prédictif le plus robuste du processus et des résultats thérapeutiques. Cependant, on ne dispose que de très peu de données de recherche pour expliquer cet effet. Aucune recherche ne s'est intéressée directement aux défenses des psychothérapeutes aux cours d'une psychothérapie. Cette étude poursuit deux objectifs principaux : (1) Évaluer la fréquence absolue des mécanismes de défense utilisés par le thérapeute durant les séances de thérapies et la fréquence relative des différents mécanismes de défense ; (2) évaluer l'effet de la formation à la psychothérapie sur la fréquence des mécanismes de défense du thérapeute. L'échantillon comprend 12 thérapeutes, divisés en 3 catégories : novices, expérimentés (formation terminée), et experts. La thérapie consiste en une intervention psychodynamique brève (IPB) en 4 séances. Les mécanismes de défense du thérapeute ont été mesurés à l'aide des Echelles d'évaluation des mécanismes de défense »), version française du Defense Mechanism Rating Scales (DMRS, Perry et coll., 2004). Les résultats montrent que tous les thérapeutes utilisent plusieurs mécanismes de défense, correspondant à des niveaux de maturité différents. Par ailleurs, les thérapeutes novices n'utilisent pas plus de mécanismes de défense que les thérapeutes plus formés. Enfin le niveau défensif du thérapeute n'a pas d'effet sur le résultat de l'intervention. Cette étude ouvre un champ de recherche prometteur en validant l'intérêt d'étudier les processus de régulation des affects du thérapeute parfois très intenses qui apparaissent au cours de la psychothérapie.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le financement des établissements de soins a connu dans le courant de l'année 2007 d'importants changements législatifs. De l'introduction de la tarification à l'activité sur la base des diagnostic-related groups (DRG) à la mise en concurrence directe des hôpitaux, qu'ils appartiennent au secteur public ou au secteur privé, de l'ingérence de la Confédération dans la planification hospitalière (jusque là domaine réservé des Cantons) à la mise au premier plan des critères de qualité dans l'évaluation des établissements hospitaliers, les exemples ne manquent pas pour illustrer le changement conceptuel auquel nous assistons. L'auteur de ces lignes, privilégiant l'approche historique à l'approche normative, s'est demandé quels étaient les prémices de ce changement législatif et s'est confronté aux différents textes qui ont émaillé les débats de ces vingt dernières années, qu'ils émanent du pouvoir exécutif (messages aux chambres fédérales, ordonnances d'application) ou du pouvoir législatif (textes de loi) afin d'en dégager la cohérence politique. Ce mémoire suit donc une ligne strictement chronologique. Il s'inspire des différents travaux parlementaires. A la lecture de ces textes, il apparaît que, pour les parlementaires, la question du financement des hôpitaux n'est qu'une partie, parfois essentielle, parfois accessoire, selon les époques et l'amplitude du champ d'application du document législatif, du financement des soins par l'assurance-maladie. Les grands principes qui régissent l'assurance-maladie s'appliquent donc nécessairement au financement des hôpitaux. Pour cette raison, il est apparu judicieux à l'auteur de ces lignes de ne pas séparer les deux problèmes et de se plonger dans un premier temps dans les débats qui ont eu cours lors de l'adoption de la nouvelle loi sur l'assurance-maladie (LAMaI) en 1994. [Auteur, p. 5]

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le mélanome cutané est un des cancers les plus agressifs et dont l'incidence augmente le plus en Suisse. Une fois métastatique, le pronostic de survie moyenne avec les thérapies actuelles est d'environ huit mois, avec moins de 5% de survie à cinq ans. Les récents progrès effectués dans la compréhension de la biologie de la cellule tumorale mais surtout dans l'importance du système immunitaire dans le contrôle de ce cancer ont permis le développement de nouveaux traitements novateurs et prometteurs. Ces thérapies, appelées immunothérapies, reposent sur la stimulation et l'augmentation de la réponse immunitaire à la tumeur. Alors que les derniers essais cliniques ont démontré l'efficacité de ces traitements chez les patients avec des stades avancés de la maladie, le contrôle de la maladie à long- terme est seulement atteint chez une minorité des patients. La suppression locale et systémique de la réponse immunitaire spécifique anti-tumorale apparaitrait comme une des raisons expliquant la persistance d'un mauvais pronostic clinique chez ces patients. Des études sur les souris ont montré que les vaisseaux lymphatiques joueraient un rôle primordial dans ce processus en induisant une tolérance immune, ce qui permettrait à la tumeur d'échapper au contrôle du système immunitaire et métastatiser plus facilement. Ces excitantes découvertes n'ont pas encore été établi et prouvé chez l'homme. Dans cette thèse, nous montrons pour la première fois que les vaisseaux lymphatiques sont directement impliqués dans la modulation de la réponse immunitaire au niveau local et systémique dans le mélanome chez l'homme. Ces récentes découvertes montrent le potentiel de combiner des thérapies visant le système lymphatique avec les immunothérapies actuellement utilisées afin d'améliorer le pronostic des patients atteint du mélanome. -- Cutaneous melanoma is one of the most invasive and metastatic human cancers and causes 75% of skin cancer mortality. Current therapies such as surgery and chemotherapy fail to control metastatic disease, and relapse occurs frequently due to microscopic residual lesions. It is, thus, essential to develop and optimize novel therapeutic strategies to improve curative responses in these patients. In recent decades, tumor immunologists have revealed the development of spontaneous adaptive immune responses in melanoma patients, leading to the accumulation of highly differentiated tumor-specific T cells at the tumor site. This remains one of the most powerful prognostic markers to date. Immunotherapies that augment the natural function of these tumor-specific T cells have since emerged as highly attractive therapeutic approaches to eliminate melanoma cells. While recent clinical trials have demonstrated great progress in the treatment of advanced stage melanoma, long-term disease control is still only achieved in a minority of patients. Local and systemic immune suppression by the tumor appears to be responsible, in part, for this poor clinical evolution. These facts underscore the need for a better analysis and characterization of immune- related pathways within the tumor microenvironment (TME), as well as at the systemic level. The overall goal of this thesis is, thus, to obtain greater insight into the complexity and heterogeneity of the TME in human melanoma, as well as to investigate immune modulation beyond the TME, which ultimately influences the immune system throughout the whole body. To achieve this, we established two main objectives: to precisely characterize local and systemic immune modulation (i) in untreated melanoma patients and (ii) in patients undergoing peptide vaccination or checkpoint blockade therapy with anti-cytotoxic T- lymphocyte-asisctaed protein-4 (CTLA-4) antibody. In the first and main part of this thesis, we analyzed lymphatic vessels in relation to anti-tumor immune responses in tissues from vaccinated patients using a combination of immunohistochemistry (IHC) techniques, whole slide scanning/analysis, and an automatic quantification system. Strikingly, we found that increased lymphatic vessel density was associated with high expression of immune suppressive molecules, low functionality of tumor-infiltrating CD8+ T cells and decreased cytokine production by tumor-antigen specific CD8+ T cells in the blood. These data revealed a previously unappreciated local and systemic role of lymphangiogenesis in modulating T cell responses in human cancer and support the use of therapies that target lymphatic vessels combined with existing and future T cell based therapies. In the second objective, we describe a metastatic melanoma patient who developed pulmonary sarcoid-like granulomatosis following repetitive vaccination with peptides and CpG. We demonstrated that the onset of this pulmonary autoimmune adverse event was related to the development of a strong and long-lasting tumor-specific CD8+ T cell response. This constitutes the first demonstration that a new generation tumor vaccine can induce the development of autoimmune adverse events. In the third objective, we assessed the use of Fourier Transform Infrared (FTIR) imaging to identify melanoma cells and lymphocyte subpopulations in lymph node (LN) metastasis tissues, thanks to a fruitful collaboration with researchers in Brussels. We demonstrated that the different cell types in metastatic LNs have different infrared spectral features allowing automated identification of these cells. This technic is therefore capable of distinguishing known and novel biological features in human tissues and has, therefore, significant potential as a tool for histopathological diagnosis and biomarker assessment. Finally, in the fourth objective, we investigated the role of colony- stimulating factor-1 (CSF-1) in modulating the anti-tumor response in ipilimumab-treated patients using IHC and in vitro co-cultures, revealing that melanoma cells produce CSF-1 via CTL-derived cytokines when attacked by cytotoxic T lymphocytes (CTLs), resulting in the recruitment of immunosuppressive monocytes. These findings support the combined use of CSF-1R blockade with T cell based immunotherapy for melanoma patients. Taken together, our results reveal the existence of novel mechanisms of immune modulation and thus promote the optimization of combination immunotherapies against melanoma. -- Le mélanome cutané est un des cancers humains les plus invasifs et métastatiques et est responsable de 75% de la mortalité liée aux cancers de la peau. Les thérapies comme la chirurgie et la chimiothérapie ont échoué à contrôler le mélanome métastatique, par ailleurs les rechutes sous ces traitements ont été montrées fréquentes. Il est donc essentiel de développer et d'optimiser de nouvelles stratégies thérapeutiques pour améliorer les réponses thérapeutiques de ces patients. Durant les dernières décennies, les immunologistes spécialisés dans les tumeurs ont démontré qu'un patient atteint du mélanome pouvait développer spontanément une réponse immune adaptative à sa tumeur et que l'accumulation de cellules T spécifiques tumorales au sein même de la tumeur était un des plus puissants facteurs pronostiques. Les immunothérapies qui ont pour but d'augmenter les fonctions naturelles de ces cellules T spécifiques tumorales ont donc émergé comme des approches thérapeutiques très attractives pour éliminer les cellules du mélanome. Alors que les derniers essais cliniques ont démontré un progrès important dans le traitement des formes avancées du mélanome, le contrôle de la maladie à long-terme est seulement atteint chez une minorité des patients. La suppression immune locale et systémique apparaitrait comme une des raisons expliquant la persistance d'un mauvais pronostic clinique chez ces patients. Ces considérations soulignent la nécessité de mieux analyser et caractériser les voies immunitaires non seulement au niveau local dans le microenvironement tumoral mais aussi au niveau systémique dans le sang des patients. Le but de cette thèse est d'obtenir une plus grande connaissance de la complexité et de l'hétérogénéité du microenvironement tumoral dans les mélanomes mais aussi d'investiguer la modulation immunitaire au delà du microenvironement tumoral au niveau systémique. Afin d'atteindre ce but, nous avons établi deux objectifs principaux : caractériser précisément la modulation locale et systémique du système immunitaire (i) chez les patients atteints du mélanome qui n'ont pas reçu de traitement et (ii) chez les patients qui ont été traités soit par des vaccins soit par des thérapies qui bloquent les points de contrôles. Dans la première et majeure partie de cette thèse, nous avons analysé les vaisseaux lymphatiques en relation avec la réponse immunitaire anti-tumorale dans les tissus des patients vaccinés grâce à des techniques d'immunohistochimie et de quantification informatisé et automatique des marquages. Nous avons trouvé qu'une densité élevée de vaisseaux lymphatiques dans la tumeur était associée à une plus grande expression de molécules immunosuppressives ainsi qu'à une diminution de la fonctionnalité des cellules T spécifiques tumoral dans la tumeur et dans le sang des patients. Ces résultats révèlent un rôle jusqu'à là inconnu des vaisseaux lymphatiques dans la modulation directe du système immunitaire au niveau local et systémique dans les cancers de l'homme. Cette recherche apporte finalement des preuves du potentiel de combiner des thérapies visant le système lymphatique avec des autres immunothérapies déjà utilisées en clinique. Dans le second objectif, nous rapportons le cas d'un patient atteint d'un mélanome avec de multiples métastases qui a développé à la suite de plusieurs vaccinations répétées et consécutives avec des peptides et du CpG, un évènement indésirable sous la forme d'une granulomatose pulmonaire sarcoid-like. Nous avons démontré que l'apparition de cet évènement était intimement liée au développement d'une réponse immunitaire durable et spécifique contre les antigènes de la tumeur. Par là- même, nous prouvons pour la première fois que la nouvelle génération de vaccins est aussi capable d'induire des effets indésirables auto-immuns. Pour le troisième objectif, nous avons voulu savoir si l'utilisation de la spectroscopie infrarouge à transformée de Fourier (IRTF) était capable d'identifier les cellules du mélanome ainsi que les différents sous-types cellulaires dans les ganglions métastatiques. Grâce à nos collaborateurs de Bruxelles, nous avons pu établir que les diverses composantes cellulaires des ganglions atteints par des métastases du mélanome présentaient des spectres infrarouges différents et qu'elles pouvaient être identifiées d'une façon automatique. Cette nouvelle technique permettrait donc de distinguer des caractéristiques biologiques connues ou nouvelles dans les tissus humains qui auraient des retombées pratiques importantes dans le diagnostic histopathologique et dans l'évaluation des biomarqueurs. Finalement dans le dernier objectif, nous avons investigué le rôle du facteur de stimulation des colonies (CSF-1) dans la modulation de la réponse immunitaire anti-tumorale chez les patients qui ont été traités par l'Ipilimumab. Nos expériences in vivo au niveau des tissus tumoraux et nos co-cultures in vitro nous ont permis de démontrer que les cytokines secrétées par les cellules T spécifiques anti-tumorales induisaient la sécrétion de CSF-1 dans les cellules du mélanome ce qui résultait en un recrutement de monocytes immunosuppresseurs. Dans son ensemble, cette thèse révèle donc l'existence de nouveaux mécanismes de modulation de la réponse immunitaire anti-tumorale et propose de nouvelles optimisations de combinaison d'immunothérapies contre le mélanome.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.