121 resultados para Inherent Audiences


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract:This article illustrates Angela Carter's literary practice through her utilization of "Sleeping Beauty" in the radio play Vampirella and its prose variation The Lady of the House of Love. It argues that she vampirised European culture as she transfused old stories into new bodies to give them new life and bite. Carter's experiments with forms, genres and mediums in her vampire fiction capture the inherent hybridity of the fairy tale as it sheds new light on her main source, Charles Perrault's La Belle au bois dormant, bringing to the fore the horror and terror as well as the textual ambiguities of the French conte that were gradually obscured in favor of the romance element. Carter's vampire stories thus trace the 'dark' underside of the reception of the tale in Gothic fiction and in the subculture of comic books and Hammer films so popular in the 1970s, where the Sleeping Beauty figure is revived as a femme fatale or vamp who takes her fate in her own hands.Résumé:Cet article s'attache à montrer comment l'utilisation de La Belle au bois dormant dans deux histoires de vampire d'Angela Carter, la pièce radiophonique Vampirella et sa réécriture en prose The Lady of the House of Love, illustre la pratique littéraire de l'auteur, qui consiste à vampiriser la culture européenne et à transfuser les vieilles histoires dans de nouvelles formes, genres, et médias afin de leur donner une nouvelle vie. Le traitement du conte de fée permet d'aborder un aspect essentiel de la démarche créative de l'auteur, tout en offrant un éclairage inédit sur le conte de Perrault. En effet, Carter met en évidence les éléments inquiétants et l'atmosphère de menace qui caractérisent la deuxième partie du conte, tout en jouant sur les ambiguités du texte français souvent négligés au profit de la veine romanesque. A cet égard, ses histoires de vampire peuvent se lire comme une réflexion sur la réception 'obscure' du conte de fées dans la culture populaire, qui voit le personnage de la Belle au bois dormant prendre son destin en main et se réinventer en femme fatale ou vamp dans la bande dessinée et les séries B des années 1970.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The major intention of the present study was to investigate whether an approach combining the use of niche-based palaeodistribution modeling and phylo-geography would support or modify hypotheses about the Quaternary distributional history derived from phylogeographic methods alone. Our study system comprised two closely related species of Alpine Primula. We used species distribution models based on the extant distribution of the species and last glacial maximum (LGM) climate models to predict the distribution of the two species during the LGM. Phylogeographic data were generated using amplified fragment length polymorphisms (AFLPs). In Primula hirsuta, models of past distribution and phylogeographic data are partly congruent and support the hypothesis of widespread nunatak survival in the Central Alps. Species distribution models (SDMs) allowed us to differentiate between alpine regions that harbor potential nunatak areas and regions that have been colonized from other areas. SDMs revealed that diversity is a good indicator for nunataks, while rarity is a good indicator for peripheral relict populations that were not source for the recolonization of the inner Alps. In P. daonensis, palaeo-distribution models and phylogeographic data are incongruent. Besides the uncertainty inherent to this type of modeling approach (e.g., relatively coarse 1-km grain size), disagreement of models and data may partly be caused by shifts of ecological niche in both species. Nevertheless, we demonstrate that the combination of palaeo-distribution modeling with phylogeographical approaches provides a more differentiated picture of the distributional history of species and partly supports (P. hirsuta) and partly modifies (P. daonensis and P. hirsuta) hypotheses of Quaternary distributional history. Some of the refugial area indicated by palaeodistribution models could not have been identified with phylogeographic data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

High-grade gliomas represent a group of aggressive brain tumors with poor prognosis due to an inherent capacity of persistent cell growth and survival. The ubiquitin-proteasome system (UPS) is an intracellular machinery responsible for protein turnover. Emerging evidence implicates various proteins targeted for degradation by the UPS in key survival and proliferation signaling pathways of these tumors. In this review, we discuss the involvement of UPS in the regulation of several mediators and effectors of these pathways in malignant gliomas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A haplotype is an m-long binary vector. The XOR-genotype of two haplotypes is the m-vector of their coordinate-wise XOR. We study the following problem: Given a set of XOR-genotypes, reconstruct their haplotypes so that the set of resulting haplotypes can be mapped onto a perfect phylogeny (PP) tree. The question is motivated by studying population evolution in human genetics and is a variant of the PP haplotyping problem that has received intensive attention recently. Unlike the latter problem, in which the input is '' full '' genotypes, here, we assume less informative input and so may be more economical to obtain experimentally. Building on ideas of Gusfield, we show how to solve the problem in polynomial time by a reduction to the graph realization problem. The actual haplotypes are not uniquely determined by the tree they map onto and the tree itself may or may not be unique. We show that tree uniqueness implies uniquely determined haplotypes, up to inherent degrees of freedom, and give a sufficient condition for the uniqueness. To actually determine the haplotypes given the tree, additional information is necessary. We show that two or three full genotypes suffice to reconstruct all the haplotypes and present a linear algorithm for identifying those genotypes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geophysical techniques can help to bridge the inherent gap with regard to spatial resolution and the range of coverage that plagues classical hydrological methods. This has lead to the emergence of the new and rapidly growing field of hydrogeophysics. Given the differing sensitivities of various geophysical techniques to hydrologically relevant parameters and their inherent trade-off between resolution and range the fundamental usefulness of multi-method hydrogeophysical surveys for reducing uncertainties in data analysis and interpretation is widely accepted. A major challenge arising from such endeavors is the quantitative integration of the resulting vast and diverse database in order to obtain a unified model of the probed subsurface region that is internally consistent with all available data. To address this problem, we have developed a strategy towards hydrogeophysical data integration based on Monte-Carlo-type conditional stochastic simulation that we consider to be particularly suitable for local-scale studies characterized by high-resolution and high-quality datasets. Monte-Carlo-based optimization techniques are flexible and versatile, allow for accounting for a wide variety of data and constraints of differing resolution and hardness and thus have the potential of providing, in a geostatistical sense, highly detailed and realistic models of the pertinent target parameter distributions. Compared to more conventional approaches of this kind, our approach provides significant advancements in the way that the larger-scale deterministic information resolved by the hydrogeophysical data can be accounted for, which represents an inherently problematic, and as of yet unresolved, aspect of Monte-Carlo-type conditional simulation techniques. We present the results of applying our algorithm to the integration of porosity log and tomographic crosshole georadar data to generate stochastic realizations of the local-scale porosity structure. Our procedure is first tested on pertinent synthetic data and then applied to corresponding field data collected at the Boise Hydrogeophysical Research Site near Boise, Idaho, USA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many assays to evaluate the nature, breadth, and quality of antigen-specific T cell responses are currently applied in human medicine. In most cases, assay-related protocols are developed on an individual laboratory basis, resulting in a large number of different protocols being applied worldwide. Together with the inherent complexity of cellular assays, this leads to unnecessary limitations in the ability to compare results generated across institutions. Over the past few years a number of critical assay parameters have been identified which influence test performance irrespective of protocol, material, and reagents used. Describing these critical factors as an integral part of any published report will both facilitate the comparison of data generated across institutions and lead to improvements in the assays themselves. To this end, the Minimal Information About T Cell Assays (MIATA) project was initiated. The objective of MIATA is to achieve a broad consensus on which T cell assay parameters should be reported in scientific publications and to propose a mechanism for reporting these in a systematic manner. To add maximum value for the scientific community, a step-wise, open, and field-spanning approach has been taken to achieve technical precision, user-friendliness, adequate incorporation of concerns, and high acceptance among peers. Here, we describe the past, present, and future perspectives of the MIATA project. We suggest that the approach taken can be generically applied to projects in which a broad consensus has to be reached among scientists working in fragmented fields, such as immunology. An additional objective of this undertaking is to engage the broader scientific community to comment on MIATA and to become an active participant in the project.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Acoustic waveform inversions are an increasingly popular tool for extracting subsurface information from seismic data. They are computationally much more efficient than elastic inversions. Naturally, an inherent disadvantage is that any elastic effects present in the recorded data are ignored in acoustic inversions. We investigate the extent to which elastic effects influence seismic crosshole data. Our numerical modeling studies reveal that in the presence of high contrast interfaces, at which P-to-S conversions occur, elastic effects can dominate the seismic sections, even for experiments involving pressure sources and pressure receivers. Comparisons of waveform inversion results using a purely acoustic algorithm on synthetic data that is either acoustic or elastic, show that subsurface models comprising small low-to-medium contrast (?30%) structures can be successfully resolved in the acoustic approximation. However, in the presence of extended high-contrast anomalous bodies, P-to-S-conversions may substantially degrade the quality of the tomographic images. In particular, extended low-velocity zones are difficult to image. Likewise, relatively small low-velocity features are unresolved, even when advanced a priori information is included. One option for mitigating elastic effects is data windowing, which suppresses later arriving seismic arrivals, such as shear waves. Our tests of this approach found it to be inappropriate because elastic effects are also included in earlier arriving wavetrains. Furthermore, data windowing removes later arriving P-wave phases that may provide critical constraints on the tomograms. Finally, we investigated the extent to which acoustic inversions of elastic data are useful for time-lapse analyses of high contrast engineered structures, for which accurate reconstruction of the subsurface structure is not as critical as imaging differential changes between sequential experiments. Based on a realistic scenario for monitoring a radioactive waste repository, we demonstrated that acoustic inversions of elastic data yield substantial distortions of the tomograms and also unreliable information on trends in the velocity changes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we argue that important labor market phenomena can be better understood if one takes (a) the inherent incompleteness and relational nature of most employment contracts and (b) the existence of reference-dependent fairness concerns among a substantial share of the population into account. Theory shows and experiments confirm that, even if fairness concerns were to exert only weak effects in one-shot interactions, repeated interactions greatly magnify the relevance of such concerns on economic outcomes. We also review evidence from laboratory and field experiments examining the role of wages and fairness on effort, derive predictions from our approach for entry-level wages and incumbent workers' wages, confront these predictions with the evidence, and show that reference-dependent fairness concerns may have important consequences for the effects of economic policies such as minimum wage laws.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

After years of reciprocal lack of interest, if not opposition, neuroscience and psychoanalysis are poised for a renewed dialogue. This article discusses some aspects of the Freudian metapsychology and its link with specific biological mechanisms. It highlights in particular how the physiological concept of homeostasis resonates with certain fundamental concepts of psychoanalysis. Similarly, the authors underline how the Freud and Damasio theories of brain functioning display remarkable complementarities, especially through their common reference to Meynert and James. Furthermore, the Freudian theory of drives is discussed in the light of current neurobiological evidences of neural plasticity and trace formation and of their relationships with the processes of homeostasis. The ensuing dynamics between traces and homeostasis opens novel avenues to consider inner life in reference to the establishment of fantasies unique to each subject. The lack of determinism, within a context of determinism, implied by plasticity and reconsolidation participates in the emergence of singularity, the creation of uniqueness and the unpredictable future of the subject. There is a gap in determinism inherent to biology itself. Uniqueness and discontinuity: this should today be the focus of the questions raised in neuroscience. Neuroscience needs to establish the new bases of a "discontinuous" biology. Psychoanalysis can offer to neuroscience the possibility to think of discontinuity. Neuroscience and psychoanalysis meet thus in an unexpected way with regard to discontinuity and this is a new point of convergence between them.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quantifying the spatial configuration of hydraulic conductivity (K) in heterogeneous geological environments is essential for accurate predictions of contaminant transport, but is difficult because of the inherent limitations in resolution and coverage associated with traditional hydrological measurements. To address this issue, we consider crosshole and surface-based electrical resistivity geophysical measurements, collected in time during a saline tracer experiment. We use a Bayesian Markov-chain-Monte-Carlo (McMC) methodology to jointly invert the dynamic resistivity data, together with borehole tracer concentration data, to generate multiple posterior realizations of K that are consistent with all available information. We do this within a coupled inversion framework, whereby the geophysical and hydrological forward models are linked through an uncertain relationship between electrical resistivity and concentration. To minimize computational expense, a facies-based subsurface parameterization is developed. The Bayesian-McMC methodology allows us to explore the potential benefits of including the geophysical data into the inverse problem by examining their effect on our ability to identify fast flowpaths in the subsurface, and their impact on hydrological prediction uncertainty. Using a complex, geostatistically generated, two-dimensional numerical example representative of a fluvial environment, we demonstrate that flow model calibration is improved and prediction error is decreased when the electrical resistivity data are included. The worth of the geophysical data is found to be greatest for long spatial correlation lengths of subsurface heterogeneity with respect to wellbore separation, where flow and transport are largely controlled by highly connected flowpaths.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Protein degradation is an indispensable process for cells which is often deregulated in various diseases, including malignant conditions. Depending on the specific cell type and functions of expressed proteins, this aberration may have different effects on the determination of malignant phenotypes. A discrete, inherent feature of malignant glioma is its profound invasive and migratory potential, regulated by the expression of signaling and effector proteins, many of which are also subjected to post-translational regulation by the ubiquitin-proteasome system (UPS). Here we provide an overview of this connection, focusing on important pro-invasive protein signals targeted by the UPS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The use and manufacture of tools have been considered to be cognitively demanding and thus a possible driving factor in the evolution of intelligence. In this study, we tested the hypothesis that enhanced physical cognitive abilities evolved in conjunction with the use of tools, by comparing the performance of naturally tool-using and non-tool-using species in a suite of physical and general learning tasks. We predicted that the habitually tool-using species, New Caledonian crows and Galápagos woodpecker finches, should outperform their non-tool-using relatives, the small tree finches and the carrion crows in a physical problem but not in general learning tasks. We only found a divergence in the predicted direction for corvids. That only one of our comparisons supports the predictions under this hypothesis might be attributable to different complexities of tool-use in the two tool-using species. A critical evaluation is offered of the conceptual and methodological problems inherent in comparative studies on tool-related cognitive abilities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Mississippi Valley-type (MVT) Pb-Zn ore district at Mezica is hosted by Middle to Upper Triassic platform carbonate rocks in the Northern Karavanke/Drau Range geotectonic units of the Eastern Alps, northeastern Slovenia. The mineralization at Mezica covers an area of 64 km(2) with more than 350 orebodies and numerous galena and sphalerite occurrences, which formed epigenetically, both conformable and discordant to bedding. While knowledge on the style of mineralization has grown considerably, the origin of discordant mineralization is still debated. Sulfur stable isotope analyses of 149 sulfide samples from the different types of orebodies provide new insights on the genesis of these mineralizations and their relationship. Over the whole mining district, sphalerite and galena have delta(34)S values in the range of -24.7 to -1.5% VCDT (-13.5 +/- 5.0%) and -24.7 to -1.4% (-10.7 +/- 5.9%), respectively. These values are in the range of the main MVT deposits of the Drau Range. All sulfide delta(34)S values are negative within a broad range, with delta(34)S(pyrite) < delta(34)S(sphalerite) < delta(34)S(galena) for both conformable and discordant orebodies, indicating isotopically heterogeneous H(2)S in the ore-forming fluids and precipitation of the sulfides at thermodynamic disequilibrium. This clearly supports that the main sulfide sulfur originates from bacterially mediated reduction (BSR) of Middle to Upper Triassic seawater sulfate or evaporite sulfate. Thermochemical sulfate reduction (TSR) by organic compounds contributed a minor amount of (34)S-enriched H(2)S to the ore fluid. The variations of delta(34)S values of galena and coarse-grained sphalerite at orefield scale are generally larger than the differences observed in single hand specimens. The progressively more negative delta(34)S values with time along the different sphalerite generations are consistent with mixing of different H(2)S sources, with a decreasing contribution of H(2)S from regional TSR, and an increase from a local H(2)S reservoir produced by BSR (i.e., sedimentary biogenic pyrite, organo-sulfur compounds). Galena in discordant ore (-11.9 to -1.7%; -7.0 +/- 2.7%, n=12) tends to be depleted in (34)S compared with conformable ore (-24.7 to -2.8%, -11.7 +/- 6.2%, n=39). A similar trend is observed from fine-crystalline sphalerite I to coarse open-space filling sphalerite II. Some variation of the sulfide delta(34)S values is attributed to the inherent variability of bacterial sulfate reduction, including metabolic recycling in a locally partially closed system and contribution of H(2)S from hydrolysis of biogenic pyrite and thermal cracking of organo-sulfur compounds. The results suggest that the conformable orebodies originated by mixing of hydrothermal saline metal-rich fluid with H(2)S-rich pore waters during late burial diagenesis, while the discordant orebodies formed by mobilization of the earlier conformable mineralization.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cellules dendritiques sont des cellules du système immunitaire qui permettent d'instruire les lymphocytes T, autres cellules de ce système, pour mettre en place une réponse immunitaire adaptée afin de combattre et vaincre une infection. Ces cellules dendritiques vont reconnaître des motifs spécifiquement exprimés par des pathogènes par l'intermédiaire de récepteurs exprimés à leur surface. En détectant ces molécules, elles vont s'activer et subir diverses modifications pour pouvoir activer les lymphocytes T. Elles vont alors interagir avec les lymphocytes Τ et transférer les informations nécessaires pour que ces cellules s'activent à leur tour et produisent différentes protéines de façon à éliminer le pathogène. En fonction du type de pathogène, les informations transférées entre les cellules dendritiques et les lymphocytes seront différentes de manière à produire la réponse immunitaire la mieux adaptée pour supprimer l'élément infectieux. Dans le corps, les cellules dendritiques circulent continuellement afin de détecter les éléments étrangers. Quand elles reconnaissent une protéine étrangère, elles la phagocytent, c'est-à-dire qu'elles la mangent afin de pouvoir la présenter aux lymphocytes T. Mais quand elles phagocytent un élément étranger, elles peuvent également prendre des éléments du soi, comme par exemple quand elles phagocytent une cellule infectée par un virus. Les cellules dendritiques doivent alors être capables de différentier les molécules du soi et du non-soi de façon à ne pas induire une réponse en présentant un antigène du soi aux lymphocytes T. D'autant plus que lors de leur développement, les lymphocytes Τ qui sont capables de reconnaître le soi sont éliminés mais ce système n'est pas parfait et donc certains lymphocytes Τ auto-reactifs peuvent se trouver dans le corps. Il existe ainsi d'autres mécanismes en périphérie du site de développement pour inhiber ces lymphocytes Τ auto-reactifs. Ce sont les mécanismes de tolérance. Quand les lymphocytes Τ induisent une réponse aux antigènes du soi, cela résulte à des maladies auto-immunes. Dans mon projet de recherche, nous avons travaillé avec des lignées de cellules dendritiques, c'est-à-dire des cellules dendritiques semblables à celles que l'on peut trouver in vivo mais qui sont immortalisées, elles peuvent donc être cultiver et manipuler in vitro. Nous avons génétiquement modifiées ces lignées cellulaires pour qu'elles expriment des molécules immunosuppressives afin d'étudier comment induire une tolérance immunitaire, c'est-à-dire si l'expression de ces molécules permet d'éviter de générer une réponse immunitaire. Pour cela, nous avons utilisé des modèles murins de tumeurs et de maladies auto-immunes. Nous avons démontré que ces lignées de cellules dendritiques peuvent être un grand outil de recherche pour étudier les bénéfices de différentes molécules immuno-modulatrices afin d'induire une tolérance immunitaire à différents antigènes. - Les cellules dendritiques sont responsables de l'induction des réponses immunitaires adaptatives. Suite à une infection microbienne, les cellules dendritiques s'activent, elles induisent l'expression de molécules de costimulation à leur surface, sécrètent des cytokines et induisent la différentiation des cellules Τ effectrices et mémoires. De plus, les cellules dendritiques ont un rôle important dans l'induction et la maintenance de la tolérance immunitaire au niveau du thymus et en périphérie, en induisant l'anergie, la délétion ou la conversion des cellules Τ naïves en cellules régulatrices. Dans notre groupe, une nouvelle lignée de cellules dendritiques appelée MuTu a été crée par la culture de cellules dendritiques tumorales isolées à partir d'une rate d'une souris transgénique, dans laquelle l'expression de l'oncogène SV40 et du GFP sont sous le contrôle du promoteur CD1 le, et sont ainsi spécifiquement exprimés dans les cellules dendritiques. Ces nouvelles lignées appartiennent au sous-type des cellules dendritiques conventionnelles exprimant CD8a. Elles ont conservé leur capacité d'augmenter l'expression des marqueurs de costimulation à leur surface ainsi que le production de cytokines en réponse à des ligands des récepteurs Toll, ainsi que leur capacité à présenter des antigènes associés aux molécules du complexe majeur d'histocompatibilité (CMH) de classe I ou II pour activer la prolifération et la différentiation des lymphocytes T. En utilisant un système de transduction de lentivirus de seconde génération, ces nouvelles lignées de cellules dendritiques ont été génétiquement modifiées pour sur-exprimer des molécules immunosuppressives (IL-10, TGFP latent, TGFp actif, Activin A, Arginase 1, IDO, B7DC et CTLA4). Ces lignées permettent d'étudier de manière reproductible le rôle de ces molécules potentiellement tolérogènes sur les réponses immunitaires in vitro et in vivo. Ces lignées potentiellement tolérogènes ont été testées, tout d'abord, in vitro, pour leur capacité à inhiber l'activation des cellules dendritiques, à bloquer la prolifération des cellules Τ ou à modifier leur polarisation. Nos résultats démontrent qu'en réponse à une stimulation, la sur-expression des molécules costimulatrices et la sécrétion de molécules pro- inflammatoires est réduite quand les cellules dendritiques sur-expriment l'IL-10. La sur¬expression de TGFp sous sa forme active induit le développement de cellules régulatrices CD4+ CD25+ Foxp3+ et bloque la réponse CD8 cytotoxique tandis que la sur-expression de CTLA4 à la surface des cellules dendritiques inhibe une réponse Thl et induit des lymphocytes Τ anergiques. Ces lignées ont également été utilisées pour étudier l'induction de tolérance in vivo. Tout d'abord, nous avons étudié l'induction de tolérance dans un modèle de développement de tumeurs. En effet, quand les lignées tumorales sont transférées dans les lignées de souris C57BL/6, elles sont reconnues comme du non-soi du à l'expression de l'oncogène SV40 et du GFP et sont éliminées. Ce mécanisme d'élimination a été étudié en utilisant une lignée de cellules dendritiques modifiée pour exprimer la luciférase et qui a permis de suivre le développement des tumeurs par de l'imagerie in vivo dans des animaux vivants. Ces lignées de cellules dendritiques MuTu sont éliminées dans la souris C57BL/6 par les lymphocytes CD8 et l'action cytotoxique de la perforine. Après plusieurs injections, les cellules dendritiques sur-exprimant CTLA4 ou l'actif TGFp peuvent casser cette réponse immunitaire inhérente aux antigènes de la lignée et induire le développement de la tumeur dans la souris C57BL/6. Le développement tumoral a pu être suivi en mesurant la bioluminescence émise par des cellules dendritiques modifiées pour exprimer à la fois l'actif TGFp et la luciférase. Ces tumeurs ont pu se développer grâce à la mise en place d'un microenvironnement suppressif pour échapper à l'immunité en recrutant des cellules myéloïde suppressives, des lymphocytes CD4 régulateurs et en induisant l'expression d'une molécule inhibitrice PD-1 à la surface des lymphocytes CD8 infiltrant la tumeur. Dans un deuxième temps, ces lignées tolérogènes ont également été testées dans un modèle murin de maladies auto-immunes, appelé l'encéphalomyélite auto-immune expérimental (EAE), qui est un modèle pour la sclérose en plaques. L'EAE a été induite dans la souris par le transfert de cellules de ganglions prélevées d'une souris donneuse préalablement immunisée avec une protéine du système nerveux central, la glycoprotéine myéline oligodendrocyte (MOG) émulsifiée dans de l'adjuvant complet de Freund. La vaccination des souris donneuses et receveuses avec les cellules sur-exprimant l'actif TGFP préalablement chargées avec la protéine MOG bloque l'induction de l'EAE. Nous sommes actuellement en train de définir les mécanismes qui permettent de protéger la souris du développement de la maladie auto-immune. Dans cette étude, nous avons ainsi démontré la possibilité d'induire la tolérance in vivo et in vitro à différents antigènes en utilisant nos nouvelles lignées de cellules dendritiques et en les modifiant pour exprimer des molécules immunosuppressives. En conséquence, ces nouvelles lignées de cellules dendritiques représentent un outil pour explorer les bénéfices de différentes molécules ayant des propriétés immuno-modulatrices pour manipuler le système immunitaire vers un phénotype tolérogène. - Dendritic cells (DC) are widely recognized as potent inducers of the adaptive immune responses. Importantly, after microbial infections, DC become activated, induce co- stimulation, secrete cytokines and induce effector and memory Τ cells. DC furthermore play an important role in inducing and maintaining central and peripheral tolerance by inducing anergy, deletion or commitment of antigen-specific naïve Τ cells into regulatory Τ cells. In our group, stable MuTu DC lines were generated by culture of splenic DC tumors from transgenic mice expressing the SV40 large Τ oncogene and the GFP under DC-specific CDllc promoter. These transformed DC belong to the CD8a+ conventional DC subtype and have fully conserved their capacity to upregulate co-stimulatory markers and produce cytokines after activation with Toll Like Receptors-ligands, and to present Major Histocompatibility class-I or MHCII-restricted antigens to activate Τ cell expansion and differentiation. Using a second- generation lentiviral transduction system, these newly developed MuTu DC lines were genetically modified to overexpress immunosuppressive molecules (IL-10, latent TGFp, active TGFp, Activin A, Arginase 1, IDO, B7DC and CTLA4). This allows to reproducibly investigate the role of these potentially tolerogenic molecules on in vitro and in vivo immune responses. These potentially tolerogenic DC were tested in vitro for their ability to inhibit DC activation, to prevent Τ cell proliferation and to modify Τ cell polarization. Our results show that the upregulation of costimulatory molecules and the secretion of pro-inflammatory cytokines were reduced upon stimulation of DC overexpressing IL-10. The overexpression of active TGFP induced the development of CD4+ CD25+ Foxp3+ regulatory Τ cells and inhibited the cytotoxic CD8 Τ cell response as shown by using the OT-II Τ cell system whereas the surface expression of CTLA-4 on DC prevented the Thl response and prompted an anergic antigen-specific Τ cell response. These MuTu DC lines were also used in vivo in order to study the induction of tolerance. First we addressed the induction of tolerance in a model of tumorogenesis. The adoptively transferred tumor cell lines were cleared in C57BL/6 mice due to the foreign expression of SV40 LargeT and GFP. The mechanism of clearance of MuTu DC line into C57BL/6 mice was investigated by using luciferase-expressing DC line. These DC line allowed to follow, by in vivo imaging, the tumor development in living animals and determined that MuTu DC lines were eliminated in a perforin-mediated CD8 Τ cell dependent and CD4 Τ cell independent response. After multiple injections, DC overexpressing CTLA4 or active TGFp could break the immune response to these inherent antigens and induced DC tumorogenesis in wild type mice. The tumor outgrowth in C57BL/6 mice was nicely observed by double-transduced DC lines to express both luciferase and active TGFp. actTGFp-DC tumor was shown to recruit myeloid-derived suppressor cells, induce CD4+ CD25+ Foxp3+ regulatory Τ cells and induce the expression of the inhibitory receptor PD-1 on tumor- infiltrating CD8+ Τ cells in order to escape tumor immunity. Tolerogenic DC lines were also tested for the induction of tolerance in a murine model of autoimmune disease, the experimental autoimmune encephalitis (EAE) model for human multiple sclerosis. EAE was induced in C57BL/6 mice by the adoptive transfer of lymph node cells isolated from donor mice previously immunized by a protein specific to the central nervous system, the myelin oligodendrocyte glycoprotein (MOG) emulsified in the complete freund adjuvant. The vaccination of donor and recipient mice with MOG-pulsed actTGFP-DC line prevented EAE induction. We are still investigating how the active TGFP protect mice from EAE development. We generated tolerogenic DC lines inducing tolerance in vitro and in vivo. Thereby these MuTu DC lines represent a great tool to explore the benefits of various immuno-modulatory molecules to manipulate the immune system toward a tolerogenic phenotype.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.